Ποιοι είναι οι κίνδυνοι της εταιρικής εισαγωγής του ChatGPT; Ανάλυση περιπτώσεων διαρροής εμπιστευτικών πληροφοριών και στρατηγικών αντιμετώπισης.
Η εισαγωγή του ChatGPT εντός των επιχειρήσεων προχωρά σταθερά. Παρόλο που η χρησιμότητά του προσελκύει την προσοχή, υπάρχουν κάποια σημεία που πρέπει να προσέξουμε. Ένα από αυτά είναι ότι δεν πρέπει να εισάγουμε εμπιστευτικές πληροφορίες στο ChatGPT. Στο εξωτερικό, υπάρχουν περιπτώσεις όπου η εισαγωγή εμπιστευτικών δεδομένων οδήγησε σε σοβαρές διαρροές εταιρικών μυστικών.
Σε αυτό το άρθρο, ένας δικηγόρος θα αναλύσει τη χρήση του ChatGPT στον επιχειρηματικό κόσμο, που βρίσκεται σε συνεχή εξέλιξη, εστιάζοντας στον κίνδυνο διαρροής εμπιστευτικών πληροφοριών, καθώς και σε πραγματικά περιστατικά και τα μέτρα που πρέπει να ληφθούν.
Οι λόγοι που δεν πρέπει να εισάγετε εμπιστευτικές πληροφορίες στο ChatGPT
Αν και το ChatGPT είναι πρακτικό, αποτελεί ένα AI chatbot που δημιουργείται μέσω της μάθησης από τα big data και τα δεδομένα χρήσης στο διαδίκτυο, γεγονός που σημαίνει ότι, χωρίς τη λήψη κατάλληλων μέτρων, υπάρχει κίνδυνος διαρροής των εισαγόμενων εμπιστευτικών πληροφοριών.
Θα αναλύσουμε αναλυτικά τα μέτρα πρόληψης του κινδύνου διαρροής εμπιστευτικών πληροφοριών σε επόμενο σημείο, αλλά πρώτα θα εξηγήσουμε τους κινδύνους που σχετίζονται με τη διαρροή εμπιστευτικών πληροφοριών πέραν του ChatGPT.
Κίνδυνοι που αντιμετωπίζουν οι επιχειρήσεις από τη χρήση του ChatGPT πέρα από τη διαρροή εμπιστευτικών πληροφοριών
Το ChatGPT βρίσκεται στο στάδιο εισαγωγής και δοκιμών σε πολλές επιχειρήσεις αυτή τη στιγμή. Επομένως, είναι απαραίτητο να κατανοήσουμε πλήρως τους κινδύνους πριν αποφασίσουμε για την επιχειρηματική χρήση του.
Οι κίνδυνοι ασφάλειας που μπορεί να αντιμετωπίσει μια επιχείρηση από τη χρήση του ChatGPT, πέρα από τη διαρροή εμπιστευτικών πληροφοριών (συμπεριλαμβανομένων των προσωπικών δεδομένων), περιλαμβάνουν τα εξής δύο σημεία:
- Κίνδυνος αξιοπιστίας των παραγόμενων πληροφοριών
- Κίνδυνος παραβίασης πνευματικών δικαιωμάτων των εισερχόμενων/εξερχόμενων πληροφοριών
Θα αναλύσουμε αναλυτικά κάθε ένα από αυτά.
Έλλειψη αξιοπιστίας στις παραγόμενες πληροφορίες
Το GPT-4, που κυκλοφόρησε στις 14 Μαρτίου 2023, είναι εφοδιασμένο με λειτουργία αναζήτησης, επιτρέποντας την παροχή των πιο ενημερωμένων πληροφοριών. Ωστόσο, το ChatGPT παράγει απαντήσεις που φαίνονται σαν αλήθεια, αλλά η αξιοπιστία τους δεν είναι εγγυημένη. Οι απαντήσεις που δημιουργεί το ChatGPT δεν βασίζονται στην ακρίβεια των δεδομένων εκπαίδευσης, αλλά παράγονται ως τα πιθανότερα (ή πιο πιθανά) κείμενα. Επομένως, πριν χρησιμοποιήσετε τα αποτελέσματα, είναι απαραίτητος ο έλεγχος των γεγονότων. Εάν μια επιχείρηση διαδώσει πληροφορίες που αποδεικνύονται ψευδείς, υπάρχει κίνδυνος να υποστεί ζημιά η φήμη της.
Νομικοί κίνδυνοι όπως η παραβίαση πνευματικών δικαιωμάτων
Η αξιολόγηση της παραβίασης πνευματικών δικαιωμάτων στο ChatGPT διαφέρει ανάμεσα στο «στάδιο ανάπτυξης και εκπαίδευσης της AI» και το «στάδιο παραγωγής και χρήσης». Επειδή οι πράξεις χρήσης των έργων διαφέρουν σε κάθε στάδιο, διαφέρουν και τα άρθρα του νόμου περί πνευματικών δικαιωμάτων. Συνεπώς, πρέπει να τα εξετάσουμε ξεχωριστά.
Στον αναθεωρημένο νόμο περί πνευματικών δικαιωμάτων που τέθηκε σε ισχύ τον Ιανουάριο του 2019, έχει προστεθεί ένα νέο άρθρο, το άρθρο 30 του 4, στις διατάξεις περιορισμού δικαιωμάτων (εξαιρέσεις που δεν απαιτούν άδεια) για το «στάδιο ανάπτυξης και εκπαίδευσης της AI». Οι πράξεις χρήσης που δεν στοχεύουν στην απόλαυση των ιδεών ή των συναισθημάτων που εκφράζονται σε ένα έργο, όπως η ανάλυση πληροφοριών για την ανάπτυξη της AI, μπορούν να γίνουν χωρίς την άδεια του δημιουργού, ως κανόνας.
Από την άλλη πλευρά, εάν τα παραγόμενα από το ChatGPT έχουν ομοιότητα ή εξάρτηση (τροποποίηση) από ένα έργο, τότε αυτό μπορεί να αποτελέσει παραβίαση πνευματικών δικαιωμάτων. Επομένως, πριν τη δημοσίευση, είναι σημαντικό να ελέγξουμε τους κατόχους των δικαιωμάτων των πληροφοριών που αναφέρει το ChatGPT και να επιβεβαιώσουμε ότι δεν υπάρχουν παρόμοια περιεχόμενα με αυτά που δημιούργησε το ChatGPT. Και όταν πρόκειται για παράθεση ενός έργου, πρέπει να αναφέρουμε την πηγή (διατάξεις περιορισμού δικαιωμάτων) ή, αν πρόκειται για αναδημοσίευση, να λάβουμε την άδεια χρήσης από τον δημιουργό και να την χειριστούμε κατάλληλα.
Εάν ένας δημιουργός επισημάνει παραβίαση των πνευματικών δικαιωμάτων, η επιχείρηση μπορεί να αντιμετωπίσει αστική ευθύνη (αποζημίωση για ζημίες, αποζημίωση για ηθική βλάβη, απαγόρευση χρήσης, αποκατάσταση της φήμης κ.λπ.) ή και ποινική ευθύνη (κατ’ ιδίαν προσφυγή).
Περιστατικά που δημιούργησαν πρόβλημα με την εισαγωγή εμπιστευτικών πληροφοριών στο ChatGPT
Στις 30 Μαρτίου 2023, τα Κορεατικά μέσα ενημέρωσης “EConomist” ανέφεραν ότι, μετά την εξουσιοδότηση της χρήσης του ChatGPT στο τμήμα ημιαγωγών της Samsung Electronics, σημειώθηκαν τρία περιστατικά εισαγωγής εμπιστευτικών πληροφοριών.
Παρά τις προειδοποιήσεις για την ασφάλεια πληροφοριών που είχαν γίνει εντός της εταιρείας, υπήρξαν περιπτώσεις όπου εργαζόμενοι έστειλαν τον πηγαίο κώδικα για να ζητήσουν τροποποιήσεις στο πρόγραμμα (δύο περιστατικά) ή μετέφεραν περιεχόμενο συσκέψεων για τη δημιουργία πρακτικών.
Μετά την εμφάνιση αυτών των περιστατικών, η εταιρεία εφάρμοσε επείγουσες διαδικασίες περιορίζοντας το μέγεθος ανεβάσματος ανά ερώτηση στο ChatGPT. Επιπλέον, αναφέρθηκε ότι εάν παρόμοια περιστατικά επαναληφθούν, υπάρχει πιθανότητα να διακοπεί η σύνδεση με την υπηρεσία.
Επιπρόσθετα, η Walmart και η Amazon προειδοποιούν τους εργαζομένους τους να μην μοιράζονται εμπιστευτικές πληροφορίες μέσω των chatbots. Ένας δικηγόρος της Amazon ανέφερε ότι έχουν ήδη παρατηρηθεί περιπτώσεις όπου οι απαντήσεις του ChatGPT μοιάζουν με εσωτερικά δεδομένα της Amazon, υποδηλώνοντας ότι τα δεδομένα αυτά μπορεί να έχουν χρησιμοποιηθεί για εκμάθηση.
Μέτρα για την Προστασία Εμπιστευτικών Πληροφοριών κατά τη Χρήση του ChatGPT
Η OpenAI εξηγεί στους όρους χρήσης και σε άλλα έγγραφα ότι χρησιμοποιεί τα δεδομένα που εισάγονται στο σύστημα για τη βελτίωσή του και για εκπαιδευτικούς σκοπούς, και συνιστά να μην αποστέλλονται ευαίσθητες πληροφορίες.
Σε αυτό το κεφάλαιο, θα παρουσιάσουμε τέσσερα μέτρα, τόσο υλικοτεχνικά όσο και λογισμικού, για την προστασία των εμπιστευτικών πληροφοριών κατά τη χρήση του ChatGPT.
Δημιουργία Οδηγιών Χρήσης Εντός της Εταιρείας
Κατά την ενσωμάτωση του ChatGPT σε μια επιχείρηση, είναι σημαντικό να αυξηθεί η ενημέρωση των ατόμων σχετικά με την ασφάλεια πληροφοριών και να προωθηθεί η επανεκπαίδευση εντός της εταιρείας, ωστόσο, είναι επιθυμητό να δημιουργηθούν επίσης οδηγίες χρήσης του ChatGPT που θα είναι προσαρμοσμένες στις ανάγκες της δικής σας εταιρείας.
Στις 1 Μαΐου 2023 (Reiwa 5), η Εταιρεία Ιαπωνικής Βαθιάς Μάθησης (JDLA) συνόψισε τα ηθικά, νομικά και κοινωνικά ζητήματα (ELSI) που σχετίζονται με το ChatGPT και δημοσίευσε τις “Οδηγίες Χρήσης της Γενετικής AI”. Επιπλέον, η δημιουργία οδηγιών χρήσης εξετάζεται σε διάφορους τομείς, συμπεριλαμβανομένων της βιομηχανίας, της ακαδημαϊκής κοινότητας και της κυβέρνησης.
Αξιοποιώντας αυτές τις πληροφορίες ως αφετηρία, η δημιουργία ενός εγγράφου με τους κανόνες χρήσης του ChatGPT ειδικά για την εταιρεία σας μπορεί να συμβάλει στην αποφυγή ορισμένων κινδύνων.
Πηγή: Εταιρεία Ιαπωνικής Βαθιάς Μάθησης (JDLA) | Οδηγίες Χρήσης της Γενετικής AI[ja]
Ενσωμάτωση τεχνολογίας για την αποτροπή διαρροής εμπιστευτικών πληροφοριών
Ως μέτρο πρόληψης των ανθρώπινων λαθών που οδηγούν σε διαρροή εμπιστευτικών πληροφοριών, η εισαγωγή ενός συστήματος που ονομάζεται DLP (Data Loss Prevention) μπορεί να αποτρέψει την αποστολή και αντιγραφή εμπιστευτικών πληροφοριών.
Το DLP είναι μια λειτουργία που παρακολουθεί συνεχώς τα εισαγόμενα δεδομένα, αναγνωρίζει και προστατεύει αυτόματα τις εμπιστευτικές πληροφορίες και τα σημαντικά δεδομένα. Χρησιμοποιώντας το DLP, είναι δυνατόν να ειδοποιηθείτε με ειδοποιήσεις ή να μπλοκάρετε ενέργειες όταν ανιχνευθούν εμπιστευτικές πληροφορίες. Μπορείτε να προλάβετε με ασφάλεια τη διαρροή πληροφοριών από το εσωτερικό της εταιρείας ενώ παράλληλα διατηρείτε χαμηλό το κόστος διαχείρισης, αλλά απαιτείται μια προχωρημένη κατανόηση των συστημάτων ασφαλείας και η ομαλή εισαγωγή τους μπορεί να είναι δύσκολη για εταιρείες χωρίς τεχνικό τμήμα.
Σκέψεις για την Εισαγωγή Εξειδικευμένου Εργαλείου
Από τον Μάρτιο του 2023 (2023年3月), το ChatGPT προσφέρει τη δυνατότητα να προστατεύει τα δεδομένα που αποστέλλονται σε αυτό, μέσω της χρήσης του API (συντομογραφία για “Application Programming Interface”, δηλαδή τη διεπαφή που συνδέει λογισμικά, προγράμματα και Web υπηρεσίες).
Τα δεδομένα που αποστέλλονται μέσω API δεν χρησιμοποιούνται για εκμάθηση ή βελτίωση, αλλά διατηρούνται για 30 ημέρες για «παρακολούθηση προκειμένου να αποτραπεί η παράνομη χρήση ή η κατάχρηση», πριν διαγραφούν σύμφωνα με την πολιτική αποθήκευσης. Ωστόσο, σε περίπτωση που υπάρξει «νομική απαίτηση», η περίοδος αποθήκευσης των δεδομένων μπορεί να παραταθεί.
Ακόμη και με αυτή τη ρύθμιση που αποτρέπει τη χρήση του ChatGPT για εκμάθηση ή βελτίωση, τα δεδομένα διατηρούνται για ένα ορισμένο διάστημα στον διακομιστή, γεγονός που θεωρητικά δημιουργεί κίνδυνο διαρροής πληροφοριών. Επομένως, όταν εισάγετε ευαίσθητες ή προσωπικές πληροφορίες, απαιτείται μέγιστη προσοχή.
Παρ’ όλα αυτά, η OpenAI δίνει μεγάλη σημασία στο απόρρητο των χρηστών και στην ασφάλεια των δεδομένων, λαμβάνοντας αυστηρά μέτρα ασφαλείας. Για ακόμα πιο ασφαλή χρήση, συνιστάται η εισαγωγή του «Azure OpenAI Service», ενός εργαλείου με προηγμένα μέτρα ασφαλείας.
Το εργαλείο «Azure OpenAI Service», που είναι ειδικά σχεδιασμένο για επιχειρήσεις, δεν συλλέγει δεδομένα που εισάγονται στο ChatGPT μέσω API. Επιπλέον, εφόσον υποβάλετε αίτηση για αποχώρηση και αυτή εγκριθεί, μπορείτε καταρχήν να αρνηθείτε την 30ήμερη διατήρηση και παρακολούθηση των εισαγόμενων δεδομένων, αποφεύγοντας έτσι τον κίνδυνο διαρροής πληροφοριών.
Πώς να ρυθμίσετε το ChatGPT ώστε να μην μαθαίνει ευαίσθητες πληροφορίες που εισάγετε
Όπως αναφέρθηκε παραπάνω, το ChatGPT έχει τη δυνατότητα να μαθαίνει από όλο το περιεχόμενο που εισάγεται με την έγκριση του χρήστη, γι’ αυτό από τις 25 Απριλίου 2023 (2023), παρέχεται η δυνατότητα προεγκατάστασης της λειτουργίας αποχώρησης (opt-out).
Ως άμεσο μέτρο προληπτικής δράσης, εάν επιθυμείτε να αποτρέψετε τη χρήση των δεδομένων που εισάγετε στο ChatGPT για μάθηση ή βελτίωση, θα πρέπει να υποβάλετε αίτηση αποχώρησης (opt-out). Υπάρχει διαθέσιμη μια φόρμα Google για την «αποχώρηση» στο ChatGPT, οπότε θα ήταν σκόπιμο να ολοκληρώσετε αυτή τη διαδικασία. (Εισάγετε και αποστείλετε τη διεύθυνση email σας, το ID του οργανισμού και το όνομα του οργανισμού)
Ωστόσο, ακόμη και σε αυτή την περίπτωση, τα δεδομένα που εισάγονται θα αποθηκεύονται στους διακομιστές και θα υπόκεινται σε επιτήρηση από την OpenAI για ένα συγκεκριμένο χρονικό διάστημα (κατά κανόνα 30 ημέρες).
Όροι χρήσης του ChatGPT
3. Περιεχόμενο
(c) Χρήση περιεχομένου για βελτίωση της υπηρεσίας
Δεν χρησιμοποιούμε Περιεχόμενο που παρέχετε στο API μας ή λαμβάνετε από αυτό («Περιεχόμενο API») για να αναπτύξουμε ή να βελτιώσουμε τις Υπηρεσίες μας.
Μπορεί να χρησιμοποιήσουμε Περιεχόμενο από Υπηρεσίες που δεν περιλαμβάνουν το API μας («Περιεχόμενο μη-API») για να βοηθήσουμε στην ανάπτυξη και βελτίωση των Υπηρεσιών μας.
Εάν δεν επιθυμείτε το Περιεχόμενο μη-API να χρησιμοποιηθεί για τη βελτίωση των Υπηρεσιών, μπορείτε να αποχωρήσετε συμπληρώνοντας αυτή τη φόρμα. Παρακαλώ σημειώστε ότι σε κάποιες περιπτώσεις αυτό μπορεί να περιορίσει την ικανότητα των Υπηρεσιών μας να ανταποκριθούν καλύτερα στην συγκεκριμένη χρήση που έχετε.
Πηγή: Επίσημη ιστοσελίδα της OpenAI | Όροι χρήσης του ChatGPT https://openai.com/policies/terms-of-use
Συνοπτικά: Η χρήση του ChatGPT στον επιχειρηματικό τομέα απαιτεί αναγκαία μέτρα για τη διαχείριση εμπιστευτικών πληροφοριών
Παραπάνω, αναλύσαμε τους κινδύνους διαρροής εμπιστευτικών πληροφοριών και τα αντίστοιχα μέτρα προστασίας κατά την επιχειρηματική χρήση του ChatGPT, με βάση συγκεκριμένα παραδείγματα.
Στον τομέα των επιχειρήσεων AI όπως το ChatGPT, που εξελίσσεται με ταχύτατους ρυθμούς, είναι απαραίτητη η συνεργασία με ειδικούς για την κατάρτιση εσωτερικών οδηγιών χρήσης, την εξέταση της νομιμότητας των επιχειρηματικών μοντέλων, τη δημιουργία συμβάσεων και όρων χρήσης, την προστασία των δικαιωμάτων πνευματικής ιδιοκτησίας και την αντιμετώπιση θεμάτων απορρήτου.
Οδηγίες για τα Μέτρα από το Δικηγορικό μας Γραφείο
Το Δικηγορικό Γραφείο Monolith είναι ένα γραφείο με πλούσια εμπειρία στον τομέα της πληροφορικής, και ειδικότερα στο διαδίκτυο και το δίκαιο. Οι επιχειρήσεις AI συνοδεύονται από πολλούς νομικούς κινδύνους και η υποστήριξη από δικηγόρους με ειδίκευση σε νομικά ζητήματα που αφορούν την AI είναι απαραίτητη.
Το γραφείο μας παρέχει προηγμένη νομική υποστήριξη σε επιχειρήσεις AI, όπως το ChatGPT, μέσω μιας ομάδας δικηγόρων ειδικευμένων στην AI και μηχανικών, προσφέροντας υπηρεσίες όπως η σύνταξη συμβάσεων, η εξέταση της νομιμότητας των επιχειρησιακών μοντέλων, η προστασία των δικαιωμάτων πνευματικής ιδιοκτησίας και η αντιμετώπιση θεμάτων απορρήτου. Περισσότερες λεπτομέρειες μπορείτε να βρείτε στο παρακάτω άρθρο.
Τομείς εξειδίκευσης του Δικηγορικού Γραφείου Monolith: Νομικά ζητήματα AI (όπως το ChatGPT κ.ά.)[ja]
Category: IT
Tag: ITTerms of Use