MONOLITH LAW OFFICE+81-3-6262-3248Zilele săptămânii 10:00-18:00 JST[English Only]

MONOLITH LAW MAGAZINE

IT

Care sunt riscurile implementării ChatGPT în cadrul companiilor? Explicarea cazurilor de scurgere a informațiilor confidențiale și a măsurilor de contracarare

IT

Care sunt riscurile implementării ChatGPT în cadrul companiilor? Explicarea cazurilor de scurgere a informațiilor confidențiale și a măsurilor de contracarare

Introducerea ChatGPT-ului japonez în cadrul companiilor avansează treptat. Deși utilitatea sa atrage atenția, există câteva aspecte la care trebuie să fim atenți. Unul dintre acestea este că nu trebuie să introducem informații confidențiale în ChatGPT. Există cazuri în străinătate unde introducerea de informații confidențiale a dus la scurgeri semnificative de secrete comerciale ale companiilor.

În acest articol, un avocat va explica riscurile de scurgere a informațiilor confidențiale în utilizarea ChatGPT-ului japonez în afaceri, care evoluează zi de zi, concentrându-se pe exemple și măsuri de precauție care ar trebui luate.

Motivele pentru care nu trebuie să introducem informații confidențiale în ChatGPT

Deși ChatGPT este un instrument util, fiind un chatbot AI generat prin învățarea datelor mari de pe internet și a datelor de utilizare, dacă nu se iau măsuri de precauție, există riscul ca informațiile confidențiale introduse să fie scurse.

Despre măsurile de prevenire a scurgerii informațiilor confidențiale vom discuta mai detaliat mai târziu, dar mai întâi vom explica riscurile legate de scurgerea informațiilor confidențiale asociate cu ChatGPT, care nu sunt legate de scurgerea de informații.

Riscuri asociate utilizării ChatGPT de către companii, în afara scurgerii de informații confidențiale

ChatGPT este în prezent în faza de testare și implementare în multe companii. Prin urmare, este necesar să înțelegem pe deplin riscurile înainte de a decide dacă să îl utilizăm în activitățile noastre de afaceri.

În afara riscului de scurgere a informațiilor confidențiale (inclusiv a datelor personale), utilizarea ChatGPT poate aduce companiilor următoarele două riscuri de securitate:

  • Riscul legat de credibilitatea informațiilor generate
  • Riscul de încălcare a drepturilor de autor asupra informațiilor introduse și extrase

Vom explica în detaliu fiecare dintre acestea.

Lipsa de credibilitate a informațiilor generate

Publicat pe 14 martie 2023 (GPT-4), noul ChatGPT include o funcție de căutare, permițându-i să ofere informații actualizate. Cu toate acestea, ChatGPT generează răspunsuri ca și cum ar fi adevăruri, dar credibilitatea acestora nu este garantată. Răspunsurile generate de ChatGPT nu sunt bazate pe acuratețea datelor din setul de învățare, ci sunt create ca fiind cele mai probabile (sau plauzibile) texte. Prin urmare, este esențial să efectuați o verificare a faptelor înainte de a utiliza rezultatele generate. Dacă o companie difuzează informații false, există riscul de a-i afecta propria credibilitate.

Riscuri legale, cum ar fi încălcarea drepturilor de autor

Riscuri legale, cum ar fi încălcarea drepturilor de autor

În cazul ChatGPT, evaluarea încălcării drepturilor de autor se face diferit în faza de „dezvoltare și învățare a AI” și în faza de „generare și utilizare”. Deoarece actele de utilizare a operelor protejate prin drept de autor sunt diferite în fiecare etapă, și articolele relevante din legea drepturilor de autor diferă. Prin urmare, este necesar să le tratăm separat.

Referință: Agenția Japoneză pentru Afaceri Culturale | Seminarul privind drepturile de autor din anul 5 Reiwa (2023) „AI și drepturile de autor”[ja]

Legea revizuită a drepturilor de autor, care a intrat în vigoare în ianuarie 2019, include o nouă prevedere în articolul 30-4 privind limitările drepturilor, care permite utilizarea fără consimțământul titularului de drepturi de autor în faza de „dezvoltare și învățare a AI”. Utilizările care nu au ca scop bucurarea de idei sau sentimente exprimate în operele protejate, cum ar fi analiza informațiilor pentru dezvoltarea AI, sunt permise în principiu fără autorizația titularului de drepturi de autor.

Pe de altă parte, dacă produsele generate de ChatGPT prezintă similitudini sau dependențe (modificări) față de operele protejate, acestea pot constitui o încălcare a drepturilor de autor. Prin urmare, înainte de publicare, este important să verificați titularii de drepturi ale informațiilor la care ChatGPT a făcut referire și să vă asigurați că nu există conținut similar cu cel creat de ChatGPT. În cazul citării unei opere, este necesar să indicați sursa (conform prevederilor de limitare a drepturilor) sau, în cazul reproducției, să obțineți permisiunea de utilizare de la titularul de drepturi de autor și să procedați în mod corespunzător.

Dacă un titular de drepturi de autor indică o încălcare a drepturilor sale, compania poate fi supusă responsabilității civile (despăgubiri, compensații morale, interzicerea utilizării, restabilirea reputației etc.) sau responsabilității penale (infracțiuni la plângerea părții vătămate).

Cazuri în care introducerea de informații confidențiale în ChatGPT a devenit problematică

La data de 30 martie 2023 (Reiwa 5), media sud-coreeană ‘EConomist’ a raportat că, după ce Samsung Electronics a permis utilizarea ChatGPT în cadrul diviziei sale de semiconductori, au avut loc trei incidente în care au fost introduse informații confidențiale.

Deși Samsung Electronics a efectuat campanii de conștientizare a securității informațiilor în interiorul companiei, au existat cazuri în care angajații au trimis cod sursă pentru a solicita modificări ale programului (două cazuri) sau au transmis conținutul întâlnirilor pentru crearea de minute (un caz).

După aceste incidente, compania a luat măsuri de urgență limitând cantitatea de date care poate fi încărcată în ChatGPT pentru fiecare întrebare. De asemenea, a menționat că, în cazul în care astfel de incidente se vor repeta, există posibilitatea de a bloca accesul la serviciu.

În plus, Walmart și Amazon avertizează angajații să nu partajeze informații confidențiale prin intermediul chatbot-urilor. Un avocat de la Amazon a menționat că au existat deja cazuri în care răspunsurile ChatGPT semănau cu datele interne ale Amazon, sugerând posibilitatea ca aceste date să fi fost folosite în procesul de învățare al sistemului.

Măsuri pentru a preveni scurgerea informațiilor confidențiale atunci când se utilizează ChatGPT

OpenAI explică în termenii și condițiile de utilizare că datele introduse sunt folosite pentru îmbunătățirea sistemului, inclusiv pentru învățare, și solicită să nu se transmită informații sensibile.

În acest capitol, vom prezenta patru măsuri, atât hardware cât și software, pentru a preveni scurgerea informațiilor confidențiale atunci când se utilizează ChatGPT.

Elaborarea unor ghiduri pentru utilizarea internă

Elaborarea unor ghiduri pentru utilizarea internă

La implementarea ChatGPT în cadrul companiilor, este esențial nu doar să îmbunătățim literația în securitatea informațiilor personale și să ne ocupăm de reskilling-ul angajaților, ci și să elaborăm ghiduri proprii pentru utilizarea ChatGPT.

La data de 1 mai 2023 (Reiwa 5), Asociația Japoneză pentru Învățare Profundă (JDLA) a compilat problemele etice, legale și sociale (ELSI) legate de ChatGPT și a publicat “Ghidul de utilizare a AI-ului generativ”. În diverse domenii, inclusiv în mediul academic și guvernamental, se ia în considerare elaborarea de ghiduri.

Referindu-ne la acestea, stabilirea unor ghiduri scrise pentru regulile de utilizare a ChatGPT în cadrul companiei noastre poate contribui la evitarea anumitor riscuri.

Referință: Asociația Japoneză pentru Învățare Profundă (JDLA) | Ghidul de utilizare a AI-ului generativ[ja]

Implementarea tehnologiilor pentru a preveni scurgerile de informații confidențiale

Ca măsură de prevenire a erorilor umane care pot duce la scurgeri de informații confidențiale, este posibil să prevenim transmiterea și copierea informațiilor confidențiale prin implementarea unui sistem numit DLP (Data Loss Prevention), care previne scurgerile de date specifice.

DLP este o funcție care monitorizează constant datele introduse și identifică și protejează automat informațiile confidențiale și datele importante. Utilizând DLP, în cazul detectării informațiilor secrete, este posibil să notificăm printr-un semnal de alertă sau să blocăm acțiunea. Acesta permite prevenirea sigură a scurgerilor de informații din interior, menținând în același timp costurile de administrare la un nivel scăzut. Cu toate acestea, este necesară o înțelegere avansată a sistemelor de securitate și implementarea fără probleme în companiile fără un departament tehnic poate fi dificilă.

Considerarea introducerii unui instrument dedicat

Din martie 2023, ChatGPT a implementat utilizarea API-ului (o abreviere pentru “Application Programming Interface”, care este o interfață ce conectează software-uri, programe și servicii web) pentru a preveni scurgerile de date trimise către ChatGPT.

Deși datele transmise prin API nu sunt utilizate pentru învățare sau îmbunătățire, acestea sunt păstrate pentru “monitorizarea în scopul prevenirii utilizării necorespunzătoare sau abuzive” timp de 30 de zile, după care sunt șterse conform noilor termeni de stocare. Totuși, în cazul unei “solicitări legale”, perioada de păstrare a datelor poate fi extinsă.

Chiar și cu aceste setări care nu permit utilizarea ChatGPT pentru învățare sau îmbunătățire, datele sunt totuși păstrate pe server pentru o perioadă determinată, ceea ce înseamnă că există teoretic un risc de scurgere a informațiilor. Prin urmare, este necesară o atenție deosebită atunci când se introduc informații confidențiale sau personale.

Cu toate acestea, OpenAI acordă o importanță deosebită confidențialității utilizatorilor și securității datelor, implementând măsuri stricte de securitate. Pentru o utilizare și mai sigură, se recomandă introducerea serviciului “Azure OpenAI Service”, care permite măsuri de securitate avansate.

Instrumentul specializat pentru companii, “Azure OpenAI Service”, nu colectează datele introduse în ChatGPT prin API. În plus, dacă se aplică pentru opt-out și cererea este aprobată, în principiu, se poate refuza păstrarea și monitorizarea datelor de intrare pentru 30 de zile, evitând astfel riscul de scurgere a informațiilor.

Cum să setați ChatGPT pentru a nu învăța informațiile confidențiale introduse

După cum am menționat anterior, ChatGPT are un mecanism prin care învață tot conținutul opt-in, astfel încât, începând cu 25 aprilie 2023, există o funcție care permite setarea prealabilă a opt-out-ului.

Ca măsură preventivă directă, dacă doriți să refuzați utilizarea datelor introduse în ChatGPT pentru învățare și îmbunătățire, va trebui să faceți o cerere de opt-out. ChatGPT are un formular Google pentru opt-out, așa că este recomandat să efectuați această procedură. (Introduceți adresa de e-mail, ID-ul organizației și numele organizației și trimiteți)

Totuși, chiar și în acest caz, datele introduse vor fi stocate pe server și monitorizate de OpenAI pentru o perioadă de timp (în principiu 30 de zile).

Termenii și condițiile de utilizare ChatGPT

3. Conținut

(c) Utilizarea conținutului pentru îmbunătățirea serviciilor

Noi nu folosim Conținutul pe care îl furnizați sau îl primiți de la API-ul nostru („Conținutul API”) pentru a dezvolta sau îmbunătăți Serviciile noastre.

Putem folosi Conținutul din Serviciile care nu sunt ale API-ului nostru („Conținutul Non-API”) pentru a ajuta la dezvoltarea și îmbunătățirea Serviciilor noastre.

Dacă nu doriți ca Conținutul Non-API să fie folosit pentru îmbunătățirea Serviciilor, puteți opta pentru opt-out completând acest formular. Vă rugăm să rețineți că în unele cazuri acest lucru poate limita capacitatea Serviciilor noastre de a aborda mai bine cazul dvs. de utilizare specific.

Referință: Site-ul oficial OpenAI | Termenii și condițiile de utilizare ChatGPT https://openai.com/policies/terms-of-use

Concluzie: Utilizarea ChatGPT în afaceri necesită măsuri esențiale pentru gestionarea informațiilor confidențiale

Am explicat mai sus riscurile de scurgere a informațiilor confidențiale și măsurile de precauție necesare în utilizarea ChatGPT în afaceri, bazându-ne pe exemple concrete.

În afacerile AI, care evoluează rapid, cum ar fi ChatGPT, este indispensabilă colaborarea cu experți pentru a elabora ghiduri de utilizare internă, a evalua legalitatea modelului de afaceri, a crea contracte și termeni de utilizare, a proteja drepturile de proprietate intelectuală și a răspunde la problemele de confidențialitate.

Articolul asociat: Ce este legea Web3? Explicăm și punctele esențiale pentru companiile care doresc să intre pe piață[ja]

Ghidul măsurilor oferite de firma noastră

Cabinetul de Avocatură Monolith este o firmă de avocatură cu o experiență bogată în domeniul IT, în special în ceea ce privește internetul și legea. Afacerile AI implică numeroase riscuri legale, iar suportul unui avocat versat în problemele legale legate de AI este esențial.

Firma noastră oferă suport juridic avansat pentru afacerile AI, inclusiv pentru ChatGPT, prin intermediul unei echipe de avocați specializați în AI și ingineri, oferind servicii precum redactarea de contracte, evaluarea legalității modelelor de afaceri, protecția drepturilor de proprietate intelectuală și conformitatea cu reglementările privind confidențialitatea. Detalii suplimentare sunt furnizate în articolul de mai jos.

Domeniile de expertiză ale Cabinetului de Avocatură Monolith: Jurisprudența AI (inclusiv ChatGPT)[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Category: IT

Tag:

?napoi la ?nceput