MONOLITH LAW OFFICE+81-3-6262-3248Zilele săptămânii 10:00-18:00 JST[English Only]

MONOLITH LAW MAGAZINE

IT

Care sunt riscurile utilizării ChatGPT în afaceri? Explicăm și problemele legale

IT

Care sunt riscurile utilizării ChatGPT în afaceri? Explicăm și problemele legale

De la lansarea sa, ChatGPT a atras atenția în întreaga lume pentru utilitatea sa semnificativă. În același timp, a devenit cunoscut faptul că utilizarea sa implică diverse riscuri. Întrucât legislația este încă în curs de dezvoltare, este un adevăr că mulți manageri se simt neliniștiți în legătură cu riscurile utilizării ChatGPT în afaceri și metodele de atenuare a acestor riscuri.

Acest articol explică riscurile legale și măsurile de precauție asociate cu utilizarea ChatGPT în afaceri.

Patru riscuri la utilizarea ChatGPT în afaceri

Și în rândul companiilor, utilizarea AI-ului generativ de limbaj natural, precum ChatGPT, avansează, iar rata de adopție în companii pentru anul fiscal 2022 este de 13,5%, care, incluzând și companiile care “plănuiesc să adopte”, ajunge la 24,0%. (Sursă: Ministerul Afacerilor Interne și Comunicațiilor | Cartea Albă a Comunicațiilor Informaționale Reiwa 5 (2023) – Studiu asupra tendințelor de utilizare a comunicațiilor „Starea adoptării sistemelor și serviciilor de IoT și AI în companii[ja]“)

Într-adevăr, tehnologiile AI, inclusiv ChatGPT, sunt eficiente pentru optimizarea proceselor de afaceri și se preconizează că vor aduce mai multe oportunități de afaceri. Pe de altă parte, acestea implică și numeroase riscuri legale. Prin urmare, este necesar să înțelegem pe deplin riscurile înainte de a decide utilizarea lor în afaceri.

De exemplu, experții trag un semnal de alarmă cu privire la riscurile potențiale ale AI, cum ar fi problemele de drepturi de autor, răspândirea informațiilor incorecte, scurgerile de informații confidențiale, problemele de confidențialitate și utilizarea abuzivă în atacuri cibernetice.

În acest capitol, vom explica cele patru riscuri asociate cu utilizarea ChatGPT în afaceri.

Riscul de scurgere a informațiilor datorat funcției de învățare

Deși ChatGPT este convenabil, fiind un AI chatbot generat prin învățarea diverselor date de pe internet, dacă nu se iau măsuri de precauție, informațiile introduse pot fi folosite în procesul de învățare și există riscul ca acestea să fie scurse.

Conform politicii de utilizare a datelor OpenAI, datele introduse de utilizatori în ChatGPT vor fi colectate și utilizate (învățate) de OpenAI, cu excepția cazului în care utilizatorii accesează prin „API” sau aplică pentru „opt-out”.

Este esențial să fiți precauți și să nu introduceți informații personale sau confidențiale, cum ar fi datele cu caracter personal sau informații secrete, fără a lua măsuri de protecție. Chiar și în cazul în care informații personale sunt introduse accidental în ChatGPT, vor apărea mesaje de avertizare, iar ChatGPT este proiectat să nu stocheze sau să urmărească informații personale și să nu le poată afișa în chat.

Pe de altă parte, în trecut, au existat incidente în care informațiile personale ale utilizatorilor au fost scurse din cauza unor bug-uri în sistemul companiei OpenAI, care operează ChatGPT.

Articolul relevant: Ce este riscul de scurgere a informațiilor ChatGPT și care sunt cele 4 măsuri de precauție pe care ar trebui să le luați?[ja]

Riscul lipsei de credibilitate a informațiilor

Riscul lipsei de credibilitate a informațiilor

Din mai 2023, funcția de navigare web implementată în ChatGPT a îmbunătățit capacitatea de căutare, permițând ChatGPT să colecteze informații actualizate și să răspundă pe baza acestor rezultate.

Totuși, deși ChatGPT prezintă informațiile ca și cum ar fi adevărate atunci când răspunde, credibilitatea acestora nu este garantată. Răspunsurile generate de ChatGPT nu se bazează pe acuratețea datelor de învățare, ci sunt create ca fiind cele mai probabile (posibile) texte. Prin urmare, este esențial să se efectueze verificarea faptelor (fact-checking) pentru răspunsurile ChatGPT. Dacă, din greșeală, se difuzează informații false bazate pe răspunsurile ChatGPT, credibilitatea întreprinderii poate fi afectată.

Pe 3 aprilie 2023, Universitatea din Tokyo a exprimat preocupări cu privire la impactul pe care ChatGPT îl poate avea asupra societății viitoare, datorită provocărilor tehnice existente, și a emis următoarea declarație:

“Principiul ChatGPT constă în crearea de texte plauzibile prin învățare automată și învățare prin întărire, bazându-se pe o cantitate mare de texte și conținuturi existente. Prin urmare, conținutul scris poate include minciuni. Este ca și cum ai conversa cu o persoană care pretinde că știe multe, dar în realitate nu este așa. (Deși, trebuie să menționăm că ultima versiune, GPT-4, este mult mai precisă și se dovedește a fi un interlocutor destul de competent.) Astfel, pentru a utiliza eficient ChatGPT, este necesară o cunoaștere specializată, verificarea critică a răspunsurilor și corectarea lor adecvată. De asemenea, nu poate analiza sau descrie noi cunoștințe care nu sunt prezente în informațiile existente. Cu alte cuvinte, apariția ChatGPT nu înseamnă că oamenii pot neglija studiul sau cercetarea. Totuși, dacă persoanele cu cultură generală și cunoștințe de specialitate analizează critic conținutul răspunsurilor și îl folosesc cu abilitate, este posibil să îmbunătățească semnificativ eficiența muncii de rutină.”

Sursa: Universitatea din Tokyo | “Despre AI generativ (ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion etc.)[ja]

Riscuri legale precum încălcarea drepturilor de autor și a vieții private

În cazul ChatGPT, evaluarea încălcării drepturilor de autor se diferențiază între „faza de dezvoltare și învățare a IA” și „faza de generare și utilizare”. Deoarece actele de utilizare a operelor protejate prin drept de autor diferă în fiecare etapă, se aplică și articole diferite din legea drepturilor de autor. Prin urmare, este necesar să considerăm aceste două aspecte separat.

Referință: Agenția Japoneză pentru Afaceri Culturale | Seminarul despre drepturile de autor în anul Reiwa 5 (2023) „IA și drepturile de autor”[ja]

În ianuarie 2019, o revizuire a Legii Japoneze a Drepturilor de Autor a introdus un nou articol, Articolul 30-4, care se referă la „faza de dezvoltare și învățare a IA”. Utilizarea operelor protejate prin drept de autor, cum ar fi analiza informațiilor pentru dezvoltarea IA, care nu are ca scop bucurarea de idei sau sentimente exprimate în aceste opere, poate fi efectuată, în principiu, fără permisiunea titularului drepturilor de autor.

Pe de altă parte, dacă produsele generate de ChatGPT prezintă similitudini sau dependențe (modificări) față de operele protejate prin drept de autor, acestea pot constitui o încălcare a drepturilor de autor. Prin urmare, înainte de publicare, este important să verificăm drepturile deținătorului informațiilor referite de ChatGPT și să ne asigurăm că nu există conținut similar cu cel creat de ChatGPT. În cazul citării unei opere, este necesar să indicăm sursa (conform prevederilor de limitare a drepturilor), iar în cazul reproducției, trebuie să obținem permisiunea titularului drepturilor de autor pentru a proceda în mod corespunzător.

Conform termenilor și condițiilor OpenAI, conținutul creat de ChatGPT poate fi utilizat în scopuri comerciale. Totuși, dacă este dificil să determinăm dacă conținutul creat cu ajutorul ChatGPT încalcă drepturile de autor, este recomandat să consultați un specialist.

Dacă un titular de drepturi de autor indică o încălcare a drepturilor sale, este posibil să fiți supus responsabilității civile (despăgubiri, compensații morale, interzicerea utilizării, restabilirea reputației etc.) sau responsabilității penale (infracțiuni cu plângere prealabilă). În cazul companiilor, se pot aplica sancțiuni atât pentru persoane fizice, cât și pentru persoane juridice, ceea ce poate duce la daune semnificative.

De asemenea, este necesar să fim precauți în ceea ce privește informațiile personale și viața privată atunci când folosim ChatGPT. Așa cum am menționat mai sus, chiar dacă se întâmplă să introducem informații personale în ChatGPT, sistemul nu stochează sau urmărește aceste informații și nu le poate reproduce în conversații. Cu toate acestea, aceasta este politica OpenAI și poate diferi în cazul altor platforme sau servicii.

Pentru riscurile legate de scurgerile de informații personale, vă rugăm să citiți articolul următor pentru detalii.

Articolul relevant: Riscul scurgerii de informații personale ale companiei și compensația pentru daune[ja]

Riscul de a crea conținut dăunător fără intenție

Riscul de a crea conținut dăunător fără intenție

În funcție de conținutul datelor învățate de ChatGPT și de conținutul prompturilor, există posibilitatea de a crea conținut dăunător. Dacă conținutul creat de ChatGPT este publicat fără a fi verificat, reputația companiei și valoarea brandului pot fi afectate, iar acest lucru poate duce la probleme legale.

Deși conținutul dăunător este setat să nu poată fi generat sau primit prin ChatGPT, coduri de programare dăunătoare sau servicii frauduloase pot fi dificil de identificat și pot fi generate accidental. Având în vedere aceste riscuri, este esențial să aveți un sistem de verificare constantă a conținutului creat.

Înțelegerea Termenilor și Condițiilor pentru a Evita Riscurile Asociate cu Utilizarea ChatGPT

În contextul utilizării ChatGPT în afaceri, este esențial să evitați riscurile prin utilizarea serviciului în conformitate cu Termenii și Condițiile și Politica de Confidențialitate a OpenAI. Având în vedere că Termenii și Condițiile sunt adesea actualizați, este necesar să verificați modificările și să vă asigurați că sunteți la curent cu cei mai recenți Termeni și Condiții atunci când utilizați ChatGPT în scopuri comerciale.

Articol relevant: Explicarea Termenilor și Condițiilor OpenAI, Ce Trebuie Să Aveți În Vedere la Utilizarea Comercială?[ja]

Ce este necesar pentru a evita riscurile în utilizarea ChatGPT în afaceri

Crearea regulilor interne

Pentru a evita riscurile asociate cu ChatGPT și pentru a-l utiliza corect în afaceri, companiile trebuie să implementeze următorul sistem de guvernanță.

Crearea regulilor interne

La data de 1 mai 2023 (Reiwa 5), Asociația Japoneză pentru Învățare Profundă (JDLA) a compilat problemele etice, legale și sociale (ELSI) legate de ChatGPT și a publicat “Ghidul de utilizare a AI-ului generativ”. În toate sectoarele, inclusiv în mediul academic și guvernamental, se avansează în elaborarea de ghiduri.

La introducerea ChatGPT în cadrul companiei, este esențial nu doar să îmbunătățim literația în securitatea informațiilor personale și educația internă, ci și să dezvoltăm un ghid de utilizare a ChatGPT specific companiei noastre. Crearea și diseminarea unui ghid clar pentru utilizarea ChatGPT în cadrul companiei poate ajuta la evitarea anumitor riscuri.

Referință: Asociația Japoneză pentru Învățare Profundă (JDLA) | “Ghidul de utilizare a AI-ului generativ[ja]

Desemnarea unui supraveghetor pentru utilizarea ChatGPT

Este de asemenea eficient pentru evitarea riscurilor să avem un supraveghetor pentru utilizarea ChatGPT în cadrul companiei, care să monitorizeze constant aplicarea ghidului și să gestioneze riscurile.

Monitorizarea comportamentului ChatGPT, corectarea rezultatelor generate și gestionarea datelor sunt activități care, în general, se aseamănă cu auditul sistemelor. Auditul sistemelor evaluează obiectiv eficiența, securitatea și fiabilitatea sistemelor de informații, având ca scop îmbunătățirea eficienței operaționale și sprijinirea transformării organizaționale. Prin desemnarea unui supraveghetor care să efectueze auditul, putem de asemenea întări transparența și responsabilitatea în ceea ce privește operarea.

Concluzie: Măsurile de evitare a riscurilor sunt esențiale pentru utilizarea ChatGPT în afaceri

Aici am explicat în detaliu riscurile și măsurile de precauție asociate cu utilizarea ChatGPT în afaceri.

În cazul utilizării în afaceri a inteligenței artificiale, care evoluează rapid, cum ar fi ChatGPT, este indispensabil să se elaboreze ghiduri pentru utilizarea internă, să se examineze legalitatea modelului de afaceri, să se creeze contracte și termeni de utilizare, să se protejeze drepturile de proprietate intelectuală și să se răspundă la problemele de confidențialitate, implicând experți familiarizați cu riscurile legale și tehnologia AI.

Ghidul măsurilor implementate de firma noastră

Cabinetul de Avocatură Monolith este o firmă de avocatură cu experiență bogată în IT, în special în domeniul internetului și al legii. Afacerile AI implică numeroase riscuri legale, iar suportul unui avocat specializat în probleme legale legate de AI este esențial.

Firma noastră oferă diverse tipuri de suport legal pentru afacerile AI, inclusiv pentru ChatGPT, prin intermediul unei echipe de avocați și ingineri cu expertiză în AI. Detalii suplimentare sunt furnizate în articolul de mai jos.

Domeniile de practică ale Cabinetului de Avocatură Monolith: Servicii juridice AI (inclusiv ChatGPT)[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Category: IT

Tag:

?napoi la ?nceput