Cum să prevenim minciunile și încălcările drepturilor de autor ale AI? Reglementările interne ale AI pentru utilizarea în siguranță a produselor generate de AI

Poți transforma AI-ul într-o forță motrice pentru afacerea ta sau îl poți transforma într-un factor declanșator al deteriorării brandului. Punctul de cotitură constă în existența sau absența unor „reglementări interne privind AI” eficiente. În special, încălcările drepturilor de autor și răspândirea de informații eronate cauzate de halucinații pot, odată ce apar, să ducă nu doar la sancțiuni legale, ci și la pierderea instantanee a încrederii acumulate de la clienți.
În acest articol, vom explica liniile directoare pentru dezvoltarea unui sistem de conformitate și reglementări care trebuie inițiate acum pentru a asigura o operare sigură a AI-ului, menținând în același timp competitivitatea în afaceri, sub cadrul legal japonez.
Capcanele ascunse în „calitatea” și „drepturile” produselor generate de AI sub legislația japoneză
Generarea AI s-a stabilit ca un instrument atractiv care reduce semnificativ efortul necesar pentru a crea ceva de la zero și eficientizează dramatic activitățile creative și sarcinile administrative. Totuși, în spatele acestei conveniențe se ascund riscuri legale fundamentale diferite de cele ale instrumentelor IT tradiționale.
Outputul generat de AI se bazează pe o cantitate vastă de date de învățare existente și este derivat probabilistic, iar procesul său de generare este o „cutie neagră”. Din această cauză, există riscul ca utilizatorii să încalce drepturile altora fără să știe sau să răspândească informații false ca fiind adevărate.
În mediul de afaceri din Japonia, justificarea „pentru că a fost creat de AI” nu este acceptabilă. Companiile care integrează AI în activitățile lor și persoanele care îl utilizează sunt responsabile legal pentru rezultatele generate. Pentru a evita situații precum defăimarea prin răspândirea de informații inadecvate sau cererile de despăgubire pentru încălcarea drepturilor de autor, este necesar ca organizațiile să stabilească „balustrade” clare. Este esențial să se dezvolte rapid reglementări interne solide, bazate pe cele mai recente legi și ghiduri, pentru a preveni atât încălcarea drepturilor de autor, cât și răspândirea dezinformării.
Risc 1: Cum să nu devii un infractor al drepturilor de autor în Japonia

Atunci când se utilizează AI generativ în afaceri, cea mai mare preocupare este riscul de a încălca drepturile de autor ale altora și de a fi tras la răspundere legală conform legilor japoneze. AI generativ are, prin natura sa, tendința de a reflecta caracteristicile operelor existente incluse în datele de învățare. Înțelegerea corectă a acestui proces și clarificarea situațiilor în care se consideră că are loc o “încălcare” reprezintă primul pas în adoptarea unor măsuri de apărare.
Mecanismul AI Generativ și Drepturile de Autor în Japonia
AI generativ extrage modele dintr-o cantitate vastă de date învățate pentru a genera conținut nou, în funcție de instrucțiunile introduse (prompturi). În acest proces, AI nu înțelege „semnificația informației”, ci doar prezice următorul cuvânt sau pixel pe baza probabilităților statistice. Astfel, există posibilitatea ca, împotriva intenției utilizatorului, să fie generat conținut care seamănă foarte mult cu lucrările unui anumit creator sau cu opere protejate de drepturi de autor.
Conform „AI și Drepturile de Autor” publicat de Agenția pentru Afaceri Culturale din Japonia, evaluarea încălcării drepturilor de autor de către produsele generate de AI se face în cadrul aceluiași sistem ca și pentru operele obișnuite. Mai precis, încălcarea este stabilită atunci când se recunoaște „similitudinea” și „dependența” față de operele existente.
Referință: Agenția pentru Afaceri Culturale din Japonia|Despre AI și Drepturile de Autor
Cele două cerințe majore pentru stabilirea încălcării: „Similaritate” și „Dependință” sub Legea Japoneză
Similaritatea se referă la starea în care un output generat este identic sau împărtășește caracteristici esențiale cu expresia creativă a unei opere existente. Pe de altă parte, dependența înseamnă că opera a fost creată „pe baza” unei opere existente. În cazurile tradiționale de încălcare a drepturilor de autor, accentul se punea pe faptul dacă creatorul a văzut sau nu opera respectivă. Totuși, în cazul AI-ului generativ, este important să se determine dacă opera respectivă a fost inclusă în datele de învățare ale AI-ului.
O problemă deosebită apare atunci când, chiar dacă utilizatorul nu cunoștea opera existentă, AI-ul a învățat-o, ceea ce poate duce la recunoașterea dependenței. Aceasta este cunoscută sub numele de „problema cutiei negre”. Conform opiniei Agenției pentru Afaceri Culturale din Japonia, chiar dacă conținutul datelor de învățare este necunoscut, dacă AI-ul a învățat pe scară largă informații de pe internet și dacă produsul generat este semnificativ similar cu o operă existentă, dependența este mai ușor de presupus.
Domeniul și limitele reglementării privind restricțiile de drepturi (Articolul 30-4)
Conform Articolului 30-4 din Legea japoneză a drepturilor de autor, în etapa de învățare a inteligenței artificiale (AI), se poate utiliza o operă fără permisiunea titularului drepturilor de autor, cu condiția ca scopul să nu fie de a „savura” ideile sau emoțiile exprimate în acea operă. Aceasta recunoaște pe scară largă utilizarea în scopuri de analiză a informațiilor, care nu implică savurarea, și constituie o bază legală importantă pentru susținerea dezvoltării AI în Japonia.
Cu toate acestea, această reglementare se aplică strict la etapa de „învățare” și nu se extinde la etapa de „utilizare” a celor generate. De asemenea, este important de reținut că, în cazul în care se efectuează învățare suplimentară (cum ar fi LoRA) cu scopul de a reproduce stilul specific al unui creator, se poate considera că scopul de „savurare” coexistă, ceea ce ar putea exclude aplicabilitatea Articolului 30-4.
Măsuri în cadrul reglementărilor interne ale AI: Selectarea prompturilor și a serviciilor
În cadrul reglementărilor interne ale AI, este eficient să se stabilească restricții în etapa de introducere a datelor pentru a minimiza riscul de dependență. În mod specific, ar trebui să se interzică, în principiu, includerea numelor unor artiști sau a unor opere specifice în prompturi. De asemenea, pentru funcții precum Image-to-Image (i2i), care generează imagini prin încărcarea unor imagini existente, este necesar să se limiteze utilizarea la imagini asupra cărora compania deține drepturi sau la materiale cu relații de drepturi clarificate.
În plus, selectarea serviciilor AI utilizate este de asemenea importantă. Unele planuri plătite oferă “exonerare de răspundere pentru drepturi de autor” pentru a compensa riscul de încălcare a drepturilor de autor, dar este recomandat să se examineze condițiile de aplicare și să se includă în reglementări un proces de selecție care să corespundă standardelor de siguranță interne.
Următorul tabel rezumă punctele de verificare care ar trebui organizate în reglementările interne pentru a evita încălcarea drepturilor de autor.
| Punct de verificare | Direcția specifică a reglementării | Perspectiva de bază |
| Introducerea prompturilor | Interzicerea introducerii numelor unor autori sau opere specifice, nume proprii | Pentru a preveni dovezile directe de dependență |
| Învățare suplimentară (LoRA etc.) | Limitarea învățării cu scopul de a reproduce stilul unui anumit titular de drepturi | Evitarea riscului de încălcare a drepturilor prin coexistența scopului de beneficiu |
| Utilizarea imaginilor externe | Limitarea la materiale asupra cărora compania deține drepturi sau pentru care s-au obținut licențe | Pentru a bloca apariția dependenței în funcția i2i |
| Selectarea serviciilor | Adoptarea planurilor care permit utilizarea comercială și au o transparență ridicată a relațiilor de drepturi | Respectarea termenilor de utilizare ai furnizorului AI și verificarea sistemului de compensare |
Risc 2: Se Atribuie „Drepturi de Autor” Produselor Generate de AI? (Pentru a Nu Deveni Victimă)
Atunci când se utilizează AI pentru a crea produse, este esențial să se determine dacă se pot revendica drepturile asupra acestor produse în cazul în care sunt utilizate fără permisiune de către alte companii. Conform interpretării actuale a legii japoneze, există un principiu conform căruia produselor generate autonom de AI nu li se atribuie drepturi de autor. Pentru ca o companie să asigure drepturile asupra produselor generate și să le protejeze ca proprietate intelectuală, este necesar să îndeplinească anumite condiții.
Definiția „Operei” și Pragul de Creativitate în Japonia
Conform articolului 2, alineatul 1, punctul 1 din Legea Drepturilor de Autor din Japonia, o operă este definită ca „o expresie creativă a gândirii sau a emoției.” Deoarece inteligența artificială (AI) este o mașină care nu deține nici „gândire” și nici „emoție,” conținutul generat automat de AI nu este recunoscut ca operă. Prin urmare, rezultatele obținute doar prin introducerea unui prompt scurt în AI de către cineva nu sunt, în general, considerate ca având „contribuție creativă” și nu sunt protejate legal, fiind plasate într-o stare în care oricine le poate utiliza liber (aproape de domeniul public).
Pentru ca o operă să fie recunoscută, trebuie ca un om să utilizeze AI ca „instrument” și să i se recunoască „intenția creativă” și „contribuția creativă.” Depășirea simplelor instrucțiuni și controlul substanțial al conținutului expresiei de către om reprezintă punctul de cotitură pentru apariția drepturilor.
Utilizarea ca „instrument” pentru asigurarea drepturilor
Pentru a determina ce acțiuni sunt recunoscute ca o contribuție creativă sub legislația japoneză, se iau în considerare următorii factori. În primul rând, conținutul promptului trebuie să fie concret și detaliat. Nu este suficient să se ceară doar „un desen cu o pisică”; este necesar să se specifice în detaliu compoziția, utilizarea culorilor, stilul pensulei și să se rafineze expresia ideală printr-un proces de încercare și eroare. În al doilea rând, este important ca oamenii să adauge sau să modifice outputul generat de AI sau să combine mai multe produse generate pentru a crea o nouă compoziție. În mod obișnuit, părțile modificate de oameni sunt recunoscute ca având caracter de operă.
Din perspectiva companiilor, este de dorit să se stabilească un flux operațional care să păstreze procesul de generare (istoricul prompturilor și jurnalul modificărilor) pentru a putea contracara eventualele imitații de către alte companii ale produselor generate de AI în cadrul activităților lor, conform practicilor japoneze.
Atribuirea Drepturilor asupra Produselor Generate de AI în Cadrul Activităților de Serviciu în Japonia
Când un angajat utilizează AI în cadrul activităților de serviciu și contribuie creativ pentru a finaliza o operă, cui îi revin drepturile asupra acesteia? Conform articolului 15 din Legea Drepturilor de Autor din Japonia (Shōwa 45, 1970), în cazul operelor create în cadrul atribuțiilor de serviciu, la inițiativa unei persoane juridice și publicate sub numele acesteia, autorul este, în lipsa unei prevederi contrare, acea persoană juridică.
Chiar și atunci când se utilizează AI, dacă se recunoaște o contribuție creativă umană, acest cadru al operelor de serviciu poate fi aplicabil. Totuși, pentru părțile generate autonom de AI (fără contribuție creativă umană), nu se aplică drepturi de autor, astfel că articolul 15 nu se aplică. Este important ca reglementările interne să precizeze clar că drepturile asupra produselor generate de AI revin companiei și să includă clauze care încurajează utilizarea cu contribuții creative.
Următorul tabel prezintă elementele și punctele de evaluare pentru recunoașterea caracterului de operă al produselor generate de AI.
| Elemente de Evaluare | Cazuri în care Caracterul de Operă este Recunoscut Ușor | Cazuri în care Caracterul de Operă este Ușor de Negat |
| Natura Instrucțiunilor | Instrucțiuni detaliate și specifice, specificarea detaliilor expresiei | Instrucțiuni scurte și abstracte, doar prezentarea ideilor |
| Procesul de Încercare și Eroare | Generare și selecție repetată, ajustarea fină a instrucțiunilor | Adoptarea directă după o singură generare |
| Prelucrare Umană | Adăugiri directe, corecții, modificări de culoare asupra produsului generat | Utilizarea directă a ieșirii AI fără prelucrare |
| Compoziție și Selecție | Combinarea și aranjarea unică a mai multor produse generate | Prezentarea unui singur produs generat |
Risc 3: Apărarea Legală Împotriva Halucinațiilor (Minciunile AI) în Japonia

Una dintre problemele tehnice majore ale inteligenței artificiale generative este halucinația. Acest fenomen se referă la situația în care AI generează minciuni care par credibile. În contextul utilizării în afaceri, acest lucru poate duce la defăimare prin răspândirea de informații eronate sau la luarea de decizii bazate pe date incorecte, ceea ce poate provoca situații grave.
Natura Halucinațiilor și Impactul Lor Negativ în Afaceri
Halucinațiile apar deoarece inteligența artificială nu verifică veridicitatea informațiilor, ci urmărește corectitudinea probabilistică a aranjamentului cuvintelor. Acest lucru poate duce la fabricarea unor precedente inexistente sau la raportarea unor cazuri fictive ca fiind reale. De fapt, în Statele Unite, s-a raportat un caz în care un avocat a folosit AI generativă pentru a crea documente care conțineau precedente fictive, ceea ce a cauzat probleme majore în instanță.
În activitățile de afaceri, dacă informațiile care conțin halucinații sunt comunicate extern, apar următoarele riscuri legale. În primul rând, dacă conținutul afectează reputația unei persoane sau entități, se poate ajunge la răspunderea pentru daune cauzate prin defăimare. În al doilea rând, dacă se iau decizii de investiții bazate pe date de piață sau previziuni financiare eronate, se poate considera o încălcare a obligației de diligență a unui administrator prudent (obligația de diligență). În plus, dacă se prezintă specificații de produs sau interpretări legale eronate clienților, există riscul de a fi acuzat de neîndeplinirea obligațiilor contractuale sau de obstrucționarea activității.
Măsuri Tehnice: Utilizarea RAG (Generare Extinsă prin Căutare) în Japonia
Ca măsură tehnică de apărare, implementarea RAG (Generare Extinsă prin Căutare) este eficientă. Aceasta este o tehnologie care permite AI-ului să genereze răspunsuri prin referirea la documente precise și baze de date de încredere pregătite în prealabil de companie, în loc să se bazeze pe informații externe nespecificate. Astfel, se clarifică temeiul răspunsurilor și se poate reduce semnificativ riscul de halucinații.
Cu toate acestea, introducerea RAG nu elimină necesitatea verificării de către oameni. Există în continuare posibilitatea ca AI-ul să interpreteze greșit materialele de referință sau să realizeze rezumate incomplete.
Măsuri de Implementare: Obligativitatea Verificării Faptelor
Cel mai important aspect în cadrul reglementărilor interne este să nu se accepte fără rezerve rezultatele generate de AI și să se impună ca proces obligatoriu verificarea faptelor de către oameni. În “Ghidul pentru operatorii de AI” elaborat de Ministerul Economiei și Ministerul Afacerilor Interne din Japonia, se subliniază că utilizatorii de AI trebuie să înțeleagă acuratețea rezultatelor și să ia decizii responsabile privind utilizarea acestora.
Referință: 経済産業省|AI事業者ガイドライン
În mod concret, se va construi un flux de lucru care să compare faptele și cifrele prezentate de AI cu informațiile primare de pe site-urile oficiale ale agențiilor guvernamentale, statistici publice și comunicate oficiale. În special, pentru documentele destinate publicului, materialele legate de tranzacții de valoare mare și documentele cu efect juridic, este esențial să se includă în reglementări un sistem strict de verificare dublă, având în vedere că sunt produse generate de AI.
Exemplu de Reglementări Interne pentru Gestionarea Drepturilor și Adevărului în Companiile Japoneze de AI
Pe baza analizei de risc de până acum, prezentăm exemple concrete de articole care ar trebui incluse în reglementările interne. Reglementările nu ar trebui să definească doar “interdicțiile”, ci și “procesul de utilizare”, oferind astfel angajaților îndrumări pentru a utiliza AI în siguranță.
Interdicții la Introducerea de Promptere (Legate de Drepturi de Autor și Securitate) în Japonia
Exemplu de reglementare:
- Utilizatorii nu trebuie să introducă numele unor persoane specifice, celebrități sau artiști în prompterele pentru AI generativ, și să nu dea instrucțiuni care să imite stilul sau caracteristicile acestora.
- Introducerea de imagini, documente, coduri sursă sau alte opere existente pentru a le adapta sau modifica este permisă doar dacă compania deține drepturile legitime asupra acestor opere sau a obținut permisiunea de utilizare a AI.
- Este strict interzisă introducerea de informații confidențiale ale companiei, informații personale și opere nepublicate ale altora în servicii care ar putea fi utilizate ca date de învățare.
Procesul de Utilizare a Materialelor Generate de AI (Verificarea Acurateței și Similarității) în Japonia
Exemplu de reglementare:
- Atunci când materialele generate de AI sunt utilizate în documente externe, publicitate, produse sau servicii, persoana responsabilă trebuie să verifice, prin mijloace obiective precum căutarea de imagini pe Google sau instrumente comerciale de verificare a plagiatului, dacă nu există similitudini cu operele existente.
- Informațiile generate de AI, inclusiv fapte, cifre, contexte istorice sau interpretări legale, trebuie să fie întotdeauna verificate cu surse primare de încredere (date oficiale, documente oficiale) și confirmate de o persoană pentru a asigura veridicitatea înainte de utilizare.
- În cazul în care materialele generate de AI sunt utilizate pentru decizii importante, procesul de generare (prompterele utilizate, sursele verificate) trebuie să fie înregistrat și aprobat de un superior sau de un departament specializat.
Fluxul de Reconfirmare a Reglementărilor la Utilizarea Comercială în Japonia
Exemplu de reglementare:
- Atunci când serviciile AI generative sunt utilizate în scopuri comerciale sau pentru distribuție externă, persoana responsabilă trebuie să verifice cele mai recente termeni de utilizare ale serviciului respectiv și să confirme în prealabil că nu există probleme legate de posibilitatea utilizării comerciale și de atribuirea drepturilor asupra materialelor generate.
- În cazul în care furnizorul de servicii modifică termenii de utilizare, conținutul acestora trebuie analizat prompt și reevaluat pentru a asigura conformitatea cu reglementările interne.
Concluzie: Consultați un avocat pentru a stabili reglementări interne privind utilizarea sigură a AI în cadrul companiilor japoneze
Inteligența artificială generativă, atunci când este controlată corect, poate deveni un „asistent excelent” care stimulează creativitatea umană și crește productivitatea la un nivel fără precedent. Totuși, acest asistent poate, uneori, să încalce drepturile de autor ale altor persoane și să furnizeze informații false care pot pune organizația în pericol. Riscurile detaliate în acest articol nu sunt menite să restricționeze utilizarea AI, ci să ajute la înțelegerea corectă a acestor riscuri și la stabilirea unor „balustrade” adecvate, astfel încât să se poată accelera utilizarea AI la maximum.
Construirea unei guvernanțe AI de către companii nu mai este o opțiune, ci o condiție esențială pentru o gestionare sustenabilă. Este crucial să se elaboreze reglementări interne care să reflecte Legea drepturilor de autor din Japonia, ghidurile pentru operatorii de AI și cele mai recente opinii ale Agenției pentru Afaceri Culturale din Japonia. Stabilirea unui sistem „Human-in-the-loop”, în care oamenii dețin responsabilitatea finală, va determina succesul sau eșecul afacerilor în era AI.
Ghidul Măsurilor de Contracarare de către Firma Noastră
Firma de avocatură Monolith este o firmă cu o experiență vastă atât în domeniul IT, în special internet, cât și în domeniul juridic. Afacerile bazate pe inteligență artificială (AI) implică numeroase riscuri legale, iar sprijinul unui avocat familiarizat cu problemele legale legate de AI este esențial. Firma noastră oferă suport juridic avansat pentru afacerile AI care utilizează tehnologii precum ChatGPT, printr-o echipă formată din avocați și ingineri specializați în AI. Serviciile noastre includ redactarea de contracte, evaluarea legalității modelelor de afaceri, protecția drepturilor de proprietate intelectuală, conformitatea cu reglementările de confidențialitate și elaborarea de reglementări interne pentru AI. Detalii suplimentare sunt disponibile în articolul de mai jos.
Category: IT




















