MONOLITH LAW OFFICE+81-3-6262-3248Zilele săptămânii 10:00-18:00 JST[English Only]

MONOLITH LAW MAGAZINE

IT

5 pași pentru implementarea AI fără eșec: Cum să integrați „Regulamentele interne AI vii” și să avansați educația internă

IT

5 pași pentru implementarea AI fără eșec: Cum să integrați „Regulamentele interne AI vii” și să avansați educația internă

Inovațiile tehnologice ale AI generativ au potențialul de a transforma fundamental modul în care sunt desfășurate procesele de afaceri tradiționale. Totuși, în Japonia, multe organizații se confruntă nu atât cu bariere tehnice, cât cu provocări legate de gestionarea riscurilor legale și etice și de integrarea acestor tehnologii în cadrul organizațional. O abordare de tipul „delegare totală”, care presupune distribuirea celor mai noi instrumente în întreaga companie și lăsarea deciziilor la latitudinea echipelor, nu doar că poate duce la incidente grave precum scurgeri de informații sau încălcări ale drepturilor, dar poate, în cele din urmă, să stagneze productivitatea întregii organizații.

Pentru a beneficia de avantajele AI într-un mod sustenabil, este esențial să se elaboreze „reglementări interne pentru AI” care să îmbine convenabilitatea tehnologică cu siguranța legală la un nivel înalt, și să se implementeze un proces educațional gradual bazat pe acestea. În acest articol, vom explica cinci pași concreți pentru a realiza o implementare eficientă a AI, bazându-ne pe cele mai recente reglementări legale și ghiduri emise de agențiile guvernamentale japoneze.

Riscurile Utilizării AI fără Disciplina în Japonia

Atunci când se ia în considerare implementarea AI generativ în Japonia, prima provocare este problema “IT-ului din umbră”, unde utilizarea la nivel de teren precede stabilirea unei politici clare la nivel organizațional. Datorită faptului că aceste instrumente sunt extrem de convenabile, angajații le folosesc în mod independent, utilizând conturi personale pentru activități de muncă. Această abordare de “a încerca fără a planifica” poate părea că accelerează implementarea pe termen scurt, dar în realitate, încurajează utilizarea fără disciplină și acumulează riscuri manageriale serioase.

În mod concret, există îngrijorări legate de scurgerile de secrete comerciale prin introducerea neglijentă a informațiilor confidențiale, generarea de conținut care încalcă drepturile de autor ale altora și transmiterea de informații inexacte către exterior. În aprilie, anul Reiwa 6 (2024), Ministerul Economiei, Comerțului și Industriei și Ministerul Afacerilor Interne și Comunicațiilor au publicat “Ghidul pentru Operatorii AI”, care solicită ca operatorii care utilizează AI să evalueze corespunzător riscurile și să construiască guvernanța necesară. Fără un set clar de reguli, angajații nu pot judeca cu exactitate ce este permis și ce este interzis, fiind astfel puși în fața alegerii între a ezita în utilizarea creativă sau a comite, fără să-și dea seama, greșeli grave.

Referință: 総務省|Pagina de Publicare a “Ghidului pentru Operatorii AI”

Chiar dacă utilizarea fără disciplină poate crește temporar productivitatea organizației, odată ce apar probleme legale, costurile asociate cu recuperarea daunelor și pierderea credibilității sociale sunt incalculabile. Prin urmare, în etapa inițială de implementare a AI, clarificarea unui cadru pentru utilizarea sigură nu înseamnă restrângerea libertății la nivel de teren, ci mai degrabă asigurarea unui mediu în care tehnologia poate fi utilizată cu încredere. Scopul acestui articol este de a clarifica cum să construim acest “cadru sigur” și cum să stabilim un sistem de operare care să nu devină formalitate.

https://monolith.law/corporate/establishment-of-ai-internal-regulations

Pasul 1: Clarificarea Scopului Implementării AI și Redefinirea Provocărilor

Pasul 1-2: Clarificarea Scopului și Selectarea Serviciului Optim

Primul punct de cotitură care determină succesul sau eșecul implementării AI constă în capacitatea de a redefini AI ca un mijloc de a rezolva problemele organizației, fără a transforma tehnologia în scopul principal. Dacă scopul implementării AI rămâne neclar, regulamentele interne formulate pot deveni abstracte și pot duce la reguli „moarte” care nu au eficacitate practică pentru echipă.

Primul pas esențial este clarificarea detaliată a scopului pentru care se implementează AI, adică pentru a rezolva problemele specifice ale fiecărui departament.

  • Departamentul de contabilitate: Reducerea sarcinilor administrative. Securitatea în transmiterea externă a datelor este punctul central de discuție.
  • Departamentul de dezvoltare: Automatizarea generării de cod. Articolul 30-4 din Legea Japoneză a Drepturilor de Autor, licențele OSS și vulnerabilitățile sunt principalele preocupări.
  • Vânzări și PR: Crearea de materiale și generarea de FAQ. Acuratețea informațiilor și riscul de încălcare a drepturilor sunt punctele de focalizare.

Prin concretizarea problemelor care trebuie rezolvate în fiecare departament, se poate contura direcția regulilor optimizate pentru fiecare activitate.

Pasul 2: Selectarea Serviciului Optim și Revizuirea Termenilor de Utilizare

Următorul pas este selectarea serviciilor AI care se potrivesc cu scopurile definite. Pe piața actuală din Japonia, există o varietate de servicii, de la AI generativ general, cum ar fi ChatGPT, până la AI specializat pe domenii specifice precum juridic, contabilitate sau programare. AI-ul generativ general oferă flexibilitate pentru o gamă largă de sarcini, dar poate fi inferior AI-ului specializat în ceea ce privește acuratețea informațiilor în domenii specifice și conformitatea cu reglementările specifice.

Ca criterii de selecție a serviciilor, este esențial să se verifice dacă acestea sunt conforme cu politica de securitate a organizației. În plus, trebuie evaluată posibilitatea de utilizare a API-urilor oferite și existența funcțiilor de protecție a datelor în planurile destinate companiilor. Deoarece versiunile gratuite pentru persoane fizice și cele plătite pentru companii diferă fundamental în ceea ce privește utilizarea datelor de intrare pentru învățare (posibilitatea de a opta pentru excludere), contractarea unui plan destinat companiilor ar trebui să fie o premisă de bază pentru implementarea la nivelul întregii organizații.

Cel mai important și adesea neglijat aspect în selectarea serviciilor AI este revizuirea termenilor de utilizare furnizați de fiecare furnizor. Comparativ cu produsele SaaS obișnuite, serviciile AI au condiții complexe privind atribuirea drepturilor asupra datelor și utilizarea pentru învățare, care sunt, de asemenea, supuse schimbărilor frecvente. Următoarele cinci puncte sunt esențiale pentru minimizarea riscurilor legale și trebuie verificate înainte de încheierea contractului.

Puncte de VerificareDetalii de VerificatSemnificație Legală și Practică
Întinderea InterdicțiilorVerificați dacă generarea de sfaturi în domenii specifice (medical, juridic, financiar etc.) este interzisăPentru a evita suspendarea contului sau riscul de despăgubiri din cauza încălcării termenilor
Utilizarea ComercialăVerificați dacă utilizarea comercială a produselor generate este permisă explicit și dacă există diferențe între planuriPentru a asigura stabilitatea drepturilor în utilizarea pentru activități generatoare de venituri
Atribuirea Drepturilor de Proprietate IntelectualăVerificați dacă drepturile de autor asupra conținutului generat sunt atribuite utilizatoruluiPentru a proteja creațiile proprii și a permite reutilizarea secundară
Utilizarea pentru Învățare AutomatăVerificați dacă este posibilă setarea de excludere (opt-out) pentru a preveni utilizarea datelor de intrare în reînvățarea modeluluiPentru a proteja secretele comerciale și a preveni scurgerile de informații confidențiale
Clauze Generale și Legea AplicabilăVerificați care este instanța competentă în caz de litigiu, domeniul de aplicare al exonerării de răspundere și legislația aplicabilăPentru a asigura costurile și previzibilitatea în cazul unui litigiu

În special, clauzele privind utilizarea pentru învățare automată sunt direct legate de protecția secretelor comerciale în Japonia. Dacă datele introduse sunt preluate ca date de învățare de către furnizor, există riscul ca informațiile confidențiale ale companiei să fie dezvăluite ca răspunsuri către alții în viitor. Pentru a beneficia de protecția ca secrete comerciale conform Legii privind prevenirea concurenței neloiale, este necesar să fie recunoscută “gestionarea secretului”, iar un mediu în care datele sunt introduse fără protecție în învățarea AI poate constitui un factor fatal care să compromită această gestionare a secretului.

De asemenea, trebuie acordată atenție legii aplicabile. Multe dintre serviciile oferite de furnizorii americani sunt guvernate de legi precum cea a statului Delaware din SUA, iar locul de soluționare a litigiilor poate fi limitat la străinătate. Acest lucru poate însemna, de facto, renunțarea la exercitarea drepturilor pentru companiile japoneze, astfel că, în cazul utilizării pentru activități de importanță ridicată, ar trebui să se ia în considerare negocierea unui contract care să stabilească legea japoneză ca lege aplicabilă sau instanțele japoneze ca jurisdicție convenită.

Pasul 3: Ciclu de Verificare prin Start Mic (PDCA) sub Practicile Japoneze

Graba de a implementa reguli la nivelul întregii companii fără o verificare adecvată poate duce la confuzie pe teren și la o rapidă formalizare a proceselor. Se recomandă o implementare de testare printr-un “start mic”, adresată unei echipe de proiect specifice sau unui departament cu o înaltă alfabetizare IT și o conștientizare clară a problemelor.

Cel mai mare dezavantaj al unei implementări simultane este impunerea unor “reguli de compromis” care ignoră diversitatea activităților din cadrul organizației. Aplicarea unor reguli prea stricte la nivelul întregii companii poate reduce eficiența, în timp ce reguli prea laxe nu pot controla riscurile. Prin stabilirea unei perioade de testare, se pot acumula date bazate pe experiențe reale despre riscurile care devin evidente în fluxul de lucru și despre ce ghiduri sunt necesare.

Această perioadă ar trebui să funcționeze ca un “sandbox” (teren de experimentare) care permite eșecuri. Angajații pot încerca să folosească AI, să introducă diverse prompturi și să obțină rezultate, documentând cu atenție orice preocupări (dezinformare cauzată de halucinații, expresii inadecvate, semne de încălcare a drepturilor de autor etc.). Se va stabili un sistem în care responsabilii cu aspectele juridice și sistemele informatice să revizuiască aceste înregistrări.

Pentru a maximiza efectul unui start mic, este eficient să se urmeze un flux de lucru de verificare în 6 pași:

  1. Identificarea activităților vizate și elaborarea unui “ghid inițial” specific acestor activități. Această propunere inițială va rezuma concis interdicțiile minime (cum ar fi interzicerea introducerii informațiilor confidențiale) și metodele de utilizare recomandate.
  2. Se va organiza un training de introducere pentru membrii selectați, care vor folosi AI în activitățile lor reale.
  3. Se va colecta feedback-ul de la teren prin audieri periodice. Aici se va pune accent pe opiniile directe, cum ar fi “Regulile împiedică activitatea?” sau “Au existat situații în care s-au simțit riscuri neașteptate?”
  4. Pe baza problemelor colectate, se va ajusta echilibrul între risc și conveniență și se vor îmbunătăți ghidurile.
  5. Ghidurile îmbunătățite vor fi aplicate din nou și se vor continua ajustările.
  6. Pe baza cunoștințelor obținute prin acest proces de verificare, se vor elabora “reglementări standard” pentru implementarea la nivelul întregii companii.

Prin rularea acestui ciclu PDCA, se poate transforma o regulă impusă de sus în jos într-o “regulă vie” pe care terenul o înțelege și o poate respecta.

Pasul 4: Extinderea Domeniului de Implementare și Evaluarea Individuală a Riscurilor pe Departamente în Japonia

Pasul 4-5: Extinderea Domeniului de Implementare și Revizuirea Periodică

Atunci când extindem domeniul pe baza cunoștințelor obținute din implementarea de probă, evaluarea individuală a riscurilor pe fiecare departament este esențială. Doar reglementările uniforme nu pot răspunde diferențelor dintre activele care trebuie protejate.

  • Departamentul de Resurse Umane: În conformitate cu Legea Japoneză privind Protecția Informațiilor Personale, se pune accent pe interzicerea introducerii informațiilor care pot identifica persoane și pe transparența deciziilor automate.
  • Departamentul de Cercetare și Dezvoltare: Se prioritizează protecția tehnică și contractuală pentru a preveni ca ideile să devină date de învățare pentru alte companii.
  • Departamentul de Relații Publice și Marketing: Se concentrează pe măsuri împotriva similitudinii mărcilor și designurilor, precum și pe riscurile de criză de imagine.

Prin organizarea acestor aspecte și clasificarea clară a activităților în “Permis”, “Permis cu condiții” și “Interzis”, angajații vor putea decide fără ezitare în ce măsură pot utiliza AI în activitățile lor.

Pasul 5: Proiectarea organizațională pentru a sistematiza revizuirea periodică

Mediul înconjurător al AI generativ se schimbă cu o viteză extrem de rapidă în ceea ce privește tehnologia, reglementările legale și etica socială. Prin urmare, nu este neobișnuit ca reglementările interne elaborate să devină necorespunzătoare în doar câteva luni. Integrarea unui mecanism de revizuire periodică în cadrul operațional de la început este cheia pentru a realiza o guvernanță autentică sub practicile japoneze.

În mod concret, la fiecare trimestru sau semestru, se verifică rezultatele monitorizării situației operaționale și se reevaluează validitatea reglementărilor. În timpul revizuirii, se examinează cu atenție dacă există discrepanțe față de cele mai recente linii directoare ale guvernului japonez (cum ar fi Cabinetul sau Ministerul Economiei, Comerțului și Industriei), dacă au apărut noi hotărâri privind drepturile de autor ale produselor generate de AI sau dacă au existat modificări în termenii și condițiile serviciilor AI utilizate.

De asemenea, revizuirea periodică nu trebuie să fie finalizată doar de departamentele juridice sau IT. Este esențial să se stabilească o conferință de discuții care să includă și reprezentanți de la fața locului, pentru a colecta problemele practice și a preveni formalizarea reglementărilor. În cazul în care reglementările sunt actualizate în urma revizuirii, modificările și motivele acestora trebuie comunicate rapid tuturor angajaților, iar, dacă este necesar, să se efectueze reeducarea. Prin continuarea acestui ciclu, nivelul de alfabetizare AI al întregii organizații va fi menținut mereu la zi.

Punctele cheie ale reglementărilor interne AI care susțin operațiunile la fața locului în Japonia

Reglementările interne AI eficiente nu trebuie să fie doar o listă de interdicții. Acestea trebuie să servească drept ghid pentru angajați atunci când se confruntă cu dileme și să funcționeze ca un scut legal pentru organizație. Vom explica cele patru piloni esențiali care trebuie incluși.

Formarea consensului prin clarificarea scopului și a domeniului de aplicare

La începutul reglementărilor, este important să se precizeze pozitiv de ce compania implementează AI și ce valoare dorește să creeze. Acest lucru transmite un mesaj de încurajare a utilizării AI către angajați și, în același timp, oferă o bază morală pentru a preveni utilizarea necorespunzătoare.

De asemenea, domeniul de aplicare trebuie să fie clar definit nu doar pentru angajații permanenți, ci și pentru angajații contractuali, temporari și chiar pentru partenerii de afaceri. În special, atunci când partenerii externi folosesc AI pentru a livra produse finite, este necesar să se stabilească la nivel contractual cine este responsabil pentru gestionarea calității și procesarea drepturilor.

Obligativitatea educației și instruirii și întărirea apărării legale

Doar distribuirea sau afișarea reglementărilor interne nu este suficientă pentru a îndeplini responsabilitatea legală de supraveghere. Este necesar să se stabilească educația și instruirea privind utilizarea AI ca o “obligație” și să se acorde drepturi de utilizare doar angajaților care au finalizat cursurile. Gestionarea adecvată a înregistrărilor de participare este o dovadă esențială pentru a demonstra că compania a oferit “supraveghere și educație adecvată” în cazul în care un angajat încalcă regulile și provoacă un incident.

Instruirea ar trebui să includă nu doar conținut tehnic, cum ar fi îmbunătățirea prompturilor, ci și explicații despre natura halucinațiilor, aspecte de luat în considerare conform legii drepturilor de autor și exemple concrete de obligații de confidențialitate.

Identificarea serviciilor disponibile și eliminarea IT-ului din umbră

Este important să se clarifice că doar “serviciile autorizate” pentru care compania a verificat siguranța și a încheiat contracte adecvate pot fi utilizate în activitățile de afaceri. Acest lucru elimină IT-ul din umbră realizat cu conturi personale. De asemenea, prin clarificarea fluxului de solicitare și aprobare pentru utilizarea de noi servicii sau plugin-uri, se poate răspunde flexibil la nevoile de la fața locului, menținând în același timp implementarea sub control. În acest context, utilizarea versiunilor gratuite este interzisă în principiu, iar planurile destinate companiilor, care nu permit utilizarea datelor pentru învățare, reprezintă cea mai sigură măsură de protecție împotriva riscurilor.

Monitorizarea și exercitarea adecvată a autorității de audit

Este esențial să se stipuleze că compania are dreptul de a înregistra și vizualiza prompturile de intrare și rezultatele de ieșire ale angajaților și de a efectua audituri, dacă este necesar, pentru a verifica dacă operațiunile sunt gestionate corespunzător. Acest lucru nu doar că funcționează ca un factor de descurajare psihologică împotriva utilizării necorespunzătoare, dar joacă un rol extrem de important în investigarea cauzelor și prevenirea extinderii daunelor în cazul unei scurgeri de informații. Totuși, pentru a menține încrederea angajaților, este important să se notifice în prealabil scopul și domeniul monitorizării, asigurând transparența din perspectiva protecției vieții private.

De asemenea, este important să se proiecteze cum să se integreze aceste elemente cu regulamentele existente de muncă, reglementările de confidențialitate sau reglementările de utilizare a IT-ului. Este necesar să se asigure coerența legală prin stabilirea unor reglementări independente dedicate AI și prin legarea acestora de regulamentele de muncă pentru a aplica sancțiuni în caz de încălcări grave.

Concluzie: Dezvoltarea Regulamentelor Interne pentru AI în Companiile Japoneze

Cel mai important aspect pentru a transforma AI într-o forță a organizației nu este bugetul pentru implementarea celor mai noi modele, ci “abilitatea de gestionare umană” și “capacitatea de guvernare a organizației” pentru a le utiliza corect.

Cele cinci etape explicate în acest articol sunt elemente esențiale pentru a crea “reguli vii care să pătrundă în teren”. Implementarea fără implicare poate aduce o eficiență temporară, dar creșterea sustenabilă este susținută întotdeauna de o atitudine sinceră care continuă să urmărească echilibrul între siguranța legală și conveniență.

Ghidul Măsurilor de Contracarare de către Firma Noastră

Firma de avocatură Monolith este o firmă cu o experiență vastă atât în domeniul IT, în special internet, cât și în domeniul juridic. Afacerile bazate pe inteligență artificială (AI) implică numeroase riscuri legale, iar sprijinul unui avocat familiarizat cu problemele legale legate de AI este esențial. Firma noastră oferă suport juridic avansat pentru afacerile AI care utilizează tehnologii precum ChatGPT, printr-o echipă formată din avocați și ingineri specializați în AI. Serviciile noastre includ redactarea de contracte, evaluarea legalității modelelor de afaceri, protecția drepturilor de proprietate intelectuală, conformitatea cu reglementările de confidențialitate și dezvoltarea reglementărilor interne privind AI. Detalii suplimentare sunt disponibile în articolul de mai jos.

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

?napoi la ?nceput