Ce este guvernanța AI pe care ar trebui să o abordeze companiile? Explicarea punctelor cheie bazate pe 'Ghidul pentru operatorii de AI

La data de 19 aprilie 2024 (Reiwa 6), Ministerul Afacerilor Interne și Comunicațiilor și Ministerul Economiei, Comerțului și Industriei din Japonia au publicat “Ghidul pentru Operatorii de AI”. Scopul acestuia este de a promova utilizarea sigură a inteligenței artificiale și de a încuraja implementarea acesteia în societate. Ghidul se adresează operatorilor economici implicați în dezvoltarea, furnizarea și utilizarea AI, precum și instituțiilor publice, instituțiilor educaționale, organizațiilor non-profit și non-guvernamentale.
Conform “Ghidului pentru Operatorii de AI” din Japonia, este esențial ca fiecare entitate implicată în dezvoltarea, furnizarea și utilizarea AI să construiască o guvernanță AI adecvată. Dar ce măsuri trebuie să ia companiile pentru a construi o astfel de guvernanță AI?
Acest articol explică punctele cheie ale guvernanței AI pe care companiile ar trebui să le abordeze, bazându-se pe “Ghidul pentru Operatorii de AI” din Japonia.
Ce sunt Ghidurile pentru Operatorii de AI în Japonia
Ghidurile pentru Operatorii de AI reprezintă un set de directive stabilite în anul 2024 de către Ministerul Afacerilor Interne și Comunicațiilor și Ministerul Economiei, Comerțului și Industriei din Japonia, cu scopul de a promova utilizarea sigură și încrezătoare a inteligenței artificiale. Acestea au fost create pentru a oferi o orientare unitară în ceea ce privește guvernanța AI în țara noastră.
Aceste ghiduri integrează și revizuiesc directivele existente anterior, cum ar fi “Ghidurile pentru Dezvoltarea AI”, “Ghidurile pentru Utilizarea AI” și “Ghidurile de Guvernanță pentru Practicarea Principiilor AI”, și au fost stabilite pentru a ajuta operatorii care utilizează AI să identifice practici de dorit pentru o utilizare sigură și încrezătoare a AI.
Pentru mai multe detalii despre Ghidurile pentru Operatorii de AI, vă rugăm să consultați articolul “Un avocat explică conținutul Ghidurilor pentru Operatorii de AI ale Ministerului Economiei, Comerțului și Industriei”.
Articolul conex: Un avocat explică conținutul Ghidurilor pentru Operatorii de AI ale Ministerului Economiei, Comerțului și Industriei[ja]
Ce este Guvernanța AI sub legislația japoneză
Guvernanța AI, conform Ghidului pentru Operatorii de AI din Japonia, este definită ca “designul și operarea sistemelor tehnice, organizaționale și sociale de către stakeholderi, cu scopul de a gestiona riscurile generate de utilizarea AI la un nivel acceptabil pentru stakeholderi, în timp ce se maximizează impactul pozitiv (beneficiile) rezultate”.
În plus, ghidul subliniază importanța construirii guvernanței AI, afirmând că “pentru a utiliza AI într-un mod sigur și de încredere, este esențial să se colaboreze între diferite entități și să se practice un set comun de principii pe întregul lanț valoric, gestionând riscurile legate de AI la un nivel acceptabil pentru stakeholderi și maximizând beneficiile care decurg din aceasta”.
Prin urmare, construirea guvernanței AI este esențială pentru fiecare entitate implicată în dezvoltarea, furnizarea și utilizarea AI.
Ce înseamnă practicarea ‘Agile Governance’ în construirea guvernanței AI în Japonia

În construirea guvernanței AI, se consideră esențială practicarea ‘Agile Governance’.
‘Agile Governance’ se referă la o abordare care, în loc să stabilească reguli fixe în avans, rotește continuu un ciclu de ‘analiză a mediului și a riscurilor’, ‘stabilirea obiectivelor’, ‘designul sistemului’, ‘operarea’ și ‘evaluarea’ pentru a răspunde flexibil la schimbările mediului extern și ale riscurilor.
În afacerile legate de AI, obiectivele sunt complexe și se schimbă rapid, astfel încât obiectivul vizat este într-o continuă schimbare.
Prin urmare, în construirea guvernanței AI, nu este necesar să se fixeze reguli sau proceduri în avans, ci este necesară o abordare flexibilă adaptată la dimensiunea și conținutul afacerii fiecărei companii. Din acest motiv, în Ghidul pentru Operatorii de AI se recomandă construirea guvernanței prin metodele ‘Agile Governance’.
De altfel, ‘Agile’ înseamnă ‘rapid’ sau ‘agil’ în limba engleză.
Implementarea ‘Agile Governance’ este descrisă în Ghidul pentru Operatorii de AI astfel:
- Se efectuează ‘analiza mediului și a riscurilor’, care analizează schimbările mediului extern, cum ar fi acceptarea socială a sistemelor și serviciilor AI, și beneficiile și riscurile utilizării sistemelor și serviciilor AI.
- Se decide dacă să se dezvolte, să se ofere sau să se utilizeze sisteme și servicii AI și, în caz afirmativ, se stabilește ‘obiectivul’.
- Se proiectează ‘sistemul de management AI’ pentru a atinge obiectivele de guvernanță AI stabilite și se operează acesta. În acest proces, companiile trebuie să asigure transparență și responsabilitate (echitate etc.) față de stakeholderii externi cu privire la obiectivele de guvernanță AI și starea de operare a acestora.
- Se monitorizează continuu dacă sistemul de management AI funcționează eficient și se efectuează ‘evaluarea’.
- Chiar și după începerea operării sistemelor și serviciilor AI, se reia ‘analiza mediului și a riscurilor’ în lumina schimbărilor mediului extern și se revizuiește obiectivul dacă este necesar.
Pentru a practica aceste puncte de la 1 la 5, obiectivele specifice de acțiune sunt descrise în Ghidul pentru Operatorii de AI anexă[ja], așa că haideți să verificăm fiecare element în detaliu.
Obiective de acțiune pentru practicarea guvernanței agile în Japonia
Să ne asigurăm obiectivele de acțiune pentru practicarea guvernanței agile, bazându-ne pe anexa Ghidului pentru Operatorii de AI din Japonia.
Analiza Mediului și a Riscurilor
În cadrul guvernanței agile, obiectivele de acțiune pentru implementarea “Analizei Mediului și a Riscurilor” sunt enumerate în anexa Ghidului pentru Operatorii de AI, și includ următoarele trei aspecte:
- Înțelegerea beneficiilor și riscurilor
- Înțelegerea acceptării sociale a AI
- Înțelegerea nivelului de competență în AI al propriei companii
Înțelegerea Beneficiilor/Riscurilor
Unul dintre obiectivele de acțiune pentru implementarea “analizei de mediu și risc” este “înțelegerea beneficiilor/riscurilor”.
În anexa Ghidului pentru Operatorii de AI se explică astfel:
Obiectiv de acțiune 1-1【Înțelegerea Beneficiilor/Riscurilor】
Sub conducerea managementului, fiecare entitate trebuie să clarifice scopul dezvoltării, furnizării și utilizării AI, și, pe lângă înțelegerea beneficiilor obținute de la AI, să înțeleagă concret riscurile neintenționate în contextul afacerii fiecărei entități, să raporteze acestea managementului, să le împărtășească cu managementul și să actualizeze înțelegerea la timp.
Sursa: Anexa Ghidului pentru Operatorii de AI
Următoarele puncte sunt deosebit de importante:
- Definirea clară a scopurilor dezvoltării, furnizării și utilizării AI, cum ar fi crearea de valoare în afaceri și soluționarea problemelor sociale
- Înțelegerea concretă a beneficiilor și riscurilor în contextul propriilor afaceri
- Atenție la “riscurile” care trebuie evitate și la problemele care se întind pe mai multe entități, asigurând beneficiile și reducând riscurile pe întregul lanț de valori/lanț de risc
- Construirea unui sistem pentru raportarea și împărtășirea rapidă cu managementul
Înțelegerea acceptării sociale a inteligenței artificiale
Un alt obiectiv de acțiune menționat pentru implementarea “analizei de mediu și de risc” este “înțelegerea acceptării sociale a inteligenței artificiale (AI)”.
În anexa la Ghidul pentru operatorii de AI se explică astfel:
Obiectiv de acțiune 1-2【Înțelegerea acceptării sociale a AI】
Se așteaptă ca fiecare entitate, sub conducerea managementului, să înțeleagă starea actuală a acceptării sociale a AI, pe baza opiniilor părților interesate, înainte de dezvoltarea, furnizarea și utilizarea efectivă a AI. De asemenea, se așteaptă ca, după dezvoltarea, furnizarea și utilizarea efectivă a sistemelor și serviciilor AI, entitățile să reconfirme periodic opiniile părților interesate, ținând cont de schimbările din mediul extern.
Sursa: Anexa la Ghidul pentru operatorii de AI
Punctele cheie pentru implementare sunt următoarele:
- Identificarea părților interesate
- Străduirea de a înțelege acceptarea socială a AI de către părțile interesate în dezvoltarea, furnizarea și utilizarea AI
- Reconfirmarea periodică a opiniilor părților interesate după lansarea sistemelor și serviciilor AI, luând în considerare schimbările rapide ale mediului extern și acționând în consecință
Înțelegerea nivelului de cunoaștere AI al companiei dumneavoastră
Un al treilea obiectiv de acțiune menționat pentru implementarea “analizei de mediu și de risc” este “înțelegerea nivelului de cunoaștere AI al companiei dumneavoastră”.
În anexa la Ghidul pentru Operatorii AI se explică astfel:
Obiectiv de acțiune 1-3【Înțelegerea nivelului de cunoaștere AI al companiei dumneavoastră】
Sub conducerea managementului, fiecare entitate, luând în considerare implementarea obiectivelor de acțiune 1-1 și 1-2 și, cu excepția cazurilor în care se consideră că riscul este minor, va evalua nivelul de cunoaștere AI al propriului sistem și servicii de AI, pe baza experienței în dezvoltarea, furnizarea și utilizarea acestora, numărului și nivelului de experiență al angajaților, inclusiv inginerii implicați, precum și nivelul de literație în tehnologia și etica AI a acestor angajați. Se așteaptă ca, atunci când este posibil, să publice rezultatele într-un mod rezonabil pentru părțile interesate și să reevalueze periodic. În cazurile în care se decide că nu este necesară evaluarea nivelului de cunoaștere AI deoarece riscul este considerat minor, se așteaptă să se publice acest fapt împreună cu motivele pentru părțile interesate.
Sursa: Anexa la Ghidul pentru Operatorii AI
Punctele cheie pentru implementare sunt următoarele:
- Evaluarea necesității de a evalua nivelul de cunoaștere AI al companiei, în funcție de domeniul de activitate și dimensiunea fiecărei entități
- Dacă se consideră necesară evaluarea nivelului de cunoaștere AI, se va vizualiza capacitatea de răspuns la riscurile AI și se va evalua nivelul de cunoaștere AI
- Chiar și în cazurile în care se decide că evaluarea nivelului de cunoaștere AI nu este necesară, dacă este posibil, se va publica acest fapt împreună cu motivele într-un mod rezonabil pentru părțile interesate
Stabilirea Obiectivelor

Ca obiective de acțiune pentru implementarea “Stabilirii Obiectivelor” în cadrul guvernanței agile, Anexa Ghidului pentru Operatorii de AI din Japonia enumeră următoarele:
Obiectiv de acțiune 2-1【Stabilirea Obiectivelor de Guvernanță AI】
Fiecare entitate, sub conducerea managementului, ținând cont de beneficiile/riscurile potențiale ale sistemelor și serviciilor AI, de acceptarea socială a dezvoltării, furnizării și utilizării sistemelor și serviciilor AI, precum și de gradul de familiarizare cu AI al companiei, va lua în considerare importanța procesului de stabilire a Obiectivelor de Guvernanță AI și va decide dacă să stabilească propriile Obiective de Guvernanță AI (de exemplu, o politică AI) sau nu. În cazul în care se stabilesc astfel de obiective, se așteaptă ca acestea să fie făcute publice pentru stakeholderi. Dacă se decide să nu se stabilească Obiective de Guvernanță AI pe motiv că riscurile potențiale sunt minore, se așteaptă ca această decizie, împreună cu motivele sale, să fie făcută publică pentru stakeholderi. Dacă se consideră că “Principiile Comune” din acest ghid funcționează suficient, acestea pot fi folosite ca Obiective de Guvernanță AI în locul celor proprii ale companiei.
Chiar și în cazul în care nu se stabilesc obiective, se așteaptă ca entitățile să înțeleagă importanța acestui ghid și să implementeze corespunzător inițiativele legate de obiectivele de acțiune 3 până la 5.
Sursa: Anexa Ghidului pentru Operatorii de AI
Punctele cheie pentru implementare sunt următoarele:
- Examinarea de către fiecare entitate a necesității de a stabili “Obiective de Guvernanță AI”
- În cazul în care se decide că stabilirea obiectivelor este necesară, acestea vor fi stabilite
- Chiar și în cazul în care se decide că stabilirea obiectivelor nu este necesară, dacă este posibil, se va face public acest fapt, împreună cu motivele, într-un mod rezonabil pentru stakeholderi.
Designul Sistemului (Construirea unui Sistem de Management AI)
În cadrul guvernanței agile, obiectivele de acțiune pentru implementarea “Designului Sistemului (Construirea unui Sistem de Management AI)” sunt enumerate în anexa Ghidului pentru Operatorii AI din Japonia și includ următoarele patru elemente:
- Impunerea evaluării obiectivelor și a abaterilor, precum și a răspunsurilor la abateri
- Îmbunătățirea literației în managementul AI a personalului
- Întărirea managementului AI prin cooperarea între diferite entități și departamente
- Reducerea povarei incidentelor asupra utilizatorilor prin prevenție și răspuns rapid
Evaluarea Obiectivelor și a Deviațiilor și Obligativitatea Răspunsului la Deviații
Unul dintre obiectivele de acțiune pentru implementarea “Designului de Sistem (construirea unui sistem de management AI)” este “Evaluarea Obiectivelor și a Deviațiilor și Obligativitatea Răspunsului la Deviații”.
În Ghidul pentru Operatorii AI din Japonia se menționează următoarele:
Obiectiv de acțiune 3-1【Evaluarea Obiectivelor și a Deviațiilor, precum și Obligativitatea Răspunsului la Deviații】
Sub conducerea managementului, fiecare entitate trebuie să identifice deviațiile de la Obiectivele de Guvernanță AI ale entității respective, să evalueze impactul deviațiilor și, în cazul în care se recunoaște un risc, să ia în considerare mărimea, domeniul și frecvența apariției acestuia pentru a determina dacă acceptarea riscului este rațională sau nu. Dacă acceptarea nu este considerată rațională, se așteaptă ca entitatea să reconsidere modul de dezvoltare, furnizare și utilizare a AI și să integreze acest proces de reconsiderare la etapele adecvate ale sistemului de management AI și ale designului, dezvoltării și utilizării sistemelor și serviciilor AI, atât înainte cât și după lansarea în utilizare. Este important ca managementul să stabilească politici de bază pentru procesul de reconsiderare, iar nivelul operațional să concretizeze acest proces. De asemenea, se așteaptă ca în evaluarea deviațiilor să participe și persoane care nu sunt direct implicate în dezvoltarea, furnizarea și utilizarea AI vizat. Totuși, nu este adecvat să se răspundă la deviații prin interzicerea arbitrară a dezvoltării, furnizării și utilizării AI doar pe baza existenței unei deviații. Prin urmare, evaluarea deviațiilor este un pas în evaluarea riscului și nu reprezintă decât un punct de plecare pentru îmbunătățiri.
Sursa: Anexa Ghidului pentru Operatorii AI
Punctele cheie pentru practică sunt următoarele:
- Identificarea și evaluarea gradului de deviație de la sistemul și serviciile AI actuale și de la “Obiectivele de Guvernanță AI”.
- Dacă utilizarea sistemului și serviciilor AI prezintă riscuri, se va determina dacă acceptarea acestora este rațională sau nu.
- Dacă acceptarea nu este considerată rațională, se va reconsidera modul de dezvoltare, furnizare și utilizare și se va integra procesul de reconsiderare la etapele adecvate de dezvoltare, furnizare și utilizare, precum și în procesele de luare a deciziilor în cadrul organizației fiecărei entități.
- Managementul trebuie să preia conducerea în aceste acțiuni, să își asume responsabilitatea pentru deciziile luate și să asigure că nivelul operațional concretizează și implementează continuu aceste acțiuni.
- Pentru a cultiva o înțelegere comună în cadrul fiecărei entități, elementele de evaluare a deviațiilor decise trebuie să fie împărtășite în interiorul entității respective.
Îmbunătățirea literației în managementul AI al personalului
Un alt obiectiv de acțiune care poate fi identificat pentru implementarea “Designului de Sistem (construirea unui sistem de management AI)” este “îmbunătățirea literației în managementul AI al personalului”.
În Ghidul pentru Operatorii AI se menționează următoarele:
Obiectiv de acțiune 3-2【Îmbunătățirea literației personalului în sistemul de management AI】
Sub conducerea stratului de management, se așteaptă ca fiecare entitate să îmbunătățească strategic literația AI pentru a opera în mod adecvat sistemul de management AI, luând în considerare și utilizarea materialelor educaționale externe. De exemplu, se poate oferi educație pentru îmbunătățirea literației generale legate de etica AI și fiabilitatea AI pentru membrii consiliului de administrație, echipa de management și personalul responsabil cu aspectele legale și etice ale sistemelor și serviciilor AI, în timp ce pentru cei implicați în dezvoltarea, furnizarea și utilizarea proiectelor de sisteme și servicii AI, se pot oferi cursuri nu doar despre etica AI, ci și despre tehnologia AI, inclusiv AI generativ. De asemenea, se poate oferi educație tuturor privind poziționarea și importanța sistemului de management AI.
Sursa: Anexa Ghidului pentru Operatorii AI
Printre punctele cheie pentru practică se numără următoarele:
- Utilizarea de cursuri și materiale educaționale adecvate funcției și responsabilităților pentru îmbunătățirea literației AI
- Adaptarea cursurilor și materialelor educaționale la rolul pe care fiecare persoană trebuie să-l îndeplinească
- Implementarea de soluții creative, cum ar fi obligativitatea cursurilor de etică AI pentru toți angajații, în special pentru aspectele esențiale
Intensificarea managementului AI prin cooperarea între entități și departamente
Un al treilea obiectiv de acțiune care poate fi identificat pentru implementarea “Designului de Sistem (construirea unui sistem de management AI)” este “intensificarea managementului AI prin cooperarea între entități și departamente”.
În Ghidul pentru Operatorii de AI din Japonia se menționează următoarele:
Obiectiv de acțiune 3-3【Intensificarea managementului AI prin cooperarea între entități și departamente】
Entitățile, cu excepția cazului în care gestionează întregul proces de la pregătirea seturilor de date pentru învățare până la dezvoltarea, furnizarea și utilizarea sistemelor și serviciilor AI în cadrul propriului departament, sunt așteptate să clarifice sub conducerea managementului problemele operaționale și informațiile necesare pentru rezolvarea acestor probleme legate de sistemele și serviciile AI, care nu pot fi suficient gestionate de către o singură entitate sau departament. În acest context, se așteaptă să se împărtășească informațiile într-un mod posibil și rezonabil, păstrând concurența echitabilă și având în vedere secretele comerciale, etc. În acest proces, se așteaptă ca entitățile să ajungă la un acord prealabil privind domeniul de divulgare a informațiilor și să ia în considerare încheierea unui acord de confidențialitate pentru a asigura un schimb de informații eficient.
Sursa: Anexa Ghidului pentru Operatorii de AI
Printre punctele cheie pentru practică se numără următoarele:
- Identificarea problemelor operaționale ale sistemelor și serviciilor AI care nu pot fi rezolvate de o singură entitate și a informațiilor necesare pentru rezolvarea acestora
- Împărtășirea informațiilor între entități, având în vedere drepturile de proprietate intelectuală și confidențialitatea, într-un mod posibil și rezonabil
※Acestea trebuie să se bazeze pe respectarea diverselor legi și reglementări, politicile AI ale fiecărei entități, secretele comerciale, datele cu acces limitat etc., având ca premisă asigurarea unei concurențe echitabile.
Reducerea Poverii Asociate cu Incidentele Utilizatorilor prin Prevenție și Răspuns Rapid
Unul dintre obiectivele de acțiune pentru implementarea “Designului de Sistem (construirea unui sistem de management AI)” este “Reducerea poverii asociate cu incidentele utilizatorilor prin prevenție și răspuns rapid”.
În Ghidul pentru Operatorii de AI din Japonia se menționează următoarele:
Obiectiv de acțiune 3-4【Reducerea poverii asociate cu incidentele utilizatorilor de AI și a celor din afara afacerii prin prevenție și răspuns rapid】
Se așteaptă ca fiecare entitate, sub conducerea managementului, să reducă povara asociată cu incidentele utilizatorilor de AI și a celor din afara afacerii prin prevenție și răspuns rapid la incidente.
Sursa: Anexa Ghidului pentru Operatorii de AI
- Prevenirea incidentelor precum defecțiuni ale sistemului, scurgeri de informații și apariția de reclamații și răspuns rapid în cazul în care acestea se produc
- Construirea unui cadru pentru prevenirea incidentelor și răspuns rapid
Implementare

În contextul guvernanței agile din Japonia, obiectivele de acțiune pentru implementarea ‘operării’ sunt enumerate în anexa Ghidului pentru Operatorii de AI după cum urmează:
- Asigurarea unei stări explicabile a situației de operare a sistemelor de management AI
- Asigurarea unei stări explicabile a situației de operare a fiecărui sistem AI individual
- Examinarea divulgării proactive a stării practicii guvernanței AI
Asigurarea unei stări explicabile a funcționării sistemului de management AI
Unul dintre obiectivele de acțiune pentru implementarea “funcționării” este “asigurarea unei stări explicabile a funcționării sistemului de management AI”.
În Ghidul pentru Operatorii AI din Japonia este menționat următorul lucru:
Obiectiv de acțiune 4-1【Asigurarea unei stări explicabile a funcționării sistemului de management AI】
Se așteaptă ca fiecare entitate, sub conducerea managementului, să asigure transparența și responsabilitatea față de părțile interesate relevante cu privire la starea funcționării sistemului de management AI, de exemplu, prin înregistrarea stării implementării procesului de evaluare a discrepanțelor menționat în obiectivul de acțiune 3-1.
Sursa: Anexa Ghidului pentru Operatorii AI
Ca punct cheie în funcționare, este important să menținem sistemul de management AI într-o stare în care să putem explica în mod adecvat și rațional starea acestuia părților interesate relevante.
Asigurarea unei stări explicabile a funcționării individuale a sistemelor AI
Un alt obiectiv de acțiune pentru implementarea “operațiunilor” este “asigurarea unei stări explicabile a funcționării sistemelor de management AI”.
În Ghidul pentru Operatorii de AI din Japonia se menționează următoarele:
Obiectiv de acțiune 4-2【Asigurarea unei stări explicabile a funcționării individuale a sistemelor AI】
Se așteaptă ca fiecare entitate, sub conducerea managementului, să monitorizeze continuu evaluarea divergențelor în faza de testare și în cea de implementare completă a fiecărui sistem și serviciu AI, în timp ce aplică ciclul PDCA și înregistrează rezultatele. Entitățile care dezvoltă sisteme AI sunt așteptate să sprijine monitorizarea efectuată de entitățile care oferă și utilizează sistemele AI.
Sursa: Anexa Ghidului pentru Operatorii de AI
Punctele cheie ale practicii sunt următoarele:
- Monitorizarea stării operațiunilor AI ale fiecărei entități și înregistrarea rezultatelor în timp ce se aplică ciclul PDCA.
- În cazul în care este dificil pentru o entitate să răspundă singură, se așteaptă cooperarea între entități.
Examinarea divulgării proactive a stării practicii guvernanței AI
Un al treilea obiectiv de acțiune pentru implementarea “operațiunilor” este “asigurarea unei stări explicabile a operațiunilor sistemului de management AI și examinarea divulgării proactive a stării practicii guvernanței AI”.
În Ghidul pentru operatorii de AI din Japonia se menționează următoarele:
Obiectiv de acțiune 4-3【Examinarea divulgării proactive a stării practicii guvernanței AI】
Se așteaptă ca entitățile să examineze divulgarea informațiilor legate de stabilirea obiectivelor guvernanței AI, dezvoltarea și operarea sistemelor de management AI, plasând aceste informații în contextul informațiilor non-financiare din Codul de Guvernanță Corporativă. Se așteaptă ca această examinare să fie luată în considerare chiar și de către companiile care nu sunt listate la bursă, în ceea ce privește divulgarea informațiilor despre activitățile legate de guvernanța AI. În plus, se așteaptă ca, în urma examinării, faptul de a nu divulga aceste informații, împreună cu motivele, să fie făcut public pentru stakeholderi.
Sursa: Anexa Ghidului pentru operatorii de AI
Punctele cheie pentru practică sunt următoarele:
- Examinarea asigurării transparenței informațiilor legate de guvernanța AI, începând de la abordarea de bază a companiei față de AI până la dezvoltarea și operarea sistemelor de management AI.
- Când se divulgă informații legate de guvernanța AI, se va examina plasarea acestora în contextul informațiilor non-financiare din Codul de Guvernanță Corporativă.
- În cazul în care se decide să nu se divulge informații legate de guvernanța AI, se va face public acest fapt împreună cu motivele pentru stakeholderi.
Evaluare

În cadrul guvernanței agile, două obiective de acțiune sunt enumerate în anexa Ghidului pentru Operatorii AI pentru implementarea ‘evaluării’:
- Verificarea funcționalității sistemului de management AI
- Examinarea opiniilor părților interesate externe
Verificarea funcționalității sistemului de management AI
Primul obiectiv de acțiune menționat pentru implementarea ‘evaluării’ este ‘verificarea funcționalității sistemului de management AI’.
Ghidul pentru Operatorii AI precizează următoarele:
Obiectiv de acțiune 5-1【Verificarea funcționalității sistemului de management AI】:
Se așteaptă ca fiecare entitate, sub conducerea managementului, să solicite persoanelor cu expertiză relevantă și independente de proiectarea și operarea sistemului de management AI, să evalueze dacă procesul de evaluare a discrepanțelor și alte sisteme de management AI sunt proiectate și operate corespunzător, în lumina obiectivelor de guvernanță AI, adică dacă prin practicarea obiectivelor de acțiune 3 și 4, sistemul de management AI funcționează adecvat pentru atingerea obiectivelor de guvernanță AI și să solicite îmbunătățiri continue.
Citat: Ghidul pentru Operatorii AI
Punctele cheie pentru practică sunt următoarele:
- Managementul să exprime clar punctele de accent pentru evaluarea îmbunătățirii continue în propriile lor cuvinte
- Atribuirea persoanelor cu expertiză relevantă și independente de proiectarea și operarea sistemului de management AI
- Monitorizarea dacă sistemul de management AI funcționează adecvat
- Implementarea îmbunătățirilor continue pe baza rezultatelor monitorizării
Examinarea opiniilor părților interesate externe
Al doilea obiectiv de acțiune menționat pentru implementarea ‘evaluării’ este ‘examinarea opiniilor părților interesate externe’.
Ghidul pentru Operatorii AI precizează următoarele:
Obiectiv de acțiune 5-2【Examinarea opiniilor părților interesate】:
Se așteaptă ca fiecare entitate, sub conducerea managementului, să ia în considerare solicitarea de opinii privind sistemul de management AI și operarea acestuia din partea părților interesate. În urma examinării, dacă se decide să nu se implementeze conținutul opiniilor, se așteaptă ca entitatea să explice motivele părților interesate.
Citat: Anexa Ghidului pentru Operatorii AI
Punctele cheie pentru practică sunt următoarele:
- Să ia în considerare solicitarea de opinii privind sistemul de management AI și operarea acestuia din partea părților interesate
- În cazul în care se decide să nu se implementeze conținutul opiniilor, să explice motivele părților interesate
Reanaliza Mediului și a Riscurilor Sub Legislația Japoneză
Unul dintre obiectivele de acțiune pentru implementarea “reanalizei mediului și a riscurilor” în cadrul guvernanței agile este “reimplementarea la timp a obiectivelor de acțiune 1-1 până la 1-3”.
În Ghidul pentru Operatorii de AI din Japonia se menționează următoarele:
Obiectiv de acțiune 6-1【Reimplementarea la timp a obiectivelor de acțiune 1-1 până la 1-3】:
Se așteaptă ca fiecare entitate, sub conducerea managementului, să înțeleagă rapid schimbările din mediul extern, cum ar fi apariția noilor tehnologii și modificările sistemelor sociale, inclusiv reglementările, și să reevalueze, să actualizeze înțelegerea și să dobândească noi perspective în timp util. Pe baza acestora, se așteaptă îmbunătățirea sau reconstrucția sistemelor AI și îmbunătățirea operațiunilor. În plus, atunci când se implementează obiectivul de acțiune 5-2, nu numai sistemul de management AI existent și operațiunile acestuia, ci și analiza mediului și a riscurilor, inclusiv, se așteaptă să se ia în considerare obținerea de opinii externe orientate către o revizuire completă a guvernanței AI, conform cu guvernanța agile, care este de asemenea accentuată în acest ghid.
Sursa: Anexa Ghidului pentru Operatorii de AI
Punctele cheie pentru practică includ următoarele:
- Înțelegerea schimbărilor din mediul extern, cum ar fi apariția noilor tehnologii, inovațiile tehnologice legate de AI și modificările sistemelor sociale, inclusiv reglementările
- Reevaluarea la timp, actualizarea înțelegerii și dobândirea de noi perspective, urmate de îmbunătățirea, reconstrucția și modificarea operațiunilor sistemelor AI în concordanță
- Încorporarea conceptului de guvernanță AI ca parte a culturii organizaționale
Aspecte de luat în considerare când construiești guvernanța AI
Acestea sunt metodele specifice de guvernanță AI bazate pe abordarea agilă a guvernanței, conform “Ghidului pentru Operatorii de AI”.
Totuși, acestea sunt create ca fiind aplicabile tuturor operatorilor de AI și este necesar să se ia în considerare tipul specific de afacere în care compania este implicată – dezvoltare, oferire sau utilizare – și tipul de sisteme sau servicii AI pe care le furnizează.
Tipul de organizație și sistem necesar companiei, acțiunile și documentația necesară variază în funcție de caz și trebuie să se ia în considerare cum acestea vor conduce la avantaje de afaceri și la evitarea dezavantajelor în viitor.
În plus, afacerile AI ascund diverse riscuri legale. Prin urmare, recomandăm să obțineți sprijinul unui avocat din prima etapă a implementării măsurilor de precauție.
Concluzie: Optimizarea conform Ghidului pentru Operatorii de AI este o sarcină pentru avocați
Acest articol a explicat cum să construiți guvernanța AI în conformitate cu Ghidul pentru Operatorii de AI din Japonia.
Metodele de guvernanță AI sunt descrise în detaliu în Ghidul pentru Operatorii de AI, iar managerii trebuie să creeze organizații interne și să elaboreze documente ca parte a guvernanței.
În afacerile AI, unde viteza schimbării este rapidă, optimizarea pentru un ghid complex și nou creat este extrem de dificilă. Recomandăm să construiți guvernanța AI optimă pentru compania dvs. primind sfaturi de la experți specializați în domeniul IT, inclusiv AI, și în drept, încă de la etapele incipiente.
Ghidul măsurilor noastre de intervenție
Cabinetul de Avocatură Monolith este o firmă de avocatură cu experiență bogată în IT, în special în domeniul internetului și al legii.
Afacerile bazate pe AI implică numeroase riscuri legale și necesită suportul esențial al avocaților specializați în probleme legale legate de AI. Cabinetul nostru oferă suport juridic avansat pentru afacerile AI, inclusiv ChatGPT, printr-o echipă de avocați și ingineri cu expertiză în AI, oferind servicii precum crearea de contracte, evaluarea legalității modelelor de afaceri, protecția drepturilor de proprietate intelectuală și conformitatea cu reglementările privind confidențialitatea. Detalii suplimentare sunt furnizate în articolul de mai jos.
Domeniile de practică ale Cabinetului de Avocatură Monolith: Servicii juridice AI (inclusiv ChatGPT)[ja]
Category: IT