Vad är AI-governance som företag bör engagera sig i? Förklaring av nyckelpunkter baserade på "AI-operatörernas riktlinjer

Den 19 april 2024 (Reiwa 6) publicerade Japans ministerium för inrikesfrågor och kommunikationer samt ministeriet för ekonomi, handel och industri “Riktlinjer för AI-företag”. Syftet med dessa riktlinjer är att främja säker användning av AI och att driva på implementeringen av AI i samhället. Riktlinjerna riktar sig till företag, offentliga institutioner, utbildningsinstitutioner och organisationer som NPO:er och NGO:er som är involverade i utveckling, tillhandahållande och användning av AI.
I “Riktlinjer för AI-företag” betonas vikten av att etablera AI-styrning för varje part som utvecklar, tillhandahåller och använder AI. Men vilka åtgärder behöver företagen vidta för att bygga upp en sådan AI-styrning?
I denna artikel förklarar vi de viktiga punkterna i AI-styrning som företag bör engagera sig i, baserat på “Riktlinjer för AI-företag”.
Vad är riktlinjerna för AI-operatörer?
Riktlinjerna för AI-operatörer är ett dokument som utarbetades av Japans ministerium för inrikesfrågor och kommunikationer samt ministeriet för ekonomi, handel och industri år 2024 (Reiwa 6), med syftet att främja en säker och trygg användning av AI. Detta genom att erbjuda en enhetlig vägledning för AI-governance i vårt land.
Referens: Riktlinjer för AI-operatörer (Version 1.0) | Ministeriet för ekonomi, handel och industri[ja]
De nya riktlinjerna är en integration och översyn av de tidigare utarbetade “Riktlinjerna för AI-utveckling”, “Riktlinjerna för användning av AI” och “Governance-riktlinjer för att praktisera AI-principer”. De är utformade för att hjälpa företag som använder AI att identifiera önskvärda beteenden för en säker och trygg användning av AI.
För en detaljerad förklaring av riktlinjerna för AI-operatörer, se “En advokats förklaring av ministeriet för ekonomi, handel och industris ‘Riktlinjer för AI-operatörer'” som en referens.
Relaterad artikel: En advokats förklaring av ministeriet för ekonomi, handel och industris ‘Riktlinjer för AI-operatörer'[ja]
Vad är AI-styrning?
AI-styrning definieras i riktlinjerna för AI-operatörer i Japan som “design och drift av tekniska, organisatoriska och sociala system av intressenter, med syftet att hantera de risker som uppstår genom användning av AI till en nivå som är acceptabel för intressenterna, samtidigt som man maximerar de positiva effekterna (fördelarna) som det medför”.
Dessutom betonar riktlinjerna för AI-operatörer i Japan vikten av att bygga AI-styrning för att “praktisera gemensamma riktlinjer över hela värdekedjan genom samarbete mellan olika aktörer, för att på ett säkert och tryggt sätt använda AI, samtidigt som man hanterar risker relaterade till AI till en nivå som är acceptabel för intressenterna och maximerar de fördelar som det medför”.
Med andra ord är uppbyggnaden av AI-styrning av stor vikt för alla parter som är involverade i utveckling, tillhandahållande och användning av AI.
Praktiken av “Agil Governance” i uppbyggnaden av AI-styrning

I uppbyggnaden av AI-styrning anses det vara viktigt att praktisera “Agil Governance”.
Agil Governance innebär att man inte sätter upp fasta regler i förväg, utan istället kontinuerligt snurrar en cykel av “miljö- och riskanalys”, “måldefinition”, “systemdesign”, “drift” och “utvärdering” för att flexibelt kunna hantera förändringar i den yttre miljön och risker.
I AI-relaterade verksamheter förändras målen snabbt och är komplexa, vilket innebär att de ständigt förändras.
Därför är det nödvändigt med flexibla regler och förfaranden som inte är förutbestämda i uppbyggnaden av AI-styrning, anpassade till varje företags storlek och verksamhetstyp. Därför rekommenderas uppbyggnaden av styrning genom metoder för Agil Governance i riktlinjerna för AI-operatörer.
Ordet “agil” betyder “snabb” och “rörlig” på engelska.
Implementeringen av Agil Governance i huvuddokumentet för AI-operatörsguiden beskrivs på följande sätt:
- Genomför en “miljö- och riskanalys” som analyserar förändringar i den sociala acceptansen av AI-system och tjänster och de fördelar och risker som användningen av AI-system och tjänster medför.
- Bestäm om AI-system och tjänster ska utvecklas, tillhandahållas och användas, och om så är fallet, definiera “mål”.
- Designa ett “AI Management System” för att uppnå de uppsatta AI-styrningsmålen och “driva” det. Företag bör upprätthålla transparens och ansvarsskyldighet (till exempel rättvisa) gentemot externa intressenter när det gäller AI-styrningsmål och deras drift.
- Övervaka kontinuerligt om AI Management Systemet fungerar effektivt och genomför “utvärderingar”.
- Även efter att AI-system och tjänster har börjat användas, genomför en “miljö- och riskanalys” igen med hänsyn till förändringar i den yttre miljön och revidera målen vid behov.
Specifika handlingsmål för att praktisera dessa steg 1–5 finns beskrivna i bilagan till AI-operatörsguiden[ja], så låt oss granska varje punkt noggrant.
Handlingsmål för att praktisera agil styrning
Låt oss bekräfta handlingsmålen för att praktisera agil styrning, baserat på bilagan till riktlinjerna för AI-operatörer.
Miljö- och riskanalys under japansk IT-rätt
För att genomföra en “Miljö- och riskanalys” inom ramen för agil styrning, identifierar riktlinjerna för AI-operatörer i Japan följande tre handlingsmål:
- Förståelse av fördelar/risken
- Förståelse av AI:s sociala acceptans
- Förståelse av det egna företagets AI-mognad
Förståelse av Fördelar/Risker
Det första målet för att genomföra “miljö- och riskanalys” är “förståelse av fördelar/risker”.
I bilagan till riktlinjerna för AI-operatörer förklaras det på följande sätt.
Mål för åtgärder 1-1 [Förståelse av fördelar/risker]
Varje part ska under ledning av företagsledningen klargöra syftet med utveckling, tillhandahållande och användning av AI. Därefter ska de inte bara förstå de fördelar som kan erhållas från AI, utan också de oavsiktliga risker som finns, och detta i relation till deras egen verksamhet. De ska konkret förstå dessa aspekter, rapportera dem till företagsledningen, dela informationen inom ledningen och uppdatera förståelsen i rätt tid.
Källa: Bilaga till riktlinjerna för AI-operatörer
Särskilt viktiga punkter är följande:
- Att tydligt definiera syftet med utveckling, tillhandahållande och användning av AI för att skapa värde i verksamheten och lösa samhällsproblem.
- Att konkret förstå fördelar och risker i relation till det egna företagets verksamhet.
- Att vara uppmärksam på “risker” som bör undvikas och frågor som berör flera parter, och att säkerställa fördelar och minska risker över hela värdekedjan/riskkedjan.
- Att snabbt bygga ett system för att rapportera/dela information med företagsledningen.
Förståelse för AI:s sociala acceptans
Det andra målet för att genomföra “miljö- och riskanalys” är “förståelse för AI:s sociala acceptans”.
I bilagan till riktlinjerna för AI-operatörer förklaras det på följande sätt:
Mål för åtgärder 1-2【Förståelse för AI:s sociala acceptans】
Det förväntas att varje aktör, under ledning av företagsledningen, ska förstå den aktuella situationen för social acceptans baserat på intressenternas åsikter innan man påbörjar fullskalig utveckling, tillhandahållande och användning av AI. Dessutom, även efter att AI-system och tjänster har börjat utvecklas, tillhandahållas och användas i full skala, förväntas det att man, med hänsyn till förändringar i den yttre miljön, vid behov och i rätt tid återbekräftar intressenternas åsikter.
Källa: Bilaga till riktlinjerna för AI-operatörer
Punkterna för genomförande är som följer:
- Identifiera intressenter
- Sträva efter att förstå den sociala acceptansen bland intressenter och utveckla, tillhandahålla och använda AI
- Även efter att AI-system och tjänster har lanserats, beakta den snabbt föränderliga yttre miljön och vid behov återbekräfta intressenternas åsikter i rätt tid
Förståelse av det egna företagets AI-kompetensnivå
Det tredje målet för att genomföra “miljö- och riskanalys” är “förståelse av det egna företagets AI-kompetensnivå”.
I bilagan till riktlinjerna för AI-operatörer förklaras det på följande sätt:
Mål för åtgärder 1-3【Förståelse av det egna företagets AI-kompetensnivå】
Under ledning av företagsledningen ska varje aktör, med beaktande av genomförandet av mål för åtgärder 1-1 och 1-2, och om det bedöms att risken är obetydlig med hänsyn till den avsedda användningen av AI, företagets verksamhetsområde och storlek, utvärdera företagets AI-kompetensnivå baserat på erfarenheten av utveckling, tillhandahållande och användning av AI-system och tjänster, antalet och erfarenheten hos de anställda, inklusive ingenjörer, som är involverade i utveckling, tillhandahållande och användning av AI-system och tjänster, samt graden av AI-teknisk och etisk kompetens hos dessa anställda. Det förväntas att företaget, där det är möjligt, offentliggör resultaten för intressenter inom en rimlig omfattning och att det regelbundet omvärderar sin AI-kompetensnivå. Om det bedöms att risken är obetydlig och att en utvärdering av AI-kompetensnivån inte är nödvändig, förväntas företaget offentliggöra detta faktum och dess skäl för intressenterna.
Källa: Bilaga till riktlinjerna för AI-operatörer
Punkterna för genomförande är som följer:
- Bedöm behovet av att utvärdera AI-kompetensnivån med hänsyn till varje aktörs verksamhetsområde och storlek
- Om det bedöms att en utvärdering av AI-kompetensnivån är nödvändig, visualisera förmågan att hantera AI-relaterade risker och utvärdera AI-kompetensnivån
- Även om det bedöms att en utvärdering av AI-kompetensnivån inte är nödvändig, offentliggör detta faktum och dess skäl för intressenterna inom en rimlig omfattning om möjligt
Måldefinition

Som handlingsmål för genomförandet av “Måldefinition” inom agil styrning, föreslår bilagan till AI-operatörernas riktlinjer följande handlingsmål.
Handlingsmål 2-1【Inställning av AI-styrningsmål】
Varje aktör bör, under ledning av företagsledningen, beakta de fördelar/risker som AI-system och tjänster kan medföra, samhällets acceptans av utveckling, tillhandahållande och användning av AI-system och tjänster, samt företagets egen AI-mognad. Medan man beaktar vikten av processen för att fastställa AI-styrningsmål, bör man överväga att fastställa egna AI-styrningsmål (till exempel en AI-policy) och, om sådana mål fastställs, förväntas de offentliggöras för intressenter. Om man väljer att inte fastställa AI-styrningsmål på grund av att potentiella risker är obetydliga, förväntas man offentliggöra detta faktum och dess skäl för intressenterna. Om de “gemensamma riktlinjerna” i denna vägledning anses fungera tillräckligt väl, kan de ersätta företagets egna AI-styrningsmål som mål.
Även om man väljer att inte fastställa några mål, förväntas man förstå vikten av denna vägledning och genomföra åtgärder som rör handlingsmål 3 till 5 när det är lämpligt.
Källa: Bilaga till AI-operatörernas riktlinjer
Punkterna för genomförande är som följer:
- Överväga om man ska fastställa “AI-styrningsmål” för varje aktör
- Om det bedöms nödvändigt att fastställa mål, gör det
- Om det bedöms att det inte är nödvändigt att fastställa mål, offentliggör detta faktum och dess skäl för intressenterna inom en rimlig omfattning om möjligt.
Systemdesign (Uppbyggnad av AI-hanteringssystem)
För att genomföra “Systemdesign (Uppbyggnad av AI-hanteringssystem)” inom ramen för agil styrning, identifierar AI-operatörernas riktlinjer följande fyra handlingsmål:
- Nödvändiggörande av utvärdering av mål och avvikelser samt hantering av dessa avvikelser
- Förbättring av kompetensen inom AI-hantering för personalen
- Stärkande av AI-hantering genom samarbete mellan olika aktörer och avdelningar
- Minimering av användarnas belastning relaterad till incidenter genom förebyggande och tidiga åtgärder
Utvärdering och obligatorisk hantering av mål och avvikelser
En av de handlingsmål som anges för genomförandet av “Systemdesign (uppbyggnad av AI-hanteringssystem)” är “Utvärdering och obligatorisk hantering av mål och avvikelser”.
I riktlinjerna för AI-operatörer anges följande:
Handlingsmål 3-1【Utvärdering och obligatorisk hantering av mål och avvikelser】
Varje aktör förväntas, under ledning av ledningen, identifiera avvikelser från sina AI-governance-mål, utvärdera de effekter som avvikelserna medför och, om risker upptäcks, bedöma rimligheten i att acceptera dessa risker med hänsyn till deras storlek, omfattning och frekvens. Om det inte anses rimligt att acceptera riskerna, förväntas aktörerna ompröva sättet AI utvecklas, tillhandahålls och används. Denna process bör integreras i lämpliga skeden av AI-hanteringssystemet som helhet, samt i design-, utvecklings-, för-användning- och efter-användningsskedena av AI-system och tjänster. Det är viktigt att ledningen fastställer grundläggande riktlinjer för omprövningsprocessen och att operativa laget konkretiserar denna process. Dessutom förväntas att personer som inte är direkt involverade i utvecklingen, tillhandahållandet och användningen av AI deltar i utvärderingen av avvikelser. Det är dock inte lämpligt att enbart på grund av avvikelser godtyckligt förbjuda utveckling, tillhandahållande och användning av AI. Därför är avvikelsernas utvärdering ett steg för att bedöma risker och bör endast ses som en utlösare för förbättringar.
Källa: Bilaga till AI-operatörernas riktlinjer
Här är några punkter för praktisk tillämpning:
- Identifiera och utvärdera hur stor avvikelsen är från den nuvarande AI-systemtjänsten och “AI-governance-målen”.
- Bedöm rimligheten i att acceptera risker om användningen av AI-systemtjänsten medför risker.
- Om det inte anses rimligt att acceptera riskerna, ompröva sättet AI utvecklas, tillhandahålls och används, och integrera processen för omprövning i lämpliga skeden av utveckling, tillhandahållande och användning, samt i beslutsprocesserna inom organisationen.
- Ledningen ska ta ledarskap och ansvar för dessa åtgärder och se till att det operativa laget konkretiserar och kontinuerligt genomför dem.
- För att skapa en gemensam förståelse inom organisationen, dela de beslutade utvärderingspunkterna för avvikelser internt.
Förbättring av AI-kompetens inom personalhantering
En annan målsättning för genomförandet av “systemdesign (uppbyggnad av AI-hanteringssystem)” är “att höja AI-kompetensen hos personalen inom AI-hantering”.
I riktlinjerna för AI-operatörer anges följande:
Målsättning 3-2【Förbättring av personalens AI-kompetens inom AI-hanteringssystem】
Det förväntas att varje aktör, under ledning av företagsledningen, strategiskt ska förbättra sin AI-kompetens för att på ett adekvat sätt kunna hantera AI-hanteringssystemet. Detta kan innebära att man överväger att använda externa utbildningsmaterial. Till exempel kan utbildning för att förbättra allmän AI-kompetens erbjudas till styrelsemedlemmar, ledningsteam och ansvariga som bär juridiskt och etiskt ansvar för AI-system och -tjänster. För de som är ansvariga för utveckling, tillhandahållande och användning av AI-system och -tjänster kan utbildning erbjudas inte bara i AI-etik utan även i AI-teknik, inklusive generativ AI. För alla bör utbildning erbjudas som förklarar AI-hanteringssystemets position och betydelse.
Källa: Bilaga till AI-operatörernas riktlinjer
Några punkter för praktisk tillämpning inkluderar:
- Använda utbildning och utbildningsmaterial som är lämpliga för varje individs position och ansvarsområde för att förbättra AI-kompetensen
- Anpassa utbildning och utbildningsmaterial efter varje individs roll och ansvar
- Speciellt för AI-etik, som är av särskild vikt, bör man överväga att låta alla anställda genomgå utbildning
Stärkning av AI-hantering genom samarbete mellan olika aktörer och avdelningar
Det tredje målet för att genomföra “systemdesign (uppbyggnad av ett AI-hanteringssystem)” är “stärkning av AI-hantering genom samarbete mellan olika aktörer och avdelningar”.
I riktlinjerna för AI-operatörer anges följande:
Mål 3-3 [Stärkning av AI-hantering genom samarbete mellan olika aktörer och avdelningar]
Aktörerna förväntas, under ledning av företagsledningen och med beaktande av affärshemligheter, dela information som är nödvändig för att lösa operativa problem med AI-system och tjänster, samt identifiera dessa problem, såvida inte allt från förberedelse av datamängder för inlärning till utveckling, tillhandahållande och användning av AI-system och tjänster utförs inom den egna avdelningen. Detta bör ske inom ramen för rättvis konkurrens och i den mån det är möjligt och rimligt. Parterna bör i förväg komma överens om omfattningen av informationsutbytet och överväga att ingå sekretessavtal för att underlätta nödvändigt informationsutbyte.
Källa: Bilaga till AI-operatörernas riktlinjer
Några punkter för praktisk tillämpning inkluderar:
- Identifiera operativa problem med AI-system och tjänster som inte kan lösas av en enskild aktör, samt information som behövs för att lösa dessa problem.
- Delning av information mellan aktörer, med beaktande av immateriella rättigheter och integritet, i den mån det är möjligt och rimligt.
※Det är viktigt att notera att dessa åtgärder förutsätter upprätthållandet av rättvis konkurrens och beaktande av diverse lagar och regleringar, aktörernas AI-policy, affärshemligheter och data som tillhandahålls på begränsad basis.
Minskning av användarnas belastning relaterad till incidenter genom förebyggande åtgärder och snabb respons
Det fjärde beteendemålet för genomförandet av “systemdesign (uppbyggnad av AI-hanteringssystem)” är “minskning av användarnas belastning relaterad till incidenter genom förebyggande åtgärder och snabb respons”.
I riktlinjerna för AI-operatörer anges följande:
Beteendemål 3-4【Minskning av belastningen relaterad till incidenter för AI-användare och icke-arbetsrelaterade användare genom förebyggande åtgärder och snabb respons】
Det förväntas att alla parter, under ledning av företagsledningen, ska minska belastningen relaterad till incidenter för AI-användare och icke-arbetsrelaterade användare genom förebyggande åtgärder och snabb respons på incidenter.
Källa: Bilaga till AI-operatörernas riktlinjer
- Förebygga incidenter såsom systemfel, informationsläckor och klagomål, och vid händelse av sådana, snabbt agera.
- Upprätta en struktur för att förebygga incidenter och för snabb respons.
Drift

För att genomföra “drift” inom agil styrning, lyfter AI-operatörsguiden fram följande tre handlingsmål:
- Säkerställande av en förklarbar status för AI-management systemets drift
- Säkerställande av en förklarbar status för drift av individuella AI-system
- Övervägande av proaktiv offentliggörande av AI-styrningens praktiska tillämpning
Säkerställande av en förklarbar status för AI-hanteringssystemets drift
En av de handlingsmål som kan identifieras för genomförandet av “drift” är “säkerställande av en förklarbar status för AI-hanteringssystemets drift”.
I riktlinjerna för AI-operatörer anges följande:
Handlingsmål 4-1【Säkerställande av en förklarbar status för AI-hanteringssystemets drift】
Det förväntas att varje part, under ledning av företagsledningen, till exempel genom att dokumentera genomförandestatusen för avvikelsevärderingsprocessen som nämns i handlingsmål 3-1, ska upprätthålla transparens och ansvarsskyldighet gentemot relevanta intressenter gällande driftstatusen för AI-hanteringssystemet.
Källa: Bilaga till AI-operatörernas riktlinjer
Som en punkt i driften är det viktigt att inom en lämplig och rimlig omfattning kunna förklara AI-hanteringssystemets driftstatus för relevanta intressenter.
Säkerställande av en förklarbar status för individuella AI-systems drift
Det andra handlingsmålet som kan identifieras för “drift” är “att säkerställa en förklarbar status för AI-management systemets driftssituation”.
I riktlinjerna för AI-operatörer anges följande:
Handlingsmål 4-2【Säkerställande av en förklarbar status för individuella AI-systems driftssituation】
Varje part förväntas, under ledning av företagsledningen, kontinuerligt genomföra en avvikelsebedömning för varje enskilt AI-systems och tjänsters preliminära och fullskaliga drift, genom att övervaka situationen för både preliminär och fullskalig drift och dokumentera resultaten medan de genomför en PDCA-cykel. De parter som utvecklar AI-system förväntas stödja övervakningen av dessa system av de parter som tillhandahåller och använder AI-systemen.
Källa: Bilaga till AI-operatörernas riktlinjer
Praktiska punkter att beakta är följande:
- Övervaka varje parts AI-driftssituation och dokumentera resultaten medan en PDCA-cykel genomförs.
- Om det är svårt för en part att hantera situationen på egen hand, bör samarbete mellan parterna etableras.
Övervägande av proaktiv offentliggörande av AI-governancepraktiker
Det tredje handlingsmålet för “drift” är att säkerställa en förklarbar status för AI-management systemets driftssituation och att överväga proaktiv offentliggörande av AI-governancepraktiker.
I riktlinjerna för AI-operatörer anges följande:
Handlingsmål 4-3 [Övervägande av proaktiv offentliggörande av AI-governancepraktiker]
Det förväntas att varje part överväger att offentliggöra information om etablering av AI-governancemål, utveckling och drift av AI-management system, och liknande, som en del av icke-finansiell information i enlighet med Corporate Governance Code. Detta förväntas även av företag som inte är börsnoterade. Vidare förväntas det att, om man efter övervägande beslutar att inte offentliggöra, ska detta faktum och dess skäl offentliggöras för intressenter.
Källa: Bilaga till AI-operatörernas riktlinjer
Punkter att överväga för praktisk tillämpning är som följer:
- Överväga att säkerställa transparens i informationen om AI-governance, från företagets grundläggande syn på AI till etablering och drift av AI-management system.
- När information om AI-governance offentliggörs, överväg att positionera den som icke-finansiell information i enlighet med Corporate Governance Code.
- Om man väljer att inte offentliggöra information om AI-governance, ska detta faktum och dess skäl offentliggöras för intressenter.
Utvärdering

För att genomföra en “utvärdering” inom agil styrning i Japan, identifierar AI-operatörernas riktlinjer följande två handlingsmål:
- Verifiering av AI-hanteringssystemets funktioner
- Övervägande av externa intressenters åsikter
Verifiering av AI-hanteringssystemets funktioner
Det första handlingsmålet för att genomföra en “utvärdering” är “Verifiering av AI-hanteringssystemets funktioner”.
I de japanska AI-operatörernas riktlinjer står det följande:
Handlingsmål 5-1【Verifiering av AI-hanteringssystemets funktioner】:
Det förväntas att varje part, under ledning av företagsledningen, uppdrar åt personer med relevant expertis, som är oberoende av design och drift av AI-hanteringssystemet, att utvärdera om systemet är korrekt utformat och fungerar på ett lämpligt sätt i enlighet med AI-styrningsmålen. Detta innebär att man genom praktiken av handlingsmålen 3 och 4 bedömer om AI-hanteringssystemet fungerar på ett lämpligt sätt för att uppnå AI-styrningsmålen och eftersträvar kontinuerlig förbättring.
Citat: AI-operatörernas riktlinjer
Här är några punkter för praktisk tillämpning:
- Managementen ska tydligt uttrycka fokus för utvärderingen för kontinuerlig förbättring med sina egna ord
- Tilldela personer med relevant expertis som är oberoende av AI-hanteringssystemets design och drift
- Övervaka om AI-hanteringssystemet fungerar på ett lämpligt sätt
- Genomföra kontinuerliga förbättringar baserat på övervakningsresultaten
Övervägande av externa intressenters åsikter
Det andra handlingsmålet för att genomföra en “utvärdering” är “Övervägande av externa intressenters åsikter”.
I de japanska AI-operatörernas riktlinjer står det följande:
Handlingsmål 5-2【Övervägande av intressenters åsikter】:
Det förväntas att varje part, under ledning av företagsledningen, överväger att begära åsikter från intressenter om AI-hanteringssystemet och dess drift. Om man efter övervägande beslutar att inte genomföra de åsikter som framkommit, förväntas man förklara orsakerna till detta för intressenterna.
Citat: AI-operatörernas riktlinjer
Här är några punkter för praktisk tillämpning:
- Överväga att begära åsikter från intressenter om AI-hanteringssystemet och dess drift
- Förklara orsakerna till intressenterna om man beslutar att inte genomföra de åsikter som framkommit
Omanalysering av miljö och risker
En av de handlingsmål som anges för att genomföra “Omanalysering av miljö och risker” inom agil styrning är “omgående återimplementering av handlingsmål 1-1 till 1-3”.
I riktlinjerna för AI-operatörer anges följande:
Handlingsmål 6-1【Omgående återimplementering av handlingsmål 1-1 till 1-3】:
Det förväntas att varje part, under ledning av företagsledningen, snabbt ska kunna identifiera förändringar i den externa miljön såsom framväxten av ny teknik och förändringar i sociala system såsom regleringar, och att de omgående ska omvärdera, uppdatera sin förståelse och förvärva nya perspektiv från handlingsmål 1-1 till 1-3. Baserat på detta förväntas förbättringar eller omstruktureringar av AI-systemet samt förbättringar av dess drift. Dessutom, när handlingsmål 5-2 genomförs, förväntas det att man inte bara överväger det befintliga AI-hanteringssystemet och dess drift, utan även att man tar hänsyn till miljö- och riskanalys och överväger att få externa synpunkter för en översyn av hela AI-styrningen i enlighet med den agila styrningen som denna vägledning betonar.
Källa: Bilaga till AI-operatörernas riktlinjer
Några punkter för praktisk tillämpning inkluderar:
- Identifiera förändringar i den externa miljön såsom framväxten av ny teknik, tekniska innovationer relaterade till AI, och förändringar i sociala system såsom regleringar
- Omgående genomföra omvärderingar, uppdatera förståelsen och förvärva nya perspektiv, och baserat på detta genomföra förbättringar, omstruktureringar eller ändringar i driften av AI-systemet
- Integrera tankesättet kring AI-styrning som en del av organisationens kultur
Viktiga punkter att beakta vid uppbyggnaden av AI-governance
Ovanstående är konkreta metoder för AI-governance baserade på agil governance enligt “AI-operatörernas riktlinjer”.
Det är dock viktigt att komma ihåg att dessa riktlinjer är skapade för att vara tillämpliga på alla AI-operatörer och att varje företag måste överväga sin egen affärsmodell – oavsett om det handlar om utveckling, tillhandahållande eller användning – samt vilken typ av AI-system eller tjänster som erbjuds.
Det varierar från fall till fall vilken typ av organisation och struktur som behövs, vilka åtgärder och dokumentation som krävs, och detta måste göras med tanke på framtida affärsmässiga fördelar och undvikande av nackdelar.
Dessutom finns det en mängd juridiska risker förknippade med AI-verksamhet. Därför rekommenderar vi att du söker stöd från en advokat redan från början när du vidtar åtgärder.
Sammanfattning: Optimering för AI-operatörers riktlinjer bör hanteras av advokater
I denna artikel har vi förklarat hur man bygger upp AI-styrning i enlighet med de japanska AI-operatörers riktlinjerna (AI事業者ガイドライン).
Detaljerade bestämmelser för hur AI-styrning ska genomföras finns i de japanska AI-operatörers riktlinjerna, och som en del av styrningen behöver företagsledare skapa interna organisationer och utarbeta dokumentation.
I det snabbt föränderliga AI-affärsklimatet är det en stor utmaning att optimera efter de nya och komplexa riktlinjerna. Vi rekommenderar att ni från ett tidigt skede söker råd från experter som är väl insatta i både IT-området och japansk lagstiftning för att bygga upp den mest optimala AI-styrningen för ert företag.
Vår byrås åtgärder
Monolith Advokatbyrå är en juridisk firma med omfattande erfarenhet inom IT, särskilt internet och juridik.
AI-verksamhet medför många juridiska risker och det är avgörande att ha stöd från advokater som är experter på juridiska frågor relaterade till AI. Vår byrå erbjuder avancerat juridiskt stöd inom AI-verksamhet, inklusive ChatGPT, genom ett team av AI-kunniga advokater och ingenjörer. Vi tillhandahåller tjänster som kontraktsskrivning, laglighetsbedömning av affärsmodeller, skydd av immateriella rättigheter och hantering av integritetsfrågor. Mer information finns i artikeln nedan.
Monolith Advokatbyrås expertisområden: AI-juridik (inklusive ChatGPT m.m.)[ja]
Category: IT