MONOLITH LAW OFFICE+81-3-6262-3248Hverdager 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

Hva er AI-governance som bedrifter bør engasjere seg i? En forklaring av nøkkelpunkter basert på "AI-tjenesteleverandørens retningslinjer"

IT

Hva er AI-governance som bedrifter bør engasjere seg i? En forklaring av nøkkelpunkter basert på

Den 19. april 2024 (Reiwa 6) publiserte Japans departement for indre saker og kommunikasjon og departementet for økonomi, handel og industri “Retningslinjer for AI-virksomheter”. Formålet med disse retningslinjene er å fremme sikker bruk av AI og å drive frem implementeringen av AI i samfunnet. Retningslinjene er rettet mot virksomheter, offentlige institusjoner, utdanningsinstitusjoner og organisasjoner som NPO-er og NGO-er som er involvert i utvikling, tilbydelse og bruk av AI.

I “Retningslinjer for AI-virksomheter” understrekes det at det er viktig for hver aktør som utvikler, tilbyr og bruker AI å etablere AI-styring. Men hva slags tiltak er nødvendige for bedrifter for å bygge opp en slik AI-styring?

Denne artikkelen vil forklare nøkkelpunktene i AI-styring som bedrifter bør engasjere seg i, basert på “Retningslinjer for AI-virksomheter”.

Hva er retningslinjene for AI-virksomheter i Japan?

Retningslinjene for AI-virksomheter i Japan ble utarbeidet i 2024 av det japanske Ministeriet for Indre Anliggender og Kommunikasjon og Ministeriet for Økonomi, Handel og Industri. De har som mål å fremme sikker og trygg bruk av AI ved å tilby en enhetlig veiledning for AI-governance i vårt land.

Referanse: AI-virksomhetsretningslinjer (Versjon 1.0) | Ministeriet for Økonomi, Handel og Industri[ja]

Disse retningslinjene er en integrasjon og revisjon av de tidligere utarbeidede “AI-utviklingsretningslinjene”, “AI-bruksretningslinjene” og “Governance-retningslinjene for å implementere AI-prinsipper”. De er utformet slik at virksomheter som bruker AI kan bekrefte retningslinjer som leder til ønskelig oppførsel for sikker og trygg bruk av AI.

For en forklaring på retningslinjene for AI-virksomheter, se “En advokat forklarer innholdet i Ministeriet for Økonomi, Handel og Industris ‘AI-virksomhetsretningslinjer'” for referanse.

Relatert artikkel: En advokat forklarer innholdet i Ministeriet for Økonomi, Handel og Industris ‘AI-virksomhetsretningslinjer'[ja]

Hva er AI-styring?

AI-styring, som definert i de japanske retningslinjene for AI-operatører, er “design og drift av tekniske, organisatoriske og sosiale systemer av interessenter, med mål om å håndtere risikoene som oppstår fra bruk av AI på et nivå som er akseptabelt for interessentene, samtidig som man maksimerer de positive effektene (fordelene) som kommer fra det.”

I tillegg understreker de japanske retningslinjene for AI-operatører viktigheten av å bygge AI-styring for å “praktisere felles retningslinjer gjennom hele verdikjeden i samarbeid mellom de ulike aktørene, for å trygt og sikkert benytte AI, mens man håndterer risikoene på et akseptabelt nivå for interessentene og maksimerer de fordeler som oppstår.”

Med andre ord, oppbyggingen av AI-styring er viktig for hver aktør involvert i utvikling, tilbydelse og bruk av AI i Japan.

Praktisering av “Agil Styring” i Oppbyggingen av AI-styringssystemer i Japan

Praktisering av 'Agil Styring' i Oppbyggingen av AI-styringssystemer i Japan

I oppbyggingen av AI-styringssystemer anses det som viktig å praktisere det som kalles “agil styring”.

Agil styring refererer til en tilnærming hvor man ikke setter faste regler på forhånd, men heller kontinuerlig gjennomgår en syklus av “miljø- og risikoanalyse”, “målsetting”, “systemdesign”, “drift” og “evaluering” for å kunne respondere fleksibelt på endringer i det eksterne miljøet og risikoer.

I AI-relaterte virksomheter endres målene raskt og er komplekse, noe som betyr at målene også stadig endres.

Derfor krever oppbyggingen av AI-styringssystemer ikke at man fastsetter regler eller prosedyrer på forhånd, men heller at man tilpasser seg fleksibelt i henhold til hver enkelt bedrifts størrelse og virksomhetstype. Derfor anbefales det i retningslinjene for AI-virksomheter å bygge opp styringssystemer ved hjelp av agil styringsmetodikk.

Ordet “agil” betyr “rask” eller “smidig” på engelsk.

Implementeringen av agil styring i retningslinjene for AI-virksomheter er beskrevet som følger:

  1. Gjennomføre “miljø- og risikoanalyse”, som er en analyse av endringer i det sosiale akseptmiljøet for AI-systemer og -tjenester, og hvilke fordeler og risikoer som er forbundet med bruken av dem.
  2. Bestemme om man skal utvikle, tilby eller bruke AI-systemer og -tjenester, og i så fall sette “mål”.
  3. Designe “AI-styringssystemet” for å oppnå de fastsatte AI-styringsmålene og deretter “drifte” det. I denne prosessen skal bedrifter sikre transparens og ansvarlighet (som rettferdighet osv.) overfor eksterne interessenter med hensyn til AI-styringsmålene og deres drift.
  4. Kontinuerlig overvåke om AI-styringssystemet fungerer effektivt og gjennomføre “evalueringer”.
  5. Etter at AI-systemer og -tjenester er tatt i bruk, gjennomføre “miljø- og risikoanalyse” på nytt i lys av endringer i det eksterne miljøet og om nødvendig revidere målene.

For å praktisere disse punktene 1 til 5, er det satt konkrete handlingsmål som er beskrevet i vedlegget til retningslinjene for AI-virksomheter[ja], så la oss sjekke hvert punkt nøye.

Handlingsmål for å praktisere Agile Governance i Japan

La oss bekrefte handlingsmålene for å praktisere Agile Governance, basert på vedlegget til retningslinjene for AI-operatører i Japan.

Miljø- og risikoanalyse under japansk lov

For å gjennomføre “miljø- og risikoanalyse” i henhold til Agile Governance, er følgende tre handlingsmål oppført i tillegget til AI-operatørguiden:

  • Forståelse av fordeler/risiko
  • Forståelse av AI’s sosiale aksept
  • Forståelse av egen virksomhets AI-modenhet

Forståelse av Fordeler/Risiko

Et av handlingsmålene som er nevnt for gjennomføring av “miljø- og risikoanalyse” er “forståelse av fordeler/risiko”.

I tillegget til AI-operatørguiden forklares det som følger:

Handlingsmål 1-1【Forståelse av Fordeler/Risiko】

Under ledelse av toppledelsen skal hver aktør klargjøre formålet med utvikling, tilbud og bruk av AI, og deretter konkret forstå ikke bare de fordeler som kan oppnås fra AI, men også de utilsiktede risikoene som eksisterer, i lys av deres egen virksomhet. De skal rapportere disse til toppledelsen, dele informasjonen med dem, og oppdatere forståelsen når det er nødvendig.

Kilde: Tillegg til AI-operatørguiden

Spesielt viktige punkter er som følger:

  • Klart definere formålet med utvikling, tilbud og bruk av AI i forhold til verdiskaping i virksomheten og løsning av samfunnsutfordringer
  • Konkret forstå fordeler og risiko knyttet til egen virksomhet
  • Være oppmerksom på “risiko” som bør unngås og problemstillinger som går på tvers av flere aktører, og sikre fordeler og redusere risiko gjennom hele verdikjeden/risikokjeden
  • Bygge et system for å raskt rapportere/deling med toppledelsen

Forståelse av samfunnsmessig aksept av AI i Japan

Det andre målet for handling som kan nevnes for gjennomføring av “miljø- og risikoanalyse” er “forståelse av samfunnsmessig aksept av AI”.

I tillegget til retningslinjene for AI-operatører forklares det som følger:

Handlingsmål 1-2【Forståelse av samfunnsmessig aksept av AI】

Det forventes at alle parter, under ledelse av toppledelsen, forstår den nåværende tilstanden for samfunnsmessig aksept basert på stakeholdernes meninger før fullskala utvikling, tilbud og bruk av AI. Videre, etter fullskala utvikling, tilbud og bruk av AI-systemer og -tjenester, forventes det at de tar hensyn til endringer i det eksterne miljøet og rettidig reevaluerer stakeholdernes meninger når det er nødvendig.

Kilde: Tillegg til retningslinjene for AI-operatører

Punktene for gjennomføring er som følger:

  • Identifisere stakeholdere
  • Arbeide for å forstå samfunnsmessig aksept blant stakeholdere og utvikle, tilby og bruke AI
  • Etter oppstart av AI-systemer og -tjenester, ta hensyn til det raskt skiftende eksterne miljøet og ved behov reevaluere stakeholdernes meninger i rett tid

Forståelse av eget selskaps AI-modenhetsnivå

Det tredje handlingsmålet som kan nevnes for gjennomføring av “miljø- og risikoanalyse” er “forståelse av eget selskaps AI-modenhetsnivå”.

I tillegget til AI-operatørguiden forklares det som følger:

Handlingsmål 1-3【Forståelse av eget selskaps AI-modenhetsnivå】

Under ledelse av ledelsen, og basert på gjennomføringen av handlingsmål 1-1 og 1-2, bør hver enhet, med mindre risikoen anses som ubetydelig, vurdere sitt eget AI-systems og tjenesters utviklings-, tilbydnings- og brukserfaring, antall og erfaring av ansatte, inkludert ingeniører som er involvert i utvikling, tilbydning og bruk av AI-systemer og tjenester, og graden av de ansattes kompetanse og etikk i forhold til AI-teknologi. Selskapet bør evaluere sitt AI-modenhetsnivå og reevaluere det i rett tid. Hvis mulig, forventes det at resultatene offentliggjøres for interessenter innenfor en rimelig ramme. Hvis det bestemmes at en evaluering av AI-modenhetsnivået ikke er nødvendig fordi risikoen anses som ubetydelig, forventes det at faktumet og grunnene for ikke å evaluere offentliggjøres for interessentene.

Kilde: AI-operatørguidens tillegg

Punktene for gjennomføring er som følger:

  • Vurdere nødvendigheten av å evaluere AI-modenhetsnivået i lys av hver enhets forretningsområde og størrelse
  • Hvis det bestemmes at en evaluering av AI-modenhetsnivået er nødvendig, gjør risikoen knyttet til AI synlig og evaluer AI-modenhetsnivået
  • Selv om det bestemmes at en evaluering av AI-modenhetsnivået ikke er nødvendig, offentliggjør om mulig denne konklusjonen og grunnene innenfor en rimelig ramme for interessentene

Målsetting

Målsetting

Som en del av implementeringen av Agile Governance, er følgende handlingsmål foreslått i tillegget til AI-operatørguiden.

Handlingsmål 2-1【Setting AI Governance Goals】

Under ledelse av toppledelsen, bør hver enhet vurdere å sette AI Governance-mål (for eksempel AI-policy) mens de tar hensyn til de potensielle fordelene/risikoene som AI-systemer og -tjenester kan medføre, samfunnets aksept av utvikling, tilbud og bruk av AI-systemer og -tjenester, og selskapets egen modenhet i forhold til AI. Prosessen med å sette AI Governance-mål er viktig, og det forventes at målene offentliggjøres for interessenter. Hvis det bestemmes at AI Governance-mål ikke skal settes på grunn av at potensielle risikoer er ubetydelige, forventes det at denne beslutningen og dens begrunnelse offentliggjøres for interessenter. Hvis det vurderes at de “Felles Retningslinjer” som er nevnt i denne guiden fungerer tilstrekkelig, kan de erstatte selskapets egne AI Governance-mål.

Det forventes også at selv om mål ikke er satt, vil enheten forstå viktigheten av denne guiden og tilstrekkelig implementere tiltak relatert til handlingsmål 3 til 5.

Kilde: Tillegg til AI-operatørguiden

Punktene for implementering er som følger:

  • Vurdere om det er nødvendig å sette “AI Governance-mål” for hver enhet
  • Hvis det bestemmes at det er nødvendig å sette mål, så sett disse målene
  • Hvis det bestemmes at det ikke er nødvendig å sette mål, offentliggjør denne beslutningen og dens begrunnelse for interessenter innenfor en rimelig ramme, om mulig.

Systemdesign (Utvikling av AI-styringssystemer)

For å implementere “Systemdesign (Utvikling av AI-styringssystemer)” under Agile Governance, er de følgende fire målene oppført i AI-operatørguiden som vedlegg:

  • Essensialisering av mål- og avviksvurdering samt respons på avvik
  • Forbedring av kompetansen innen AI-styring blant personell
  • Styrking av AI-styring gjennom samarbeid mellom ulike aktører og avdelinger
  • Reduksjon av brukernes byrde relatert til hendelser gjennom forebygging og tidlig respons

Evaluering og obligatorisk håndtering av mål og avvik

Et av de primære handlingsmålene for implementering av “Systemdesign (oppbygging av AI-styringssystemer)” er “evaluering og obligatorisk håndtering av mål og avvik”.

I retningslinjene for AI-operatører står det følgende:

Handlingsmål 3-1【Evaluering av mål og avvik, samt obligatorisk avvikshåndtering】

Hver enhet forventes, under ledelse av toppledelsen, å identifisere avvik fra enhetens AI-styringsmål, vurdere virkningen av avvikene, og hvis risiko oppdages, vurdere omfanget, rekkevidden og frekvensen av risikoen for å avgjøre om det er rimelig å akseptere den. Hvis det anses urimelig å akseptere, forventes det at prosessen med å revurdere måten AI utvikles, tilbys og brukes på, blir integrert på passende stadier i hele AI-styringssystemet, samt i design-, utviklings-, før-bruk og etter-bruk stadier av AI-systemer og tjenester. Det er viktig at ledelsen utvikler grunnleggende retningslinjer for revurderingsprosessen, mens driftsnivået konkretiserer denne prosessen. Det forventes også at personer som ikke er direkte involvert i utvikling, tilbud og bruk av AI, deltar i evalueringen av avvik fra AI-styringsmålene. Det er imidlertid ikke passende å nekte utvikling, tilbud og bruk av AI utelukkende på grunnlag av at det finnes avvik. Derfor er avviksevaluering et skritt for å vurdere risiko og ikke mer enn en anledning til forbedring.

Kilde: Vedlegg til AI-operatørguiden

Nøkkelpunkter for praksis er som følger:

  • Identifiser og vurder hvor mye AI-systemer og tjenester, samt “AI-styringsmål”, avviker fra nåværende tilstand.
  • Hvis det oppdages risiko ved bruk av AI-systemer og tjenester, avgjør om det er rimelig å akseptere denne risikoen.
  • Hvis det anses urimelig å akseptere risikoen, revurder måten AI utvikles, tilbys og brukes på, og integrer prosessen for å gjøre dette på passende stadier av utvikling, tilbud og bruk, samt i beslutningsprosessene innad i organisasjonen.
  • Toppledelsen skal ta ledelsen i disse handlingene, ta ansvar for beslutningene og sikre at driftsnivået konkretiserer og kontinuerlig implementerer dem.
  • For å skape en felles forståelse innad i organisasjonen, del de besluttede avviksevalueringspunktene internt.

Forbedring av AI-kompetansen blant ansatte i ledelsen

Et annet handlingsmål som kan identifiseres for implementering av “systemdesign (oppbygging av et AI-ledelsessystem)” er “forbedring av AI-kompetansen blant ansatte i ledelsen”.

I retningslinjene for AI-operatører står det som følger:

Handlingsmål 3-2 [Forbedring av kompetansen til personell i AI-ledelsessystemer]

Under ledelse av toppledelsen forventes det at hver aktør strategisk forbedrer sin AI-kompetanse for å kunne drive AI-ledelsessystemet på en passende måte, inkludert vurdering av bruk av eksterne undervisningsmaterialer. For eksempel kan det vurderes å tilby opplæring for å forbedre generell kompetanse om AI-etikk og påliteligheten til AI for styremedlemmer, ledelsesteam og ansvarlige som har juridisk og etisk ansvar for AI-systemer og -tjenester. For de som er ansvarlige for utvikling, tilbud og bruk av AI-systemer og -tjenester, kan det vurderes opplæring ikke bare i AI-etikk, men også i AI-teknologi, inkludert generativ AI. For alle kan det vurderes å tilby opplæring om posisjoneringen og betydningen av AI-ledelsessystemet.

Kilde: Vedlegg til retningslinjer for AI-operatører

Nøkkelpunkter for praksis inkluderer følgende:

  • Bruk av passende opplæring og undervisningsmaterialer tilpasset stilling og ansvar for å forbedre AI-kompetansen
  • Bruk av passende opplæring og undervisningsmaterialer i henhold til den rolle hver enkelt skal spille
  • Spesielt for AI-etikk, finne måter å sørge for at alle ansatte deltar i opplæringen

Styrking av AI-håndtering gjennom samarbeid mellom aktører og avdelinger

Det tredje handlingsmålet som kan identifiseres for implementering av “Systemdesign (oppbygging av AI-håndteringssystemer)” er “Styrking av AI-håndtering gjennom samarbeid mellom aktører og avdelinger”.

I retningslinjene for AI-operatører står det følgende:

Handlingsmål 3-3 [Styrking av AI-håndtering gjennom samarbeid mellom aktører og avdelinger]

Aktørene forventes, under ledelse av ledelsen og med oppmerksomhet på forretningshemmeligheter, å klargjøre operasjonelle utfordringer og nødvendig informasjon for å løse disse utfordringene i forbindelse med AI-systemer og -tjenester, som ikke kan utføres tilstrekkelig av en enkelt avdeling eller selskap, og å dele denne informasjonen innenfor et mulig og rimelig omfang under forutsetning av rettferdig konkurranse. I denne sammenhengen forventes det at partene på forhånd blir enige om omfanget av informasjonsdeling og vurderer å inngå en taushetsavtale for å sikre at nødvendig informasjonsutveksling skjer smidig.

Kilde: Vedlegg til AI-operatørretningslinjene

Nøkkelpunkter for praksis inkluderer følgende:

  • Identifisere operasjonelle utfordringer og nødvendig informasjon for AI-systemer og -tjenester som ikke kan løses av en enkelt aktør
  • Dele informasjon innenfor et mulig og rimelig omfang mellom aktørene, samtidig som man tar hensyn til immaterielle rettigheter og personvern

※ Det er viktig å merke seg at disse punktene forutsetter overholdelse av diverse lover og forskrifter, aktørenes AI-policyer, forretningshemmeligheter, begrenset tilgang til data, og sikring av rettferdig konkurranse.

Reduksjon av brukernes byrde knyttet til hendelser gjennom forebygging og tidlig respons

Det fjerde handlingsmålet for implementering av “systemdesign (oppbygging av AI-styringssystemer)” er “reduksjon av brukernes byrde knyttet til hendelser gjennom forebygging og tidlig respons”.

I retningslinjene for AI-operatører står det følgende:

Handlingsmål 3-4 [Reduksjon av AI-brukere og ikke-arbeidsrelaterte brukeres byrde knyttet til hendelser gjennom forebygging og tidlig respons]

Det forventes at alle parter, under ledelse av ledelsen, vil redusere byrden knyttet til hendelser for AI-brukere og ikke-arbeidsrelaterte brukere gjennom forebygging av hendelser og tidlig respons.

Kilde: Vedlegg til AI-operatørretningslinjer
  • Forebygge hendelser som systemfeil, informasjonslekkasjer og klager, og respondere raskt hvis de oppstår
  • Bygge et system for forebygging av hendelser og tidlig respons

Drift

Drift

For å implementere “drift” innenfor Agile Governance, fremhever vedlegget til AI-operatørguiden i Japan følgende tre handlingsmål:

  • Sikre en forklarbar tilstand av drift for AI-styringssystemet
  • Sikre en forklarbar tilstand av drift for individuelle AI-systemer
  • Vurdere proaktiv offentliggjøring av AI-governance praksis

Sikring av en forklarbar tilstand for drift av AI-styringssystemer

Et av handlingsmålene som kan identifiseres for implementering av “drift” er “sikring av en forklarbar tilstand for drift av AI-styringssystemer”.

I retningslinjene for AI-operatører står det som følger:

Handlingsmål 4-1 [Sikring av en forklarbar tilstand for drift av AI-styringssystemer]

Det forventes at alle parter, under ledelse av toppledelsen, for eksempel ved å dokumentere gjennomføringen av avviksvurderingsprosessen som nevnt i handlingsmål 3-1, oppfyller kravene til transparens og ansvarlighet overfor relevante interessenter angående driftstilstanden til AI-styringssystemet.

Kilde: Vedlegg til retningslinjer for AI-operatører

Som et driftspunkt er det viktig å sikre at driftstilstanden til AI-styringssystemet er forklarbar for relevante interessenter innenfor et passende og rimelig omfang.

Sikring av en forklarbar tilstand for individuelle AI-systemers driftssituasjon

Det andre handlingsmålet som kan nevnes for implementering av “drift” er “Sikring av en forklarbar tilstand for AI-systemers driftssituasjon”.

I retningslinjene for AI-operatører står det som følger:

Handlingsmål 4-2【Sikring av en forklarbar tilstand for individuelle AI-systemers driftssituasjon】

Det forventes at hver aktør, under ledelse av ledelsen, kontinuerlig utfører en avviksvurdering for hver AI-systems tjeneste under foreløpig og full drift, ved å overvåke situasjonen for både foreløpig og full drift og rotere PDCA-syklusen mens resultatene blir registrert. De som utvikler AI-systemer forventes å støtte overvåkningen utført av de som tilbyr og bruker AI-systemet.

Kilde: Vedlegg til AI-operatørguiden

Praktiske punkter for implementering er som følger:

  • Overvåke driftssituasjonen for hver aktørs AI og registrere resultatene mens man roterer PDCA-syklusen.
  • Hvis det er vanskelig for en aktør å håndtere alene, samarbeide mellom aktørene.

Vurdering av proaktiv offentliggjøring av AI-governance praksis

Det tredje handlingsmålet som kan nevnes for implementering av “operasjoner” er “Å sikre en forklarbar tilstand av AI-styringssystemets driftssituasjon og vurdere proaktiv offentliggjøring av AI-governance praksis”.

I retningslinjene for AI-operatører står det som følger:

Handlingsmål 4-3 [Vurdering av proaktiv offentliggjøring av AI-governance praksis]

Det forventes at hver enhet vurderer å offentliggjøre informasjon relatert til etablering av AI-governance mål, utvikling og drift av AI-styringssystemer, som en del av ikke-finansiell informasjon i henhold til Corporate Governance Code. Dette forventes også av selskaper som ikke er børsnoterte, å vurdere offentliggjøring av informasjon om aktiviteter relatert til AI-governance. Videre forventes det at, etter vurdering, dersom det besluttes å ikke offentliggjøre, skal denne beslutningen og dens grunner offentliggjøres til interessenter.

Kilde: Vedlegg til AI-operatørguiden

Poengene for praksis er som følger:

  • Vurdere å sikre transparens i informasjonen om AI-governance, fra grunnleggende tilnærming til AI i selskapet, til etablering og drift av AI-styringssystemer.
  • Når man offentliggjør informasjon om AI-governance, vurdere å posisjonere denne informasjonen som ikke-finansiell informasjon i henhold til Corporate Governance Code.
  • Hvis man velger å ikke offentliggjøre informasjon om AI-governance, offentliggjøre denne beslutningen og dens grunner til interessenter.

Evaluering

Evaluering

For å gjennomføre “evaluering” innenfor Agile Governance, fremheves følgende to mål i tillegget til AI-operatørguiden:

  • Verifisering av funksjonene i AI-styringssystemet
  • Vurdering av eksterne interessenters meninger

Verifisering av funksjonene i AI-styringssystemet

Det første målet som nevnes for å gjennomføre “evaluering” er “verifisering av funksjonene i AI-styringssystemet”.

I AI-operatørguiden står det som følger:

Handlingsmål 5-1【Verifisering av funksjonene i AI-styringssystemet】:

Det forventes at hver enhet, under ledelse av toppledelsen, vil be om at personer med relevant spesialkompetanse, som er uavhengige av design og drift av AI-styringssystemet, evaluerer og kontinuerlig forbedrer om AI-styringssystemet er riktig designet og operativt, det vil si om det fungerer hensiktsmessig i henhold til AI Governance Goals gjennom praksis av handlingsmål 3 og 4.

Sitat: AI-operatørguiden

Praktiske punkter for gjennomføring er som følger:

  • Topplederne uttrykker selv de viktigste punktene for evaluering rettet mot kontinuerlig forbedring
  • Tildele personer med relevant spesialkompetanse som er uavhengige av design og drift av AI-styringssystemet
  • Overvåke om AI-styringssystemet fungerer hensiktsmessig
  • Gjennomføre kontinuerlige forbedringer basert på resultatene av overvåkingen

Vurdering av eksterne interessenters meninger

Det andre målet som nevnes for å gjennomføre “evaluering” er “vurdering av eksterne interessenters meninger”.

I AI-operatørguiden står det som følger:

Handlingsmål 5-2【Vurdering av interessenters meninger】:

Det forventes at hver enhet, under ledelse av toppledelsen, vil vurdere å be om meninger fra interessenter om AI-styringssystemet og dets drift. Videre, hvis det etter vurderingen besluttes å ikke implementere de mottatte meningene, forventes det at grunnene forklares til interessentene.

Sitat: AI-operatørguiden tillegg

Praktiske punkter for gjennomføring er som følger:

  • Vurdere å be om meninger fra interessenter om AI-styringssystemet og dets drift
  • Hvis det besluttes å ikke implementere de mottatte meningene, forklare grunnene til interessentene

Reanalyse av miljø og risiko under japansk lov

Et av handlingsmålene for å gjennomføre “Reanalyse av miljø og risiko” i henhold til Agile Governance er “tidvis gjennomføring av handlingsmål 1-1 til 1-3”.

I retningslinjene for AI-operatører i Japan står det følgende:

Handlingsmål 6-1【Tidvis gjennomføring av handlingsmål 1-1 til 1-3】:

Det forventes at hver aktør, under ledelse av ledelsen, raskt skal identifisere endringer i det eksterne miljøet, som fremveksten av ny teknologi og endringer i sosiale systemer som reguleringer, og tidvis reevaluere, oppdatere forståelsen og tilegne seg nye perspektiver fra handlingsmål 1-1 til 1-3. På grunnlag av dette forventes det at de vil forbedre eller rekonstruere AI-systemer og forbedre driften. Når man implementerer handlingsmål 5-2, forventes det også at man vil vurdere å innhente meninger fra eksterne kilder, ikke bare om det eksisterende AI-styringssystemet og dets drift, men også om miljø- og risikoanalyse, og dermed revurdere hele AI-styringen i tråd med Agile Governance-prinsippene som også er vektlagt i denne veiledningen.

Kilde: Vedlegg til retningslinjer for AI-operatører

Nøkkelpunkter for praksis inkluderer følgende:

  • Identifisere endringer i det eksterne miljøet, som fremveksten av ny teknologi, teknologiske innovasjoner relatert til AI, og endringer i sosiale systemer som reguleringer
  • Tidvis reevaluere, oppdatere forståelsen og tilegne seg nye perspektiver, og utføre forbedringer, rekonstruksjoner eller endringer i driften av AI-systemer i tråd med dette
  • Integrere tankegangen rundt AI-styring som en del av organisasjonskulturen

Viktige hensyn når du bygger AI-styringssystemer under japansk lov

Dette er den konkrete metoden for AI-styring basert på den smidige styringsmetoden i henhold til “AI Business Operators Guidelines”.

Likevel er disse retningslinjene laget for å være universelle for alle AI-operatører, og det er nødvendig å vurdere individuelt hvilken forretningsmodell din bedrift faller under, enten det er utvikling, tilbyr eller bruker, og hvilke typer AI-systemer eller tjenester som tilbys.

Hvilken type organisasjon og system din bedrift trenger, hvilke handlinger og dokumentasjon som er nødvendig, varierer fra sak til sak. I tillegg må du vurdere hvordan dette vil føre til forretningsmessige fordeler og unngå ulemper i fremtiden.

I tillegg lurer det mange juridiske risikoer i AI-virksomheten. Derfor anbefaler vi at du søker støtte fra en advokat fra det første trinnet du tar for å iverksette tiltak.

Oppsummering: Optimalisering for AI-operatørers retningslinjer bør overlates til advokater

I denne artikkelen har vi forklart hvordan man bygger AI-governance i tråd med de japanske AI-operatørers retningslinjer (AI事業者ガイドライン).

Metodene for AI-governance er detaljert regulert i de japanske AI-operatørers retningslinjer, og som en del av governance, må ledere opprette organisasjoner internt og utarbeide dokumenter.

I AI-virksomheten, hvor endringene skjer raskt, er det svært utfordrende å optimalisere for de komplekse og nylig etablerte retningslinjene. Vi anbefaler at du fra et tidlig stadium bygger den mest optimale AI-governance for din virksomhet med råd fra eksperter som er godt kjent med både IT-området, inkludert AI, og japansk lov.

Veiledning om tiltak fra vår advokatfirma

Monolith Advokatfirma kombinerer dyptgående erfaring innen IT, spesielt internett, og juridisk ekspertise.

AI-virksomhet medfører mange juridiske risikoer, og støtte fra advokater som er eksperter på juridiske spørsmål relatert til AI er avgjørende. Vårt firma tilbyr avansert juridisk støtte for AI-virksomheter, inkludert ChatGPT, gjennom et team av AI-kyndige advokater og ingeniører. Vi tilbyr tjenester som utarbeidelse av kontrakter, vurdering av forretningsmodellers lovlighet, beskyttelse av immaterielle rettigheter og personvern. Du kan lese mer om dette i artikkelen nedenfor.

Monolith Advokatfirmas tjenesteområder: AI (ChatGPT etc.) juridiske tjenester[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Tilbake til toppen