Wat is AI-governance waar bedrijven zich op moeten richten? Uitleg van de belangrijkste punten op basis van de 'AI Service Providers Richtlijnen

Op 19 april 2024 (Reiwa 6) hebben het Japanse Ministerie van Binnenlandse Zaken en Communicatie en het Ministerie van Economie, Handel en Industrie de ‘Richtlijnen voor AI-ondernemers’ gepubliceerd. Het doel hiervan is het veilige gebruik van AI te bevorderen en de maatschappelijke implementatie van AI in Japan te stimuleren. Deze richtlijnen zijn bedoeld voor bedrijven, overheidsinstanties, onderwijsinstellingen en organisaties zoals NPO’s en NGO’s die betrokken zijn bij de ontwikkeling, levering en het gebruik van AI.
In de ‘Richtlijnen voor AI-ondernemers’ wordt benadrukt dat het opzetten van AI-governance essentieel is voor alle partijen die betrokken zijn bij de ontwikkeling, levering en het gebruik van AI. Maar wat voor maatregelen moeten bedrijven nemen om een effectieve AI-governance te realiseren?
In dit artikel leggen we uit welke punten van AI-governance bedrijven moeten aanpakken op basis van de ‘Richtlijnen voor AI-ondernemers’.
Wat zijn de Richtlijnen voor AI-ondernemers in Japan?
De Richtlijnen voor AI-ondernemers in Japan zijn opgesteld door het Ministerie van Binnenlandse Zaken en Communicatie en het Ministerie van Economie, Handel en Industrie in 2024 (Reiwa 6), met als doel het bevorderen van een veilig en geruststellend gebruik van AI. Deze richtlijnen dienen als een uniforme leidraad voor AI-governance in ons land.
Referentie: Richtlijnen voor AI-ondernemers (Versie 1.0) | Ministerie van Economie, Handel en Industrie[ja]
Deze richtlijnen zijn een integratie en herziening van de eerder opgestelde ‘AI-ontwikkelingsrichtlijnen’, ‘AI-gebruiksrichtlijnen’ en ‘Governance-richtlijnen voor de praktische toepassing van AI-principes’. Ze zijn opgesteld om ondernemers die AI gebruiken te helpen bij het bevestigen van de gewenste gedragslijnen voor een veilig en geruststellend gebruik van AI.
Voor meer informatie over de Richtlijnen voor AI-ondernemers kunt u de uitleg van een advocaat raadplegen in ‘Een advocaat legt de inhoud van de Richtlijnen voor AI-ondernemers van het Ministerie van Economie, Handel en Industrie uit’.
Gerelateerd artikel: Een advocaat legt de inhoud van de Richtlijnen voor AI-ondernemers van het Ministerie van Economie, Handel en Industrie uit[ja]
Wat is AI-governance onder Japans recht?
AI-governance, zoals gedefinieerd in de Japanse richtlijnen voor AI-ondernemers, is het ontwerp en de werking van technische, organisatorische en sociale systemen door stakeholders, met als doel de risico’s die voortvloeien uit het gebruik van AI te beheren tot een voor stakeholders acceptabel niveau, terwijl de positieve impact (voordelen) die het biedt, wordt gemaximaliseerd.
Verder benadrukken de richtlijnen voor AI-ondernemers in Japan het belang van het opbouwen van AI-governance om AI veilig en met vertrouwen te kunnen gebruiken. Dit vereist samenwerking tussen alle partijen en de praktijk van gemeenschappelijke richtlijnen door de hele waardeketen, om de risico’s gerelateerd aan AI te beheren tot een acceptabel niveau voor stakeholders en om de voordelen die het biedt te maximaliseren.
Met andere woorden, het opbouwen van AI-governance is van cruciaal belang voor elke entiteit die betrokken is bij de ontwikkeling, levering en het gebruik van AI.
Wat houdt ‘Agile Governance’ in bij het opbouwen van AI-governance in Japan?

Bij het opbouwen van AI-governance wordt het praktiseren van ‘Agile Governance’ als essentieel beschouwd.
Agile Governance is een benadering waarbij niet vooraf vastgestelde regels worden gecreëerd, maar waarbij een flexibele respons op externe omgevingsveranderingen en risico’s wordt nagestreefd door een continu proces van ‘omgevings- en risicoanalyse’, ‘doelstellingen bepalen’, ‘systeemontwerp’, ‘uitvoering’ en ‘evaluatie’.
In AI-gerelateerde bedrijven veranderen de doelen snel en zijn ze complex, waardoor ze voortdurend evolueren.
Daarom is het bij het opbouwen van AI-governance niet wenselijk om regels of procedures vooraf vast te leggen, maar is een flexibele aanpak vereist die is afgestemd op de grootte en de aard van de onderneming. Om deze reden wordt in de Japanse AI-bedrijfsrichtlijnen het opbouwen van governance door middel van Agile Governance-methoden aanbevolen.
Overigens betekent ‘agile’ in het Engels ‘snel’ en ‘behendig’.
De implementatie van Agile Governance wordt in de hoofdtekst van de Japanse AI-bedrijfsrichtlijnen als volgt beschreven:
- Voer een ‘omgevings- en risicoanalyse’ uit, die de veranderingen in de externe omgeving, zoals de maatschappelijke acceptatie van AI-systemen en -diensten, en de analyse van de voordelen en risico’s van het gebruik van AI-systemen en -diensten omvat.
- Beslis of AI-systemen en -diensten ontwikkeld, aangeboden en gebruikt zullen worden en stel in dat geval ‘doelstellingen’ vast.
- Ontwerp een ‘AI-management systeem’ om de vastgestelde AI-governance doelen te bereiken en voer deze uit. Hierbij moet het bedrijf zorgen voor transparantie en accountability (zoals eerlijkheid) ten opzichte van externe stakeholders met betrekking tot de AI-governance doelen en de operationele status.
- Monitor continu of het AI-management systeem effectief functioneert en voer een ‘evaluatie’ uit.
- Voer na de start van de exploitatie van AI-systemen en -diensten opnieuw een ‘omgevings- en risicoanalyse’ uit, rekening houdend met veranderingen in de externe omgeving, en herzie de doelen indien nodig.
De specifieke actiedoelen om deze stappen 1 tot en met 5 te praktiseren, zijn opgenomen in de bijlage van de Japanse AI-bedrijfsrichtlijnen[ja], dus laten we elk item concreet controleren.
Actiedoelen voor het toepassen van Agile Governance
Laten we de actiedoelen voor het toepassen van Agile Governance bevestigen, gebaseerd op de bijlage van de richtlijnen voor AI-ondernemers.
Milieu- en Risicoanalyse onder Japans IT-recht
Om de doelstellingen van ‘milieu- en risicoanalyse’ binnen Agile Governance te realiseren, worden in de bijlage van de richtlijnen voor AI-ondernemers in Japan de volgende drie punten genoemd:
- Het begrijpen van de voordelen en risico’s
- Het begrijpen van de maatschappelijke acceptatie van AI
- Het begrijpen van de eigen AI-vaardigheidsniveau
Begrip van Voordelen/Risico’s
Een van de actiedoelen voor de uitvoering van ‘Milieu- en Risicoanalyse’ is het ‘Begrip van Voordelen/Risico’s’.
In de bijlage van de Richtlijnen voor AI-ondernemers wordt dit als volgt uitgelegd:
Actiedoel 1-1【Begrip van Voordelen/Risico’s】
Onder leiderschap van het management moet elke entiteit de doeleinden van de ontwikkeling, levering en het gebruik van AI verduidelijken en niet alleen de voordelen die AI kan opleveren begrijpen, maar ook bewust zijn van de onbedoelde risico’s die eraan verbonden zijn, in relatie tot de eigen bedrijfsactiviteiten. Deze inzichten moeten concreet worden begrepen, aan het management worden gerapporteerd, binnen het management worden gedeeld en tijdig worden bijgewerkt.
Bron: Bijlage bij de Richtlijnen voor AI-ondernemers
De volgende punten zijn in het bijzonder belangrijk:
- Het duidelijk definiëren van de doeleinden van de ontwikkeling, levering en het gebruik van AI voor het creëren van bedrijfswaarde en het oplossen van maatschappelijke problemen
- Het concreet begrijpen van voordelen en risico’s in relatie tot de eigen bedrijfsactiviteiten
- Letten op de ‘risico’s’ die vermeden moeten worden en kwesties die meerdere entiteiten betreffen, en zorgen voor het veiligstellen van voordelen en het verminderen van risico’s in de gehele waardeketen/risicoketen
- Het opzetten van een systeem voor snelle rapportage/deling met het management
Het Begrip van Maatschappelijke Acceptatie van AI in Japan
Een tweede doelstelling voor de uitvoering van ‘milieu- en risicoanalyses’ is het ‘begrip van maatschappelijke acceptatie van AI’.
In de bijlage van de Japanse AI-ondernemersrichtlijnen wordt dit als volgt uitgelegd:
Doelstelling 1-2【Het Begrip van Maatschappelijke Acceptatie van AI】
Van alle betrokkenen wordt verwacht dat zij, onder leiding van het management, de huidige staat van maatschappelijke acceptatie begrijpen op basis van de meningen van stakeholders, voordat zij overgaan tot volledige ontwikkeling, aanbieding en gebruik van AI. Ook na de volledige ontwikkeling, aanbieding en gebruik van AI-systemen en -diensten wordt verwacht dat zij, rekening houdend met veranderingen in de externe omgeving, de meningen van stakeholders tijdig herbevestigen.
Bron: Bijlage bij de Japanse AI-ondernemersrichtlijnen
De punten voor implementatie zijn als volgt:
- Identificatie van stakeholders
- Streven naar een begrip van maatschappelijke acceptatie bij stakeholders bij de ontwikkeling, aanbieding en gebruik van AI
- Ook na de start van de aanbieding van AI-systemen en -diensten, rekening houdend met de snel veranderende externe omgeving, indien nodig de meningen van stakeholders tijdig herbevestigen
Begrip van de AI-Vaardigheidsniveaus binnen uw Bedrijf
Als derde actiedoelstelling voor de uitvoering van ‘milieu- en risicoanalyse’ wordt ‘het begrijpen van de AI-vaardigheidsniveaus binnen uw eigen bedrijf’ genoemd.
In de bijlage van de AI-ondernemersrichtlijnen wordt dit als volgt uitgelegd:
Actiedoelstelling 1-3【Begrip van de AI-vaardigheidsniveaus binnen uw bedrijf】
Onder leiding van het management moet elke entiteit, na de implementatie van actiedoelstellingen 1-1 en 1-2, en behalve wanneer men oordeelt dat het risico verwaarloosbaar is gezien het beoogde gebruik van AI, de bedrijfssector en de omvang van het eigen bedrijf, de mate van ervaring in de ontwikkeling, aanbieding en het gebruik van AI-systemen en -diensten, het aantal en de ervaring van werknemers, inclusief ingenieurs die betrokken zijn bij de ontwikkeling, aanbieding en het gebruik van AI-systemen en -diensten, en de mate van geletterdheid van deze werknemers in AI-technologie en ethiek evalueren en deze evaluatie regelmatig herzien. Indien mogelijk wordt verwacht dat de resultaten binnen een redelijke reikwijdte aan stakeholders worden gepubliceerd. Als men besluit geen evaluatie van de AI-vaardigheidsniveaus uit te voeren omdat het risico als verwaarloosbaar wordt beschouwd, wordt verwacht dat dit feit en de redenen ervoor aan de stakeholders worden gepubliceerd.
Bron: Bijlage AI-ondernemersrichtlijnen
De punten voor implementatie zijn als volgt:
- De noodzaak van een evaluatie van de AI-vaardigheidsniveaus overwegen, gezien de bedrijfssector en de omvang van elke entiteit
- Als een evaluatie van de AI-vaardigheidsniveaus noodzakelijk wordt geacht, de capaciteit om met AI-risico’s om te gaan visualiseren en de AI-vaardigheidsniveaus evalueren
- Zelfs als men besluit dat een evaluatie van de AI-vaardigheidsniveaus niet nodig is, indien mogelijk, dit feit en de redenen ervoor binnen een redelijke reikwijdte aan stakeholders publiceren
Doelstellingen Bepalen

Als actiedoelen voor de implementatie van ‘Doelstellingen Bepalen’ binnen Agile Governance, worden de volgende actiedoelen genoemd in de bijlage van de AI-ondernemersrichtlijnen.
Actiedoel 2-1【Het Bepalen van AI Governance-doelen】
Onder leiding van het management moet elke entiteit, rekening houdend met de mogelijke voordelen/risico’s van AI-systemen en -diensten, de maatschappelijke acceptatie van de ontwikkeling, aanbieding en gebruik van AI-systemen en -diensten, en de eigen AI-vaardigheid, de belangrijkheid van het proces naar het bepalen van AI Governance-doelen overwegen en beslissen of zij hun eigen AI Governance-doelen (zoals een AI-beleid) zullen vaststellen. Bovendien wordt verwacht dat de vastgestelde doelen openbaar worden gemaakt voor stakeholders. Als men besluit geen AI Governance-doelen te stellen vanwege het feit dat de potentiële risico’s gering zijn, wordt verwacht dat dit feit en de redenen daarvoor openbaar worden gemaakt aan de stakeholders. Als men oordeelt dat de ‘gemeenschappelijke richtlijnen’ in deze handleiding voldoende functioneren, kunnen deze ‘gemeenschappelijke richtlijnen’ als doelen worden gebruikt in plaats van de eigen AI Governance-doelen.
Zelfs als men besluit geen doelen te stellen, wordt verwacht dat men het belang van deze richtlijnen begrijpt en de initiatieven gerelateerd aan actiedoelen 3 tot 5 naar behoren uitvoert.
Bron: Bijlage AI-ondernemersrichtlijnen
De punten voor implementatie zijn als volgt:
- Overweeg of het vaststellen van ‘AI Governance-doelen’ voor elke entiteit nodig is
- Als men besluit dat het stellen van doelen noodzakelijk is, stel dan de doelen vast
- Zelfs als men besluit dat het stellen van doelen niet nodig is, maak dan, indien mogelijk en binnen een redelijke omvang, dit feit en de redenen daarvoor openbaar aan de stakeholders.
Systeemontwerp (Opbouw van AI Management Systemen) Onder Japans Recht
Als gedragsdoelen voor de implementatie van ‘Systeemontwerp (Opbouw van AI Management Systemen)’ onder Agile Governance, worden de volgende vier punten genoemd in de bijlage van de AI-ondernemersrichtlijnen:
- Verplichte beoordeling van doelen en afwijkingen en respons op afwijkingen
- Verbetering van de geletterdheid van personeel in AI-management
- Versterking van AI-management door samenwerking tussen verschillende entiteiten en afdelingen
- Verlichting van de last van incidentgerelateerde zaken voor gebruikers door preventie en vroege respons
Essentialisering van Doelstellingen en Afwijkingsevaluatie en -respons in Japan
Een van de actiedoelen voor de implementatie van “Systeemontwerp (opbouw van AI-management systemen)” is de “Essentialisering van Doelstellingen en Afwijkingsevaluatie en -respons”.
In de Japanse AI-ondernemersrichtlijnen staat het volgende beschreven:
Actiedoel 3-1【Essentialisering van Doelstellingen en Afwijkingsevaluatie, en Afwijkingrespons】
Elke entiteit wordt verwacht, onder leiderschap van het management, afwijkingen van de AI-governancedoelstellingen van de entiteit te identificeren, de impact van deze afwijkingen te evalueren en, indien risico’s worden erkend, de grootte, reikwijdte en frequentie van voorkomen te overwegen om de rationaliteit van acceptatie te beoordelen. Als acceptatie niet rationeel wordt geacht, wordt verwacht dat men het proces van heroverweging van de ontwikkeling, levering en gebruik van AI zal stimuleren. Dit proces moet worden geïntegreerd in de gehele AI-managementstructuur en op passende momenten tijdens de ontwerpfase, ontwikkelingsfase, voor en na het begin van het gebruik van AI-systemen en -diensten. Het is belangrijk dat het management de basisrichtlijnen voor het heroverwegingsproces vaststelt en dat de operationele laag dit proces concretiseert. Bovendien wordt verwacht dat personen die niet direct betrokken zijn bij de ontwikkeling, levering en het gebruik van de AI, deelnemen aan de evaluatie van de afwijkingen. Het is echter niet gepast om de ontwikkeling, levering en het gebruik van AI willekeurig te verbieden enkel op basis van het bestaan van afwijkingen. Daarom is de afwijkingsevaluatie slechts een stap in het beoordelen van risico’s en dient het als een aanzet tot verbetering.
Referentie: Bijlage bij de Japanse AI-ondernemersrichtlijnen
De volgende punten zijn essentieel voor de praktijk:
- Identificeer en evalueer hoeveel de huidige AI-systemen en -diensten en de “AI-governancedoelstellingen” van elkaar afwijken
- Beoordeel de rationaliteit van acceptatie wanneer risico’s worden erkend in het gebruik van AI-systemen en -diensten
- Als acceptatie niet rationeel wordt geacht, heroverweeg dan de aanpak van ontwikkeling, levering en gebruik en integreer het proces van heroverweging op de juiste momenten in de ontwikkeling, levering en gebruik, evenals in de besluitvormingsprocessen binnen de organisatie
- Neem als management de leiding in deze acties, neem verantwoordelijkheid voor de besluitvorming en zorg dat de operationele laag deze concretiseert en continu uitvoert
- Om bewustwording binnen de entiteit te bevorderen, deel de vastgestelde afwijkingsevaluatiecriteria binnen de entiteit
Verbetering van AI-managementvaardigheden
Een tweede actiedoelstelling voor de implementatie van ‘systeemontwerp (opbouw van een AI-managementsysteem)’ is de ‘verbetering van de AI-managementvaardigheden van personeel’.
In de richtlijnen voor AI-dienstverleners staat het volgende beschreven:
Actiedoelstelling 3-2【Verbetering van de personeelsvaardigheden in AI-managementsystemen】
Van alle betrokkenen wordt verwacht dat zij, onder leiding van het management, strategisch de AI-vaardigheden verbeteren om het AI-managementsysteem adequaat te kunnen bedienen. Dit kan bijvoorbeeld door het gebruik van externe leermaterialen te overwegen. Zo zou men voor bestuursleden, managementteams en verantwoordelijken die de juridische en ethische aspecten van AI-systemen en -diensten dragen, onderwijs kunnen bieden om de algemene kennis over AI-ethiek en de betrouwbaarheid van AI te verbeteren. Voor degenen die verantwoordelijk zijn voor de ontwikkeling, levering en het gebruik van AI-systemen en -diensten, kan men naast AI-ethiek ook trainingen over AI-technologie, inclusief generatieve AI, overwegen. Voor iedereen zou onderwijs over de positionering en het belang van het AI-managementsysteem aangeboden kunnen worden.
Bron: Bijlage bij de richtlijnen voor AI-dienstverleners
Als punten van aandacht voor de praktijk kunnen de volgende worden genoemd:
- Gebruik maken van trainingen en leermaterialen die geschikt zijn voor de functie en verantwoordelijkheden om de AI-vaardigheden te verbeteren
- Trainingen en leermaterialen toepassen die passen bij de rol die elke betrokkene moet vervullen
- In het bijzonder voor AI-ethiek, innovatieve methoden bedenken zoals het verplicht stellen van cursussen voor alle medewerkers
Versterking van AI-management door samenwerking tussen verschillende entiteiten en afdelingen
Een derde actiedoelstelling voor de implementatie van “Systeemontwerp (opbouw van een AI-management systeem)” is “Versterking van AI-management door samenwerking tussen verschillende entiteiten en afdelingen”.
In de richtlijnen voor AI-ondernemers in Japan staat het volgende beschreven:
Actiedoelstelling 3-3 [Versterking van AI-management door samenwerking tussen verschillende entiteiten en afdelingen]
Entiteiten dienen, behalve wanneer zij alle taken van de voorbereiding van datasets voor training tot de ontwikkeling, levering en gebruik van AI-systemen en -diensten binnen hun eigen afdeling uitvoeren, onder leiderschap van het management, rekening houdend met bedrijfsgeheimen en dergelijke, de operationele uitdagingen van AI-systemen en -diensten die niet volledig door hun eigen bedrijf of afdeling kunnen worden uitgevoerd, en de informatie die nodig is om deze uitdagingen op te lossen, te verduidelijken en binnen een mogelijk en redelijk bereik te delen, met behoud van eerlijke concurrentie. Daarbij wordt verwacht dat zij vooraf overeenstemming bereiken over de omvang van de informatie die zal worden gedeeld en het sluiten van geheimhoudingsovereenkomsten overwegen om de nodige informatie-uitwisseling soepel te laten verlopen.
Bron: Bijlage bij de AI-ondernemersrichtlijnen
De volgende punten worden genoemd als sleutels tot de praktijk:
- Identificeren van operationele uitdagingen van AI-systemen en -diensten die niet alleen door een entiteit kunnen worden opgelost, en de informatie die nodig is voor de oplossing daarvan
- Deel binnen een mogelijk en redelijk bereik informatie tussen verschillende entiteiten, met inachtneming van intellectuele eigendomsrechten en privacy
※ Let op dat dit alles plaatsvindt op basis van het behoud van eerlijke concurrentie, rekening houdend met diverse wetten en regelgevingen, AI-beleid van de entiteiten, bedrijfsgeheimen, beperkt beschikbare data, enzovoort.
Vermindering van de Lasten voor Gebruikers door Preventie en Snelle Respons op Incidenten
Als vierde doelstelling voor de implementatie van ‘systeemontwerp (opbouw van AI-management systemen)’ wordt ‘vermindering van de lasten voor gebruikers door preventie en snelle respons op incidenten’ genoemd.
In de richtlijnen voor AI-ondernemers staat het volgende beschreven:
Doelstelling 3-4 [Vermindering van de lasten gerelateerd aan incidenten voor AI-gebruikers en niet-werkgerelateerde gebruikers door preventie en snelle respons]
Van alle betrokken partijen wordt verwacht dat zij onder leiding van het managementteam de lasten gerelateerd aan incidenten voor AI-gebruikers en niet-werkgerelateerde gebruikers verminderen door preventie van incidenten en snelle respons.
Bron: Bijlage bij de richtlijnen voor AI-ondernemers
- Voorkomen van systeemstoringen, datalekken en het ontstaan van klachten, en in geval van incidenten, deze snel aanpakken
- Een structuur opzetten voor de preventie van incidenten en snelle respons
Toepassing

Als gedragsdoelen voor de implementatie van ‘Agile Governance’ in Japan, worden de volgende drie punten genoemd in de bijlage van de AI-ondernemersrichtlijnen:
- Zorgen voor een toestand waarin de werking van het AI-managementsysteem uitlegbaar is
- Zorgen voor een toestand waarin de werking van individuele AI-systemen uitlegbaar is
- Overwegen om de praktijkstatus van AI-governance actief openbaar te maken
Zorgen voor een toestand waarin de werking van AI-managementsystemen uitlegbaar is
Een van de actiedoelen voor de ‘uitvoering’ is het ‘zorgen voor een toestand waarin de werking van AI-managementsystemen uitlegbaar is’.
In de richtlijnen voor AI-ondernemers staat het volgende beschreven:
Actiedoel 4-1【Zorgen voor een toestand waarin de werking van AI-managementsystemen uitlegbaar is】
Van alle betrokkenen wordt verwacht dat zij, onder leiding van het management, transparantie en verantwoordelijkheid bieden ten aanzien van de werking van AI-managementsystemen aan relevante stakeholders. Dit kan bijvoorbeeld door het documenteren van de uitvoeringsstatus van het evaluatieproces van afwijkingen, zoals genoemd in actiedoel 3-1.
Bron: Bijlage bij de richtlijnen voor AI-ondernemers
Als een belangrijk punt van uitvoering wordt genoemd dat de werking van AI-managementsystemen in een passende en redelijke mate uitlegbaar moet zijn aan relevante stakeholders.
Zorgen voor een Verklaarbare Status van Individuele AI-Systeemoperaties
Een tweede actiedoel voor de ‘uitvoering’ is het ‘zorgen voor een verklaarbare status van AI-managementsysteemoperaties’.
In de richtlijnen voor AI-ondernemers staat het volgende beschreven:
Actiedoel 4-2【Zorgen voor een Verklaarbare Status van Individuele AI-Systeemoperaties】
Van elke entiteit wordt verwacht dat zij, onder leiderschap van het management, continu een kloofanalyse uitvoeren voor de voorlopige en volledige operaties van individuele AI-systemen en -diensten, door de status van deze operaties te monitoren en resultaten te registreren terwijl ze de PDCA-cyclus doorlopen. Van entiteiten die AI-systemen ontwikkelen, wordt verwacht dat zij ondersteuning bieden voor dergelijke monitoring door entiteiten die de AI-systemen leveren of gebruiken.
Bron: Bijlage bij de AI-ondernemersrichtlijnen
De praktische punten zijn als volgt:
- Monitor de operationele status van AI van elke entiteit en registreer de resultaten terwijl je de PDCA-cyclus doorloopt.
- Als het voor een entiteit moeilijk is om alleen te handelen, werk dan samen tussen de entiteiten.
Overweging van proactieve openbaarmaking van de status van AI-governancepraktijken
Het derde actiedoel voor de implementatie van ‘operaties’ is “het waarborgen van een uitlegbare staat van de operationele status van het AI-beheersysteem en de overweging van proactieve openbaarmaking van de status van AI-governancepraktijken”.
In de richtlijnen voor AI-bedrijfsoperators staat het volgende vermeld:
Actiedoel 4-3 [Overweging van proactieve openbaarmaking van de status van AI-governancepraktijken]
Van entiteiten wordt verwacht dat zij overwegen informatie te openbaren over het instellen van AI-governancedoelen, de ontwikkeling en operatie van AI-beheersystemen, en dergelijke, gepositioneerd als niet-financiële informatie in de Corporate Governance Code. Dit wordt ook verwacht van niet-beursgenoteerde bedrijven met betrekking tot de openbaarmaking van informatie over hun activiteiten in AI-governance. Bovendien wordt verwacht dat, indien na overweging besloten wordt niet te openbaren, dit feit samen met de redenen ervoor aan de stakeholders wordt gepubliceerd.
Referentie: Bijlage bij de AI-bedrijfsoperatorsrichtlijnen
De punten voor de praktijk zijn als volgt:
- Overweeg het waarborgen van transparantie van informatie over AI-governance, van de fundamentele benadering van het bedrijf ten aanzien van AI tot de ontwikkeling en operatie van AI-beheersystemen.
- Wanneer informatie over AI-governance wordt openbaard, overweeg dan deze te positioneren als niet-financiële informatie in de Corporate Governance Code.
- Als er besloten wordt geen informatie over AI-governance te openbaren, publiceer dan dat feit samen met de redenen aan de stakeholders.
Beoordeling

Als actiedoelen voor de uitvoering van een ‘beoordeling’ binnen Agile Governance, worden de volgende twee punten genoemd in de bijlage van de AI-ondernemersrichtlijnen:
- Verificatie van de functionaliteit van het AI-management systeem
- Overweging van de meningen van externe stakeholders
Verificatie van de functionaliteit van het AI-management systeem
Het eerste actiedoel dat wordt genoemd voor de uitvoering van een ‘beoordeling’ is de ‘verificatie van de functionaliteit van het AI-management systeem’.
In de AI-ondernemersrichtlijnen staat het volgende beschreven:
Actiedoel 5-1【Verificatie van de functionaliteit van het AI-management systeem】:
Van de betrokken partijen wordt verwacht dat zij, onder leiderschap van het management, personen met relevante expertise die onafhankelijk zijn van het ontwerp en de werking van het AI-management systeem, vragen om te beoordelen of het AI-management systeem goed is ontworpen en functioneert, oftewel of het systeem door de praktijk van actiedoelen 3 en 4, in lijn met de AI-governance doelen, naar behoren werkt en of er continu verbetering wordt nagestreefd.
Citaat: AI-ondernemersrichtlijnen
De punten voor de praktijk zijn als volgt:
- De managementlaag moet de belangrijkste punten voor evaluatie gericht op continue verbetering expliciet maken in hun eigen woorden
- Personen met relevante expertise die onafhankelijk zijn van het ontwerp en de werking van het AI-management systeem toewijzen
- Monitoren of het AI-management systeem naar behoren functioneert
- Op basis van de resultaten van de monitoring, continue verbeteringen doorvoeren
Overweging van de meningen van externe stakeholders
Het tweede actiedoel dat wordt genoemd voor de uitvoering van een ‘beoordeling’ is de ‘overweging van de meningen van externe stakeholders’.
In de AI-ondernemersrichtlijnen staat het volgende beschreven:
Actiedoel 5-2【Overweging van de meningen van stakeholders】:
Van de betrokken partijen wordt verwacht dat zij, onder leiderschap van het management, overwegen om meningen te vragen aan stakeholders over het AI-management systeem en de werking ervan. En als resultaat van deze overweging, als besloten wordt om de inhoud van deze meningen niet uit te voeren, wordt verwacht dat de redenen hiervoor worden uitgelegd aan de stakeholders.
Citaat: Bijlage AI-ondernemersrichtlijnen
De punten voor de praktijk zijn als volgt:
- Overwegen om meningen te vragen aan stakeholders over het AI-management systeem en de werking ervan
- Als besloten wordt om de inhoud van deze meningen niet uit te voeren, de redenen hiervoor uitleggen aan de stakeholders
Heranalyse van Milieu & Risico
Als actiedoel voor de implementatie van ‘Heranalyse van Milieu & Risico’ binnen Agile Governance, kan men wijzen op ‘De tijdige herimplementatie van actiedoelen 1-1 tot 1-3’.
In de richtlijnen voor AI-ondernemers staat het volgende beschreven:
Actiedoel 6-1【De tijdige herimplementatie van actiedoelen 1-1 tot 1-3】:
Van alle betrokken partijen wordt verwacht dat zij onder leiding van het managementteam de actiedoelen 1-1 tot 1-3 tijdig herbeoordelen, hun begrip bijwerken en nieuwe perspectieven verwerven door snel veranderingen in de externe omgeving, zoals de opkomst van nieuwe technologieën en veranderingen in sociale systemen zoals regelgeving, te begrijpen. Op basis hiervan wordt verwacht dat zij verbeteringen of herstructureringen van AI-systemen en operationele verbeteringen doorvoeren. Bovendien, bij de uitvoering van actiedoel 5-2, wordt niet alleen verwacht dat men de bestaande AI-management systemen en hun werking herziet, maar ook dat men overweegt externe meningen te verkrijgen gericht op een herziening van de gehele AI-governance, inclusief milieu- en risicoanalyse, in overeenstemming met de Agile Governance die ook in deze richtlijnen wordt benadrukt.
Bron: Bijlage bij de richtlijnen voor AI-ondernemers
De volgende punten zijn essentieel voor de praktijk:
- Het begrijpen van veranderingen in de externe omgeving, zoals de opkomst van nieuwe technologieën, technologische innovaties gerelateerd aan AI, en veranderingen in sociale systemen zoals regelgeving
- Het tijdig herbeoordelen, bijwerken van het begrip en het verwerven van nieuwe perspectieven, en op basis daarvan het verbeteren, herstructureren of wijzigen van de werking van AI-systemen
- Het verankeren van de principes van AI-governance in de cultuur van de organisatie
Aandachtspunten bij het opzetten van AI-governance onder Japanse richtlijnen
Dit zijn de specifieke methoden voor AI-governance gebaseerd op de ‘AI Business Operator Guidelines’ en de agile governance-aanpak die daarin wordt beschreven.
Echter, deze zijn opgesteld als algemene richtlijnen voor alle AI-ondernemers, en het is noodzakelijk om individueel te overwegen welk type bedrijfsmodel van toepassing is op uw bedrijf, of het nu gaat om ontwikkeling, aanbieding of gebruik, en welk type AI-systeem of -dienst u levert.
Welke organisatiestructuur en systemen uw bedrijf nodig heeft, welke acties en documentatie vereist zijn, varieert per geval. Bovendien moet dit worden uitgevoerd met het oog op de toekomstige zakelijke voordelen en het vermijden van nadelen.
Daarnaast zijn er verschillende juridische risico’s verborgen in de AI-business. Daarom raden we aan om vanaf de eerste fase van het treffen van maatregelen ondersteuning te zoeken bij een Japanse advocaat.
Samenvatting: Optimalisatie van AI Governance volgens de Japanse AI Bedrijfsrichtlijnen door een Advocaat
In dit artikel hebben we uitgelegd hoe je AI-governance kunt opbouwen in overeenstemming met de Japanse AI Bedrijfsrichtlijnen.
De methoden voor AI-governance zijn gedetailleerd vastgelegd in de Japanse AI Bedrijfsrichtlijnen, en het is noodzakelijk dat managers als onderdeel van governance een organisatie binnen het bedrijf opzetten en documentatie creëren.
In de snel veranderende wereld van AI-business, is het een uitdaging om te voldoen aan de nieuwe en complexe richtlijnen. We raden aan om vanaf een vroeg stadium advies in te winnen van experts die zowel in IT, waaronder AI, als in het recht gespecialiseerd zijn, om zo de meest geschikte AI-governance voor uw bedrijf te ontwikkelen.
Maatregelen van ons kantoor
Monolith Advocatenkantoor is een juridische firma met uitgebreide ervaring in zowel IT, met name het internet, als in de rechtspraktijk.
De AI-business brengt veel juridische risico’s met zich mee, en de ondersteuning van een advocaat die gespecialiseerd is in juridische kwesties rondom AI is essentieel. Ons kantoor biedt geavanceerde juridische ondersteuning voor AI-bedrijven, waaronder ChatGPT, door middel van een team van AI-geïnformeerde advocaten en ingenieurs. We verzorgen de opstelling van contracten, beoordelen de wettigheid van bedrijfsmodellen, beschermen intellectuele eigendomsrechten en bieden privacy-ondersteuning. Meer details vindt u in het onderstaande artikel.
Expertisegebieden van Monolith Advocatenkantoor: AI (ChatGPT etc.) juridische diensten[ja]
Category: IT