Was ist AI-Governance, mit der sich Unternehmen auseinandersetzen sollten? Erläuterung der Schlüsselpunkte basierend auf den „AI-Dienstleister-Richtlinien“

Am 19. April 2024 (Reiwa 6) haben das japanische Ministerium für Innere Angelegenheiten und Kommunikation sowie das Ministerium für Wirtschaft, Handel und Industrie die “Richtlinien für AI-Unternehmen” veröffentlicht. Ihr Ziel ist es, die sichere Nutzung von KI zu fördern und die gesellschaftliche Implementierung von KI in Japan voranzutreiben. Diese Richtlinien richten sich an Unternehmen, öffentliche Einrichtungen, Bildungsinstitutionen sowie NPOs und NGOs, die an der Entwicklung, Bereitstellung und Nutzung von KI beteiligt sind.
In den “Richtlinien für AI-Unternehmen” wird betont, dass der Aufbau einer KI-Governance für alle Akteure, die KI entwickeln, bereitstellen und nutzen, von großer Bedeutung ist. Doch welche Maßnahmen müssen Unternehmen ergreifen, um eine solche KI-Governance zu etablieren?
In diesem Artikel erläutern wir die Schlüsselaspekte der KI-Governance, die Unternehmen gemäß den “Richtlinien für AI-Unternehmen” in Japan umsetzen sollten.
Was sind die Richtlinien für AI-Unternehmen in Japan?
Die Richtlinien für AI-Unternehmen in Japan wurden im Jahr 2024 vom Ministerium für Innere Angelegenheiten und Kommunikation und dem Ministerium für Wirtschaft, Handel und Industrie entwickelt. Sie dienen dem Zweck, eine einheitliche Richtschnur für die AI-Governance in unserem Land zu bieten, um die sichere und vertrauensvolle Nutzung von AI zu fördern.
Referenz: Richtlinien für AI-Unternehmen (Version 1.0) | Ministerium für Wirtschaft, Handel und Industrie[ja]
Die neuen Richtlinien integrieren und überarbeiten die zuvor erstellten “AI-Entwicklungsguidelines”, “AI-Nutzungsguidelines” und “Governance-Guidelines für die Umsetzung der AI-Prinzipien”. Sie wurden entwickelt, um Unternehmen, die AI nutzen, eine Orientierungshilfe für wünschenswertes Verhalten zur sicheren und vertrauensvollen Anwendung von AI zu bieten.
Weitere Informationen zu den Richtlinien für AI-Unternehmen finden Sie in unserem Artikel “Inhalt der ‘AI-Unternehmensrichtlinien’ des Ministeriums für Wirtschaft, Handel und Industrie, erklärt von einem Anwalt”.
Verwandter Artikel: Inhalt der ‘AI-Unternehmensrichtlinien’ des Ministeriums für Wirtschaft, Handel und Industrie, erklärt von einem Anwalt[ja]
Was ist AI-Governance?
AI-Governance wird in den Richtlinien für AI-Unternehmen in Japan als “das Design und der Betrieb technischer, organisatorischer und gesellschaftlicher Systeme durch Stakeholder mit dem Ziel definiert, die durch die Nutzung von AI entstehenden Risiken auf ein für die Stakeholder akzeptables Maß zu managen und gleichzeitig den positiven Impact (Nutzen) zu maximieren”.
Des Weiteren wird in den Richtlinien für AI-Unternehmen in Japan betont, dass für die sichere und vertrauensvolle Nutzung von AI und die Maximierung des daraus resultierenden Nutzens, während die Risiken auf ein akzeptables Maß begrenzt werden, die Entwicklung einer AI-Governance von entscheidender Bedeutung ist. Dies erfordert eine Zusammenarbeit zwischen allen Beteiligten und die Umsetzung gemeinsamer Leitlinien entlang der gesamten Wertschöpfungskette.
Kurz gesagt, der Aufbau einer AI-Governance ist für alle Akteure, die an der Entwicklung, Bereitstellung und Nutzung von AI beteiligt sind, von großer Bedeutung.
Praxis des “Agile Governance” beim Aufbau von AI-Governance in Japan

Beim Aufbau von AI-Governance in Japan wird die Praxis des “Agile Governance” als besonders wichtig erachtet.
“Agile Governance” bezeichnet einen Ansatz, der nicht auf vorab festgelegten starren Regeln basiert, sondern darauf abzielt, flexibel auf Veränderungen in der externen Umgebung und bei Risiken zu reagieren. Dies geschieht durch einen kontinuierlichen Zyklus von “Umwelt- und Risikoanalyse”, “Zielsetzung”, “Systemdesign”, “Betrieb” und “Bewertung”.
In Geschäftsbereichen, die mit AI zu tun haben, sind die Herausforderungen komplex und die Veränderungen schnell, weshalb sich auch die angestrebten Ziele ständig wandeln.
Daher ist es bei der Entwicklung von AI-Governance nicht angebracht, Regeln oder Verfahren im Voraus festzulegen. Vielmehr ist eine flexible Reaktion erforderlich, die auf die Größe und das Geschäftsmodell des jeweiligen Unternehmens abgestimmt ist. Aus diesem Grund wird in den Richtlinien für AI-Unternehmen in Japan die Erstellung von Governance mithilfe der Methoden des Agile Governance empfohlen.
Das Wort “agil” bedeutet im Englischen “schnell” und “beweglich”.
Die Umsetzung von Agile Governance wird im Hauptteil der Richtlinien für AI-Unternehmen in Japan wie folgt beschrieben:
- Durchführung einer “Umwelt- und Risikoanalyse”, die die Veränderungen in der gesellschaftlichen Akzeptanz von AI-Systemen und -Diensten sowie die damit verbundenen Vorteile und Risiken untersucht.
- Entscheidung über die Entwicklung, Bereitstellung und Nutzung von AI-Systemen und -Diensten und, falls diese stattfindet, “Zielsetzung”.
- Entwurf eines “AI-Management-Systems” zur Erreichung der festgelegten AI-Governance-Ziele und dessen “Betrieb”. Dabei soll das Unternehmen Transparenz und Rechenschaftspflicht (Fairness usw.) gegenüber externen Stakeholdern hinsichtlich der AI-Governance-Ziele und deren Betriebszustand gewährleisten.
- Kontinuierliches Monitoring, ob das AI-Management-System effektiv funktioniert, und “Bewertung”.
- Auch nach dem Start des Betriebs von AI-Systemen und -Diensten wird auf Basis der Veränderungen in der externen Umgebung erneut eine “Umwelt- und Risikoanalyse” durchgeführt und bei Bedarf die Ziele überprüft.
Konkrete Handlungsziele für die Umsetzung dieser Schritte 1 bis 5 sind im Anhang der Richtlinien für AI-Unternehmen in Japan aufgeführt[ja], daher sollten Sie sich mit jedem Punkt einzeln auseinandersetzen.
Handlungsziele für die Umsetzung agiler Governance
Lassen Sie uns die Handlungsziele für die Umsetzung agiler Governance anhand des Anhangs der Leitlinien für KI-Dienstleister überprüfen.
Umwelt- und Risikoanalyse unter japanischem Recht
Im Rahmen der agilen Governance sind die folgenden drei Handlungsziele für die Durchführung einer “Umwelt- und Risikoanalyse” in den Anhängen der Leitlinien für AI-Geschäftsbetreiber in Japan aufgeführt:
- Verständnis von Nutzen und Risiken
- Verständnis der gesellschaftlichen Akzeptanz von KI
- Verständnis des eigenen KI-Reifegrads
Verständnis von Nutzen und Risiken
Ein primäres Ziel für die Durchführung von “Umwelt- und Risikoanalysen” ist das “Verständnis von Nutzen und Risiken”.
In den Anhängen der Richtlinien für AI-Geschäftsbetreiber wird dies wie folgt erläutert:
Zielsetzung 1-1【Verständnis von Nutzen und Risiken】
Unter der Führung des Managements soll jedes Unternehmen nach Klärung des Zwecks der Entwicklung, Bereitstellung und Nutzung von KI nicht nur die daraus resultierenden Vorteile, sondern auch die unbeabsichtigten Risiken im Kontext des eigenen Geschäfts konkret verstehen. Diese Erkenntnisse sollen an das Management berichtet, dort geteilt und zeitnah aktualisiert werden.
Quelle: Anhang zu den Richtlinien für AI-Geschäftsbetreiber
Insbesondere sind folgende Punkte von Bedeutung:
- Den Zweck der Entwicklung, Bereitstellung und Nutzung von KI in Bezug auf die Schaffung von Geschäftswert und die Lösung gesellschaftlicher Probleme klar zu definieren
- Den Nutzen und die Risiken im Kontext des eigenen Geschäfts konkret zu verstehen
- Auf zu vermeidende “Risiken” sowie auf Themen, die mehrere Parteien betreffen, zu achten und den Nutzen in der gesamten Wertschöpfungs-/Risikokette zu sichern und Risiken zu reduzieren
- Ein System zu etablieren, das eine schnelle Berichterstattung und gemeinsame Nutzung von Informationen mit dem Management ermöglicht
Verständnis der gesellschaftlichen Akzeptanz von KI in Japan
Ein weiteres Handlungsziel für die Durchführung von “Umwelt- und Risikoanalysen” ist das “Verständnis der gesellschaftlichen Akzeptanz von KI”.
In den Anhängen der Richtlinien für KI-Unternehmen in Japan wird dies wie folgt erläutert:
Handlungsziel 1-2【Verständnis der gesellschaftlichen Akzeptanz von KI】
Es wird erwartet, dass alle Beteiligten unter der Führung des Managements vor der vollständigen Entwicklung, Bereitstellung und Nutzung von KI auf der Grundlage der Meinungen der Stakeholder die aktuelle gesellschaftliche Akzeptanz verstehen. Auch nach der vollständigen Entwicklung, Bereitstellung und Nutzung von KI-Systemen und -Diensten wird erwartet, dass die Meinungen der Stakeholder angesichts der Veränderungen in der externen Umgebung rechtzeitig erneut überprüft werden.
Quelle: Anhang zu den Richtlinien für KI-Unternehmen
Die Punkte für die Umsetzung sind wie folgt:
- Identifikation der Stakeholder
- Streben nach einem Verständnis der gesellschaftlichen Akzeptanz bei der Entwicklung, Bereitstellung und Nutzung von KI unter den Stakeholdern
- Auch nach dem Start der Bereitstellung von KI-Systemen und -Diensten die schnell wechselnde externe Umgebung berücksichtigen und bei Bedarf die Meinungen der Stakeholder zeitnah erneut überprüfen
Verständnis der AI-Kompetenz Ihres Unternehmens
Ein weiteres Handlungsziel für die Durchführung von “Umwelt- und Risikoanalysen” ist das “Verständnis der AI-Kompetenz Ihres Unternehmens”.
In den Anhängen der Richtlinien für AI-Geschäftsbetreiber wird dies wie folgt erklärt:
Handlungsziel 1-3【Verständnis der AI-Kompetenz Ihres Unternehmens】
Unter der Führung des Managements soll jedes Unternehmen, basierend auf den Handlungszielen 1-1 und 1-2, die AI-Kompetenz des eigenen Unternehmens bewerten und regelmäßig neu bewerten, es sei denn, es wird entschieden, dass das Risiko gering ist. Dies beinhaltet die Bewertung des Ausmaßes der Erfahrung in der Entwicklung, Bereitstellung und Nutzung von AI-Systemen und -Diensten, die Anzahl und Erfahrung der Mitarbeiter, einschließlich der Ingenieure, die an der Entwicklung, Bereitstellung und Nutzung von AI-Systemen und -Diensten beteiligt sind, sowie das Ausmaß ihrer Kenntnisse und ethischen Verständnisse in Bezug auf AI-Technologie. Es wird erwartet, dass die Ergebnisse, wenn möglich, innerhalb eines vernünftigen Rahmens den Stakeholdern offengelegt werden. Wenn entschieden wird, dass keine Bewertung der AI-Kompetenz erforderlich ist, wird erwartet, dass diese Tatsache zusammen mit den Gründen den Stakeholdern offengelegt wird.
Zitat: Anhang der Richtlinien für AI-Geschäftsbetreiber
Die Punkte für die Umsetzung sind wie folgt:
- Die Notwendigkeit einer Bewertung der AI-Kompetenz im Hinblick auf den Geschäftsbereich und die Größe des Unternehmens prüfen
- Wenn eine Bewertung der AI-Kompetenz als notwendig erachtet wird, die Fähigkeit zur Bewältigung von AI-Risiken visualisieren und die AI-Kompetenz bewerten
- Auch wenn entschieden wird, dass keine Bewertung der AI-Kompetenz erforderlich ist, die Tatsache und die Gründe dafür, wenn möglich, innerhalb eines vernünftigen Rahmens den Stakeholdern offengelegen
Zielsetzung

Im Rahmen der agilen Governance werden im Anhang der Richtlinien für AI-Unternehmen in Japan folgende Handlungsziele für die Umsetzung der “Zielsetzung” aufgeführt:
Handlungsziel 2-1【Festlegung von AI-Governance-Zielen】
Unter der Führung des Managements soll jede Partei unter Berücksichtigung der möglichen Vorteile/Risiken von AI-Systemen und -Diensten, der gesellschaftlichen Akzeptanz der Entwicklung, Bereitstellung und Nutzung von AI-Systemen und -Diensten sowie der eigenen AI-Kompetenz die Bedeutung des Prozesses zur Festlegung von AI-Governance-Zielen beachten und überlegen, ob sie eigene AI-Governance-Ziele (zum Beispiel eine AI-Politik) festlegen soll. Wenn Ziele festgelegt werden, wird erwartet, dass diese den Stakeholdern offengelegt werden. Wenn aufgrund geringfügiger Risiken keine AI-Governance-Ziele festgelegt werden, wird erwartet, dass diese Entscheidung und die Gründe dafür den Stakeholdern offengelegt werden. Wenn die “gemeinsamen Richtlinien” dieses Leitfadens als ausreichend funktionsfähig erachtet werden, können diese anstelle eigener AI-Governance-Ziele als Ziel verwendet werden.
Auch wenn keine Ziele festgelegt werden, wird erwartet, dass die Bedeutung dieses Leitfadens verstanden wird und dass die Maßnahmen, die sich auf die Handlungsziele 3 bis 5 beziehen, angemessen umgesetzt werden.
Quelle: Anhang der Richtlinien für AI-Unternehmen
Für die Umsetzung sind folgende Punkte wichtig:
- Überprüfung, ob eine “AI-Governance-Zielsetzung” für jede Partei erforderlich ist
- Bei Bedarf Festlegung der Ziele
- Auch wenn keine Zielsetzung erforderlich ist, sollte, wenn möglich, diese Tatsache zusammen mit den Gründen in einem vernünftigen Rahmen den Stakeholdern offengelegt werden.
Systemdesign (Aufbau von AI-Management-Systemen) unter japanischem Recht
Im Rahmen der agilen Governance für den “Systemdesign (Aufbau von AI-Management-Systemen)” sind die folgenden vier Handlungsziele in den AI-Betreiber-Richtlinien in Japan aufgeführt:
- Verpflichtende Bewertung von Zielen und Abweichungen sowie Maßnahmen bei Abweichungen
- Verbesserung der Literacy im Bereich AI-Management bei Fachkräften
- Stärkung des AI-Managements durch Kooperation zwischen verschiedenen Akteuren und Abteilungen
- Reduzierung der Belastung für Nutzer durch präventive Maßnahmen und frühzeitige Reaktionen auf Vorfälle
Evaluierung und obligatorische Anpassung bei Zielabweichungen
Ein erster Schritt zur Erreichung der Handlungsziele für die Implementierung von “Systemdesign (Aufbau eines KI-Management-Systems)” ist die “Evaluierung und obligatorische Anpassung bei Zielabweichungen”.
In den Richtlinien für KI-Unternehmen in Japan wird Folgendes ausgeführt:
Handlungsziel 3-1 [Evaluierung und obligatorische Anpassung bei Zielabweichungen]
Unter der Führung des Managements soll jede Partei Abweichungen von den KI-Governance-Zielen der jeweiligen Partei identifizieren, die durch die Abweichungen verursachten Auswirkungen bewerten und, falls Risiken erkannt werden, unter Berücksichtigung der Größe, des Umfangs und der Häufigkeit des Auftretens entscheiden, ob eine Akzeptanz der Risiken rational ist. Wenn eine rationale Akzeptanz nicht gegeben ist, wird erwartet, dass ein Prozess zur Überprüfung der Entwicklung, Bereitstellung und Nutzung von KI in alle angemessenen Phasen des KI-Management-Systems und des KI-System- und Service-Designs, der Entwicklungsphase, vor und nach Beginn der Nutzung, integriert wird. Es ist wichtig, dass das Management die Grundprinzipien für diesen Überprüfungsprozess festlegt und das operative Personal diesen Prozess konkretisiert. Zudem wird erwartet, dass an der Evaluierung der Abweichungen Personen beteiligt sind, die nicht direkt an der Entwicklung, Bereitstellung und Nutzung der betreffenden KI beteiligt sind. Es ist jedoch nicht angemessen, die Entwicklung, Bereitstellung und Nutzung von KI allein aufgrund von Abweichungen willkürlich zu untersagen. Daher ist die Evaluierung von Abweichungen lediglich ein Schritt zur Risikobewertung und dient nur als Anstoß für Verbesserungen.
Zitat: Anhang zu den KI-Unternehmensrichtlinien
Für die praktische Umsetzung sind folgende Punkte relevant:
- Identifizieren und bewerten, wie weit die aktuellen KI-Systeme und -Dienste von den “KI-Governance-Zielen” abweichen
- Bei erkannten Risiken durch die Nutzung von KI-Systemen und -Diensten die Rationalität der Risikoakzeptanz beurteilen
- Wenn eine rationale Akzeptanz nicht gegeben ist, die Art und Weise der Entwicklung, Bereitstellung und Nutzung überdenken und einen Prozess für diese Überprüfung in die angemessenen Phasen der Entwicklung, Bereitstellung und Nutzung sowie in die Entscheidungsprozesse innerhalb der Organisation integrieren
- Das Management soll diese Handlungen unter seiner Führung durchführen, die Verantwortung für die Entscheidungen übernehmen und das operative Personal soll diese konkretisieren und kontinuierlich umsetzen
- Zur Förderung des Verständnisses innerhalb jeder Partei sollen die festgelegten Evaluierungskriterien für Abweichungen innerhalb der Organisation geteilt werden
Steigerung der AI-Literacy bei Fachkräften im AI-Management
Ein weiteres Handlungsziel für die Implementierung von “Systemdesign (Aufbau eines AI-Management-Systems)” ist die “Steigerung der AI-Literacy bei Fachkräften im AI-Management”.
In den Richtlinien für AI-Dienstleister in Japan wird Folgendes festgehalten:
Handlungsziel 3-2【Steigerung der AI-Literacy des Personals im AI-Management-System】
Es wird erwartet, dass alle Beteiligten unter der Führung der Geschäftsleitung das AI-Management-System angemessen betreiben und dabei auch die Nutzung externer Lehrmaterialien in Betracht ziehen, um die AI-Literacy strategisch zu verbessern. Beispielsweise könnte man den Vorstandsmitgliedern, dem Managementteam und den zuständigen Mitarbeitern, die für die rechtlichen und ethischen Aspekte von AI-Systemen und -Diensten verantwortlich sind, Schulungen zur allgemeinen Verbesserung der AI-Literacy in Bezug auf AI-Ethik und die Vertrauenswürdigkeit von AI anbieten. Für diejenigen, die an der Entwicklung, Bereitstellung und Nutzung von AI-Systemen und -Diensten beteiligt sind, könnten Schulungen zu AI-Technologien, einschließlich generativer AI, nicht nur in AI-Ethik, angeboten werden. Für alle Beteiligten könnte Bildung über die Positionierung und Bedeutung des AI-Management-Systems bereitgestellt werden.
Quelle: Anhang zu den Richtlinien für AI-Dienstleister
Als Punkte für die praktische Umsetzung können folgende genannt werden:
- Verwendung von Schulungen und Lehrmaterialien, die auf die Position und Verantwortlichkeiten abgestimmt sind, um die AI-Literacy zu verbessern
- Anpassung der Schulungen und Lehrmaterialien an die jeweilige Rolle der Beteiligten
- Insbesondere bei der AI-Ethik, die von besonderer Bedeutung ist, sollten alle Mitarbeiter geschult werden, um das Verständnis zu fördern
Stärkung des AI-Managements durch Zusammenarbeit zwischen verschiedenen Akteuren und Abteilungen
Ein weiteres Handlungsziel für die Implementierung von “Systemdesign (Aufbau eines AI-Management-Systems)” ist die “Stärkung des AI-Managements durch Zusammenarbeit zwischen verschiedenen Akteuren und Abteilungen”.
In den Richtlinien für AI-Dienstleister heißt es dazu:
Handlungsziel 3-3 [Stärkung des AI-Managements durch Zusammenarbeit zwischen verschiedenen Akteuren und Abteilungen]
Es wird erwartet, dass die Akteure, außer wenn sie alle Schritte von der Vorbereitung der Datensätze für das Lernen bis hin zur Entwicklung, Bereitstellung und Nutzung von AI-Systemen und -Diensten innerhalb ihrer eigenen Abteilung durchführen, unter der Führung der Unternehmensleitung und unter Beachtung von Geschäftsgeheimnissen usw. die operativen Herausforderungen von AI-Systemen und -Diensten, die nicht allein von ihrer eigenen Gesellschaft oder Abteilung bewältigt werden können, sowie die zur Lösung dieser Herausforderungen erforderlichen Informationen klar identifizieren und im Rahmen des fairen Wettbewerbs in einem möglichen und vernünftigen Umfang teilen. Dabei wird erwartet, dass die Akteure im Voraus über den Umfang der Informationsfreigabe übereinkommen und den Abschluss von Vertraulichkeitsvereinbarungen in Betracht ziehen, um einen reibungslosen Informationsaustausch zu gewährleisten.
Quelle: Anhang zu den AI-Dienstleister-Richtlinien
Als Punkte für die Praxis können folgende genannt werden:
- Identifizierung von operativen Herausforderungen bei AI-Systemen und -Diensten sowie der zur Lösung erforderlichen Informationen, die nicht allein von einem Akteur bewältigt werden können
- Gemeinsame Nutzung von Informationen zwischen den Akteuren in einem möglichen und vernünftigen Umfang unter Beachtung von geistigem Eigentum und Privatsphäre
※ Dabei sollte man beachten, dass dies auf der Grundlage der Einhaltung verschiedener Gesetze und Vorschriften, der AI-Politik der Akteure, von Geschäftsgeheimnissen, von Daten mit eingeschränkter Bereitstellung usw. und der Sicherstellung eines fairen Wettbewerbs erfolgt.
Reduzierung der Belastung für Nutzer durch Prävention und frühzeitige Reaktion auf Vorfälle
Ein weiteres Ziel für die Implementierung von “Systemdesign (Aufbau von AI-Management-Systemen)” ist die “Reduzierung der Belastung für Nutzer durch Prävention und frühzeitige Reaktion auf Vorfälle”.
In den Richtlinien für AI-Geschäftsbetreiber heißt es dazu:
Handlungsziel 3-4 [Reduzierung der Belastung im Zusammenhang mit Vorfällen für AI-Nutzer und externe Nutzer durch Prävention und frühzeitige Reaktion]
Es wird erwartet, dass alle Beteiligten unter der Führung des Managements durch die Prävention von Vorfällen und eine frühzeitige Reaktion die Belastung im Zusammenhang mit Vorfällen für AI-Nutzer und externe Nutzer verringern.
Quelle: Anhang zu den Richtlinien für AI-Geschäftsbetreiber
- Systemausfälle, Informationslecks und das Auftreten von Beschwerden verhindern und im Falle ihres Auftretens schnell reagieren
- Ein System für die Prävention von Vorfällen und eine frühzeitige Reaktion darauf aufbauen
Betrieb

Im Rahmen der Umsetzung von Agile Governance werden im Anhang der Leitlinien für AI-Unternehmen in Japan folgende drei Handlungsziele genannt:
- Sicherstellung eines erklärungsfähigen Zustands des Betriebs von AI-Management-Systemen
- Sicherstellung eines erklärungsfähigen Zustands des Betriebs einzelner AI-Systeme
- Erwägung einer proaktiven Offenlegung der Praxis von AI-Governance
Sicherstellung eines erklärungsfähigen Zustands des Betriebs von KI-Management-Systemen
Ein primäres Ziel für die “Betriebs”-Durchführung ist die “Sicherstellung eines erklärungsfähigen Zustands des Betriebs von KI-Management-Systemen”.
In den Richtlinien für KI-Geschäftsbetreiber in Japan wird Folgendes ausgeführt:
Zielsetzung 4-1【Sicherstellung eines erklärungsfähigen Zustands des Betriebs von KI-Management-Systemen】
Es wird erwartet, dass alle Beteiligten unter der Führung der Geschäftsleitung, beispielsweise durch Aufzeichnung des Umsetzungsstatus des Bewertungsprozesses für Abweichungen gemäß Zielsetzung 3-1, Transparenz und Rechenschaftspflicht gegenüber relevanten Stakeholdern hinsichtlich des Betriebszustands des KI-Management-Systems gewährleisten.
Quelle: Anhang zu den Richtlinien für KI-Geschäftsbetreiber
Als ein wichtiger Punkt für den Betrieb ist es hervorzuheben, dass der Betriebszustand des KI-Management-Systems in einem angemessenen und vernünftigen Umfang für die relevanten Stakeholder erklärungsfähig gemacht werden sollte.
Sicherstellung eines erklärungsfähigen Zustands für den Betrieb einzelner KI-Systeme
Ein weiteres Handlungsziel für die “Betriebsführung” ist die “Sicherstellung eines erklärungsfähigen Zustands für den Betrieb von KI-Management-Systemen”.
In den Richtlinien für KI-Geschäftsbetreiber wird dies wie folgt beschrieben:
Handlungsziel 4-2【Sicherstellung eines erklärungsfähigen Zustands für den Betrieb einzelner KI-Systeme】
Es wird erwartet, dass jede Partei unter der Führung der Geschäftsleitung kontinuierlich Abweichungsanalysen für den Probebetrieb und den vollständigen Betrieb einzelner KI-Systeme und -Dienste durchführt, indem sie den Zustand des Probebetriebs und des vollständigen Betriebs überwacht und Ergebnisse aufzeichnet, während sie den PDCA-Zyklus durchläuft. Von den Entwicklern von KI-Systemen wird erwartet, dass sie diejenigen unterstützen, die KI-Systeme bereitstellen und nutzen, bei dieser Überwachung.
Quelle: Anhang zu den KI-Geschäftsbetreiber-Richtlinien
Die praktischen Punkte sind wie folgt:
- Überwachung des Betriebszustands der KI jeder Partei und Aufzeichnung der Ergebnisse, während der PDCA-Zyklus durchlaufen wird.
- Wenn es für eine Partei schwierig ist, allein zu handeln, soll eine Zusammenarbeit zwischen den Parteien erfolgen.
Betrachtung der proaktiven Offenlegung des Praxisstands von AI-Governance
Ein weiteres Handlungsziel für die “Umsetzung” ist die “Sicherstellung eines erklärungsfähigen Zustands des Betriebs von AI-Management-Systemen und die Betrachtung der proaktiven Offenlegung des Praxisstands von AI-Governance”.
In den Richtlinien für AI-Geschäftsbetreiber in Japan wird Folgendes festgehalten:
Handlungsziel 4-3 [Betrachtung der proaktiven Offenlegung des Praxisstands von AI-Governance]
Es wird erwartet, dass die Akteure Informationen über die Festlegung von AI-Governance-Zielen, die Einrichtung und den Betrieb von AI-Management-Systemen usw. als nichtfinanzielle Informationen im Corporate Governance Code einordnen und deren Offenlegung in Betracht ziehen. Auch von nicht börsennotierten Unternehmen wird erwartet, dass sie die Offenlegung von Informationen über ihre Aktivitäten im Bereich der AI-Governance in Betracht ziehen. Darüber hinaus wird erwartet, dass, falls entschieden wird, diese Informationen nicht offenzulegen, diese Tatsache zusammen mit den Gründen den Stakeholdern mitgeteilt wird.
Zitat: Anhang zu den AI-Geschäftsbetreiber-Richtlinien
Die Punkte für die Praxis sind wie folgt:
- Die Transparenz von Informationen über AI-Governance, von der grundlegenden Denkweise des Unternehmens in Bezug auf AI bis hin zur Einrichtung und zum Betrieb von AI-Management-Systemen, sollte in Betracht gezogen werden.
- Bei der Offenlegung von Informationen über AI-Governance sollte in Betracht gezogen werden, diese als nichtfinanzielle Informationen im Corporate Governance Code einzuordnen.
- Wenn entschieden wird, Informationen über AI-Governance nicht offenzulegen, sollte diese Tatsache zusammen mit den Gründen den Stakeholdern mitgeteilt werden.
Bewertung

Als Handlungsziele für die Durchführung der “Bewertung” im Rahmen des agilen Governance-Ansatzes werden im Anhang der AI-Betreiber-Richtlinien die folgenden zwei Punkte genannt:
- Überprüfung der Funktionen des AI-Management-Systems
- Berücksichtigung der Meinungen externer Stakeholder
Überprüfung der Funktionen des AI-Management-Systems
Das erste genannte Handlungsziel für die Durchführung der “Bewertung” ist die “Überprüfung der Funktionen des AI-Management-Systems”.
In den AI-Betreiber-Richtlinien wird dies wie folgt beschrieben:
Handlungsziel 5-1【Überprüfung der Funktionen des AI-Management-Systems】:
Es wird erwartet, dass die Akteure unter der Führung der Unternehmensleitung Personen mit entsprechender Fachkompetenz, die unabhängig von der Gestaltung und dem Betrieb des AI-Management-Systems sind, beauftragen, eine Bewertung durchzuführen. Diese soll feststellen, ob das AI-Management-System im Lichte der AI-Governance-Ziele angemessen gestaltet und betrieben wird, das heißt, ob es durch die Umsetzung der Handlungsziele 3 und 4 angemessen funktioniert und zur Erreichung der AI-Governance-Ziele beiträgt, sowie kontinuierliche Verbesserungen vorzunehmen.
Zitat: AI-Betreiber-Richtlinien
Die Punkte für die Umsetzung sind wie folgt:
- Die Führungsebene soll die Schwerpunkte für eine Bewertung zur kontinuierlichen Verbesserung in ihren eigenen Worten klarstellen
- Personen mit entsprechender Fachkompetenz, die unabhängig von der Gestaltung und dem Betrieb des AI-Management-Systems sind, zuweisen
- Überwachen, ob das AI-Management-System angemessen funktioniert
- Auf Grundlage der Überwachungsergebnisse kontinuierliche Verbesserungen durchführen
Berücksichtigung der Meinungen externer Stakeholder
Das zweite genannte Handlungsziel für die Durchführung der “Bewertung” ist die “Berücksichtigung der Meinungen externer Stakeholder”.
In den AI-Betreiber-Richtlinien wird dies wie folgt beschrieben:
Handlungsziel 5-2【Berücksichtigung der Meinungen der Stakeholder】:
Es wird erwartet, dass die Akteure unter der Führung der Unternehmensleitung in Erwägung ziehen, von den Stakeholdern Meinungen zum AI-Management-System und dessen Betrieb einzuholen. Sollte entschieden werden, dass die Inhalte der Meinungen nicht umgesetzt werden, wird erwartet, dass die Gründe dafür den Stakeholdern erklärt werden.
Zitat: Anhang der AI-Betreiber-Richtlinien
Die Punkte für die Umsetzung sind wie folgt:
- In Erwägung ziehen, von den Stakeholdern Meinungen zum AI-Management-System und dessen Betrieb einzuholen
- Sollten die Inhalte der Meinungen nicht umgesetzt werden, die Gründe dafür den Stakeholdern erklären
Neubewertung von Umwelt- und Risiken
Ein Handlungsziel für die Durchführung der “Neubewertung von Umwelt- und Risiken” im Rahmen des agilen Governance-Ansatzes ist die “rechtzeitige Wiederholung der Handlungsziele 1-1 bis 1-3”.
In den Richtlinien für AI-Unternehmen in Japan wird Folgendes festgehalten:
Handlungsziel 6-1【Rechtzeitige Wiederholung der Handlungsziele 1-1 bis 1-3】:
Es wird erwartet, dass alle Beteiligten unter der Führung des Managements die Handlungsziele 1-1 bis 1-3 zeitnah neu bewerten, das Verständnis aktualisieren und neue Perspektiven gewinnen, sobald sich externe Umweltbedingungen wie das Aufkommen neuer Technologien oder Änderungen in gesellschaftlichen Systemen wie Regulierungen ändern. Dies soll zu Verbesserungen oder Neugestaltungen von AI-Systemen sowie zu Verbesserungen in deren Betrieb führen. Darüber hinaus wird bei der Umsetzung des Handlungsziels 5-2 erwartet, dass nicht nur das bestehende AI-Management-System und dessen Betrieb, sondern auch die Umwelt- und Risikoanalyse überprüft wird, einschließlich der Einholung externer Meinungen für eine Überprüfung der gesamten AI-Governance im Sinne der agilen Governance, die auch in diesen Richtlinien betont wird.
Zitat: Anhang zu den Richtlinien für AI-Unternehmen
Für die Praxis können folgende Punkte hervorgehoben werden:
- Veränderungen in der externen Umwelt wie das Aufkommen neuer Technologien, technologische Innovationen im Zusammenhang mit AI und Änderungen in gesellschaftlichen Systemen wie Regulierungen erfassen
- Rechtzeitig neu bewerten, das Verständnis aktualisieren und neue Perspektiven gewinnen, um entsprechende Verbesserungen, Neugestaltungen oder Änderungen im Betrieb von AI-Systemen vorzunehmen
- Die Prinzipien der AI-Governance als Teil der Organisationskultur etablieren
Wichtige Überlegungen beim Aufbau von AI-Governance nach japanischem Recht
Das sind die konkreten Methoden der AI-Governance, basierend auf dem agilen Governance-Ansatz gemäß den “Richtlinien für AI-Unternehmen” in Japan.
Allerdings sind diese Richtlinien allgemein für alle AI-Unternehmen erstellt worden, und es ist notwendig, individuell zu überlegen, welcher Geschäftstyp – Entwicklung, Angebot oder Nutzung – auf das eigene Unternehmen zutrifft und welche Art von AI-Systemen oder -Diensten bereitgestellt werden.
Welche Art von Organisation und Struktur das eigene Unternehmen benötigt, welche Handlungen und Dokumentationen erforderlich sind, variiert je nach Fall. Zudem muss man vorausschauend handeln, um die geschäftlichen Vorteile zu maximieren und Nachteile zu vermeiden.
Darüber hinaus birgt das AI-Geschäft verschiedene rechtliche Risiken. Deshalb empfehlen wir, von Anfang an die Unterstützung eines Anwalts in Anspruch zu nehmen, um entsprechende Maßnahmen zu ergreifen.
Zusammenfassung: Optimierung gemäß den AI-Betreiberrichtlinien durch Anwälte
In diesem Artikel haben wir die Erstellung von AI-Governance gemäß den japanischen AI-Betreiberrichtlinien (AI事業者ガイドライン) erläutert.
Die Methoden für AI-Governance sind in den AI-Betreiberrichtlinien detailliert festgelegt, und Manager müssen als Teil der Governance Strukturen innerhalb des Unternehmens schaffen und Dokumente erstellen.
In dem schnelllebigen AI-Geschäft kann die Optimierung für die noch neuen und komplexen Richtlinien eine enorme Herausforderung darstellen. Wir empfehlen, von Anfang an den Rat von Experten einzuholen, die sowohl im IT-Bereich als auch im japanischen Recht versiert sind, um eine für Ihr Unternehmen optimale AI-Governance zu entwickeln.
Maßnahmen unserer Kanzlei
Die Monolith Rechtsanwaltskanzlei verfügt über umfangreiche Erfahrungen in IT, insbesondere im Bereich Internetrecht und Rechtsfragen. Wir sind eine Kanzlei, die IT- und Rechtsexpertise kombiniert, um einzigartige und effektive Rechtsdienstleistungen anzubieten.
Das Geschäftsfeld der Künstlichen Intelligenz (KI) birgt viele rechtliche Risiken, und die Unterstützung durch Anwälte, die sich mit KI-bezogenen Rechtsfragen auskennen, ist unerlässlich. Unsere Kanzlei bietet mit einem Team aus KI-versierten Anwälten und Ingenieuren hochqualifizierte rechtliche Unterstützung für KI-Geschäfte, einschließlich ChatGPT, an. Dies umfasst die Erstellung von Verträgen, die Überprüfung der Rechtmäßigkeit von Geschäftsmodellen, den Schutz von geistigem Eigentum und die Einhaltung von Datenschutzbestimmungen. Weitere Details finden Sie im folgenden Artikel.
Rechtsgebiete der Monolith Rechtsanwaltskanzlei: KI-Recht (ChatGPT etc.)[ja]
Category: IT