Der aktuelle Stand der Gesetze zur Regulierung von KI: Ein Vergleich zwischen Japan und der EU und Erklärung der Schlüsselpunkte für Maßnahmen
Generative KI wie ChatGPT erleben derzeit einen enormen Boom. Diese Technologien werden nun auch im Geschäftsleben eingesetzt und gelten als Treiber der “vierten KI-Revolution”. Parallel dazu wird weltweit an der Entwicklung rechtlicher Rahmenbedingungen gearbeitet, um die Künstliche Intelligenz zu regulieren.
In diesem Artikel werden wir uns mit den rechtlichen Aspekten der Künstlichen Intelligenz befassen, einschließlich des Umgangs mit geistigem Eigentum, persönlichen Daten und anderen vertraulichen Informationen.
Definition und Geschichte der KI (Künstliche Intelligenz)
KI (Künstliche Intelligenz) bezieht sich auf “Artificial Intelligence”. Rechtlich gibt es keine strenge Definition, und es werden verschiedene Definitionen vorgeschlagen. Hier sind einige Beispiele:
Quelle | Definition / Erklärung |
「Kōjien」 | Ein Computersystem, das über intellektuelle Funktionen wie Schlussfolgerung und Urteilsvermögen verfügt. |
「Britannica Enzyklopädie」 | Wissenschaft und Technik > Computer & KI. Die Fähigkeit digitaler Computer oder Computerroboter, Aufgaben im Zusammenhang mit intelligenten Wesen auszuführen. |
Artikel der Japanischen Gesellschaft für Künstliche Intelligenz „KI als Allgemeinwissen“ | Die Frage „Was ist KI?“ ist nicht einfach zu beantworten. Selbst unter Experten für KI gibt es große Diskussionen, die allein ein ganzes Buch füllen könnten, so unterschiedlich sind die Ansichten. Zusammengefasst könnte man sagen, dass es sich um die Technologie handelt, die es ermöglicht, intellektuelle Arbeit, ähnlich der des Menschen, maschinell umzusetzen. |
Wissenschaftliche Arbeit „Tiefenlernen und Künstliche Intelligenz“ | KI ist ein Forschungsfeld, das versucht, die Mechanismen menschlicher Intelligenz konstruktivistisch zu erklären. |
Wissenschaftliche Arbeit „Auf der Suche nach einer idealen KI-Gesellschaft“ | KI und andere Informationstechnologien sind letztlich nur Werkzeuge. |
KI wird auch als eine Vielzahl von Technologien, Softwaregruppen, Computersystemen und Algorithmen beschrieben, die die intellektuellen Fähigkeiten des Menschen auf einem Computer nachbilden.
Als führende spezialisierte KIs werden unter anderem folgende genannt:
- Natürliche Sprachverarbeitung (Maschinenübersetzung, Syntaxanalyse, morphologische Analyse, RNN usw.)
- Expertensysteme, die das Schlussfolgern und Urteilen von Experten nachahmen
- Bild- und Spracherkennung, die spezifische Muster aus Daten erkennen und extrahieren
Das Feld der KI (Künstliche Intelligenz) wird seit den 1950er Jahren, der Anfangszeit der Computer, erforscht und entwickelt. Der erste KI-Boom dauerte bis in die 1970er Jahre mit Forschungen zu “Suche und Schlussfolgerung”, der zweite KI-Boom entstand in den 1980er Jahren durch Forschungen zu “Wissensrepräsentation”, die zur Geburt von Expertensystemen führten, und es gab zwei Paradigmenwechsel, die zu Booms führten.
Seit den 2000er Jahren trat Big Data in Erscheinung, und seit 2012 wurde mit dem Aufkommen von Alexnet die Nützlichkeit von Deep Learning (Tiefenlernen) in der Bildverarbeitung weltweit anerkannt, was die Forschung schnell vorantrieb und den dritten KI-Boom einläutete.
Zwischen 2016 und 2017 wurden KIs eingeführt, die Deep Learning (Tiefenlernen) und verstärkendes Lernen (Q-Lernen, Policy-Gradient-Methoden) nutzten.
Die Hauptrevolution des dritten KI-Booms ist in Bereichen wie der natürlichen Sprachverarbeitung und der bildverarbeitenden Sensorik deutlich, hat aber auch große Auswirkungen auf die Technologieentwicklung, Soziologie, Ethik und Wirtschaftswissenschaften.
Am 30. November 2022 wurde von OpenAI der natürliche Sprachverarbeitungs-Generator ChatGPT als universelles Werkzeug vorgestellt, was das Geschäft mit generativen KI-Anwendungen belebte. Einige nennen dieses soziale Phänomen den vierten KI-Boom.
Geschäftsszenen, in denen AI-Gesetze überprüft werden sollten
Generative KI, eine Art von KI, ist zwar ein nützliches Werkzeug, birgt jedoch auch Risiken wie die Verbreitung von Falschinformationen, die Förderung von Kriminalität und manchmal sogar eine Bedrohung für die Demokratie.
Die mit KI verbundenen Risikofaktoren sind mittlerweile zu einer unvermeidlichen Herausforderung geworden. Daher werden wir die Geschäftsszenen, in denen rechtliche Vorschriften überprüft werden sollten, aus der Perspektive der Nutzer und Anbieter erläutern.
Nutzung von Textgenerierungs-KI
Seit der Einführung von ChatGPT im November 2022 hat die Textgenerierungs-KI weltweit Aufmerksamkeit erregt, da sie in der Lage ist, komplexe Anfragen zu bearbeiten und somit eine effiziente Arbeitsweise und ein hohes Kosten-Nutzen-Verhältnis verspricht.
Gleichzeitig sind die mit der Nutzung von Textgenerierungs-KI verbundenen Risiken bekannt geworden. Um diese potenziellen Risiken zu vermeiden, ist es wichtig zu wissen, welche Risiken bestehen und welche Gesetze eingehalten werden müssen.
Bei ChatGPT besteht, wenn keine Maßnahmen ergriffen werden, das Risiko, dass die von den Nutzern eingegebenen Informationen (Prompts) durchgesickert werden. Da ChatGPT Funktionen zum Sammeln, Speichern und Nutzen von Prompts hat, besteht das Risiko, dass vertrauliche Informationen wie persönliche Daten, Unternehmensgeheimnisse oder durch Geheimhaltungsvereinbarungen (NDA) erlangte Informationen durchsickern.
Darüber hinaus birgt ChatGPT spezifische Risiken wie die Erzeugung und Verbreitung von Falschinformationen (Halluzinationen), Urheberrechtsverletzungen und andere. Daher ist eine Überprüfung der Fakten bei den erzeugten Inhalten unerlässlich.
Nutzung von Bildgenerierungs-KI
Bei der Nutzung von Bildgenerierungs-KI im Geschäftsbereich muss man sich des Risikos von Urheberrechtsverletzungen bewusst sein.
Die Urheberrechte an Bildern oder Texten, die mit ChatGPT oder ähnlichem generiert wurden, liegen grundsätzlich beim erstellenden Nutzer. Laut OpenAI können Nutzer ChatGPT und ähnliches für jegliche Zwecke (einschließlich kommerzieller Nutzung) verwenden.
Bei der Nutzung ist jedoch auf Folgendes zu achten:
Die Lern-Daten von ChatGPT enthalten eine große Menge an Inhalten, die im Internet veröffentlicht sind, und die meisten dieser Inhalte sind urheberrechtlich geschützt (Texte, Bilder, Musik, Videos usw.). Daher besteht die Möglichkeit, dass die generierten Inhalte die Urheberrechte Dritter verletzen.
Entwicklung von KI und Bereitstellung von generativen KI-Diensten
Das KI-Geschäft ist mit verschiedenen Gesetzen verbunden, und weltweit wird an der Entwicklung rechtlicher Rahmenbedingungen gearbeitet. Daher ist es erforderlich, bestehende Gesetze einzuhalten und gleichzeitig flexibel auf neue Gesetze zu reagieren.
Im nächsten Kapitel werden wir die japanischen Gesetze im Zusammenhang mit KI und das im Dezember 2023 (Gregorianischer Kalender) verabschiedete weltweit erste internationale EU-Gesetz „AI-Regulierungsgesetz“ erläutern.
Gesetze in Japan bezüglich Künstlicher Intelligenz
In Japan gibt es derzeit keine gesetzlichen Regelungen mit Zwangsmaßnahmen für KI, sondern es wird eine Politik der Selbstregulierung verfolgt. Hier erläutern wir die geltenden Gesetze, die bei der Nutzung von KI beachtet werden sollten.
Referenz: Ministerium für Wirtschaft, Handel und Industrie | „Governance-Leitlinien für die Umsetzung der KI-Prinzipien Ver. 1.1“[ja]
Urheberrechtsgesetz
Im Januar 2019 (Heisei 31) trat das „revidierte Urheberrechtsgesetz“ in Kraft, das eine neue Ausnahmebestimmung für „Informationsanalyse“ (Artikel 30-4 Absatz 1 Nummer 2 des Gesetzes) als eine rechtliche Einschränkung einführte. Demnach ist es möglich, Handlungen, die nicht zum Zweck des Genusses von in Werken ausgedrückten Gedanken oder Gefühlen dienen, wie die Informationsanalyse in der Entwicklungs- und Lernphase von KI, ohne die Genehmigung des Urheberrechtsinhabers durchzuführen.
Durch diese Änderung wurde die Definition von „Informationsanalyse“ festgelegt, was klarstellt, dass auch maschinelles Lernen, einschließlich Deep Learning von KI, unter „Informationsanalyse“ fällt.
Für den Fall, dass es für die Informationsanalyse verwendet wird (was bedeutet, Informationen aus einer Vielzahl von urheberrechtlich geschützten Werken oder anderen großen Mengen von Informationen zu extrahieren, indem man die Sprache, den Ton, das Bild oder andere Elemente, aus denen die Informationen bestehen, analysiert, vergleicht, klassifiziert oder anderweitig untersucht).
Urheberrechtsgesetz Artikel 30-4 Absatz 1 Nummer 2
Andererseits ist Vorsicht geboten, wenn durch KI erzeugte Werke Ähnlichkeiten oder Abhängigkeiten zu Werken anderer aufweisen, da dies eine Urheberrechtsverletzung darstellen kann.
Wenn ein urheberrechtlich geschütztes Werk als Eingabeaufforderung in ChatGPT eingegeben wird, kann dies ebenfalls eine Verletzung des Vervielfältigungsrechts oder anderer Rechte darstellen. Die Verwendung von generativer KI zur Modifikation der Werke anderer könnte ebenfalls eine Verletzung des Bearbeitungsrechts oder ähnlicher Rechte darstellen.
Laut den Nutzungsbedingungen von OpenAI gehören die Rechte an mit ChatGPT erstellten Inhalten dem Nutzer, und eine kommerzielle Nutzung ist möglich. Wenn jedoch unklar ist, ob der Inhalt eine Urheberrechtsverletzung darstellt, wird empfohlen, einen Experten zu konsultieren.
Sollten Sie von einem Urheberrechtsinhaber auf eine Urheberrechtsverletzung hingewiesen werden, könnten zivilrechtliche (Unterlassung, Schadensersatz, Schmerzensgeld, Wiederherstellung des Rufes usw.) und strafrechtliche Verantwortlichkeiten auf Sie zukommen.
Gesetz gegen unlauteren Wettbewerb
Am 1. Juli 2019 (Heisei 31) trat das revidierte Gesetz gegen unlauteren Wettbewerb in Kraft. Bis dahin war es schwierig, Maßnahmen gegen unlauteren Wettbewerb zu ergreifen, wenn es sich um Objekte handelte, die nicht unter das Patentrecht oder Urheberrecht fielen oder nicht als „Geschäftsgeheimnisse“ im Sinne des Gesetzes gegen unlauteren Wettbewerb galten.
Durch diese Änderung wurden zivilrechtliche Maßnahmen (Anspruch auf Unterlassung, Schätzung des Schadensersatzes usw.) gegen böswillige Handlungen wie den unrechtmäßigen Erwerb oder die unrechtmäßige Nutzung von Daten mit bestimmtem Wert (begrenzt verfügbare Daten) festgelegt.
Gesetze zur Nutzung von KI in der EU
Das Rechtssystem der EU besteht aus drei Teilen: Primärrecht (Verträge), Sekundärrecht (EU-Gesetzgebung) und Rechtsprechung. Das Sekundärrecht basiert auf dem Primärrecht (Verträgen) und umfasst Rechtsvorschriften, die die Mitgliedstaaten der EU direkt oder indirekt binden und als EU-Recht (abgeleitetes Recht) bezeichnet werden. Das Sekundärrecht lässt sich grob in fünf Arten unterteilen, wobei das EU-„KI-Regulierungsgesetz“ einer Verordnung (Regulation) entspricht und somit einheitliche Regeln darstellt, die die EU-Mitgliedstaaten direkt binden.
Im Gegensatz dazu stellen Richtlinien (Directives) eine indirekte rechtliche Verpflichtung für die Mitgliedstaaten der EU dar, da sie verlangen, dass die Mitgliedstaaten ihre nationalen Gesetze neu erlassen oder ändern, um den Inhalt der Richtlinie umzusetzen. Die Frist hierfür beträgt in der Regel drei Jahre nach der Veröffentlichung im Amtsblatt der EU.
Verwandter Artikel: Ein Muss für Unternehmen, die in Europa expandieren wollen: Wichtige Punkte zum EU-Recht und Rechtssystem[ja]
In diesem Kapitel werden die neuesten Entwicklungen bezüglich der rechtlichen Regelungen zur Nutzung von KI in der EU, insbesondere die „Richtlinien“ und „Verordnungen“, erläutert.
Entwurf der KI-Verantwortungsrichtlinie
Am 28. September 2022 veröffentlichte die Europäische Kommission den Entwurf der KI-Verantwortungsrichtlinie zusammen mit einer Änderung der Produkthaftungsrichtlinie. Diese legt Regeln für die rechtliche Verantwortung von KI-Geschäften in der EU (Europäische Union) fest, die mit dem japanischen KI-Regulierungsgesetz übereinstimmen und wird ein wichtiges rechtliches Rahmenwerk darstellen. Da sie ab Juni 2023 Teil der EU-Sammelklagenrichtlinie sein wird, sollten auch die betroffenen japanischen Unternehmen sich mit ihrem Inhalt vertraut machen.
Im Hinblick auf eine zirkuläre Wirtschaft und globale Wertschöpfungsketten im digitalen Zeitalter stellt sie eine bedeutende Änderung der zivilrechtlichen Regeln für die Haftung von Software, einschließlich KI-Systemen, in der EU dar.
Verwandter Artikel: Der aktuelle Stand und die Aussichten des EU-KI-Regulierungsgesetzes? Auch die Auswirkungen auf japanische Unternehmen werden erläutert[ja]
Das Ziel des Entwurfs der KI-Verantwortungsrichtlinie ist es, Regeln für die außervertragliche zivilrechtliche Haftung für Schäden, die durch KI-Systeme verursacht werden, festzulegen und die Marktfunktionen innerhalb der EU zu verbessern.
Das bedeutet, dass die Haftung für Vertragsverletzungen (Verzug und Nichterfüllung) nicht im Anwendungsbereich liegt und die Haftung für Schäden, die auf Fahrlässigkeit beruhen (zum Beispiel Haftung für unerlaubte Handlungen), nicht auf solche beschränkt ist, die aus der mangelnden Sicherheit von Produkten, die unter die Produkthaftungsrichtlinie fallen, resultieren. Es ist wichtig zu beachten, dass auch Schäden, die beispielsweise durch diskriminierende Einstellungssysteme verursacht werden, in den Anwendungsbereich fallen können.
Der Entwurf zielt darauf ab, die Beweislast für Entwickler von “hochriskanten KI-Systemen”, die im japanischen KI-Regulierungsgesetz definiert sind, zu verringern, um das Problem der Blackbox von KI zu adressieren. Es wurden “Vermutungen über Kausalzusammenhänge” und ein “System zur Offenlegung von Beweisen” eingeführt.
Wenn einer Anordnung zur Beweisvorlage nicht nachgekommen wird, sieht der Entwurf der KI-Verantwortungsrichtlinie vor, dass eine Verletzung der Sorgfaltspflicht und eine Vermutung des Kausalzusammenhangs angenommen wird, während der Entwurf der geänderten Produkthaftungsrichtlinie einen Mangel und einen Kausalzusammenhang vermutet. Es werden stärkere Strafen als im japanischen Zivilprozessrecht vorgesehen, um die Einhaltung der Offenlegungsanordnungen zu gewährleisten.
Der Entwurf ist in der ersten Phase auf Maßnahmen zur Verringerung der Beweislast beschränkt, die mit der Blackbox-Natur von KI zusammenhängen, und führt Klagebefugnis, Beweisvorlage, Beweissicherung und Vermutungen über Kausalzusammenhänge neu ein, wobei die jeweiligen Anforderungen festgelegt werden.
In der zweiten Phase werden Überprüfung und Bewertung geregelt. Die Europäische Kommission wird ein Überwachungsprogramm einrichten, um Vorfälle zu überprüfen und die Angemessenheit sowie die Notwendigkeit weiterer Maßnahmen, wie die Einführung einer verschuldensunabhängigen Haftung (strikte Haftung) für Betreiber von Hochrisiko-KI-Systemen und die Einführung einer Pflichtversicherung, zu bewerten und darüber an den Europäischen Rat und das Europäische Parlament zu berichten.
Änderungsvorschlag zur Richtlinie über die Haftung für fehlerhafte Produkte
Die “Richtlinie über die Haftung für fehlerhafte Produkte” ist ein EU-Gesetz aus dem Jahr 1985 (Showa 60), das zum Schutz der Verbraucher erlassen wurde und die Haftung der Hersteller für Schäden regelt, die durch fehlerhafte Produkte verursacht wurden.
Im Änderungsvorschlag wird die Haftung für fehlerhafte Produkte nun auch auf “Software” ausgeweitet, die als “Produkt” hinzugefügt wird. Wenn ein AI-System, als eine Art von Software, einen “Fehler” aufweist, wird die Haftpflicht ohne Verschulden auf den Betreiber des AI-Systems angewendet. Als neue Kriterien für die Beurteilung eines “Fehlers” werden nun die Fähigkeit zum kontinuierlichen Lernen nach der Installation und Software-Updates hinzugefügt.
Im aktuellen japanischen “Produkthaftungsgesetz” wird Software im Allgemeinen nicht als bewegliche Sache angesehen und fällt daher nicht unter die als “Produkte” geltenden Gegenstände, die dem Gesetz unterliegen. Der Änderungsvorschlag sieht jedoch eine Anpassung des Konzepts von “Produkten” vor. Dieser Änderungsvorschlag führt auch “Maßnahmen zur Erleichterung der Beweislast” ein und könnte einen erheblichen Einfluss auf Software, einschließlich AI-Systeme und Produkte der Spitzentechnologie, haben.
Das Gesetz zur Regulierung von KI
Das “Gesetz zur Regulierung von KI (AI Act)” ist eine umfassende EU-einheitliche Regelung (Sekundärrecht), die aus 85 Artikeln besteht und das weltweit erste internationale Gesetz zur Regulierung von KI darstellt. Es wurde am 9. Dezember 2023 nach einer vorläufigen Einigung zwischen der Europäischen Kommission, dem Europäischen Parlament und dem Europäischen Rat verabschiedet und soll 2024 in Kraft treten und vollständig umgesetzt werden.
Dieses Gesetz ist ein Kernstück der EU-Digitalstrategie, bekannt als “Ein Europa, das für das digitale Zeitalter gerüstet ist”, und zielt darauf ab, den neuen Herausforderungen und Risiken des sich entwickelnden digitalen Zeitalters zu begegnen. Es ist Teil eines umfangreichen KI-Pakets, das darauf abzielt, die Sicherheit von KI und grundlegende Rechte zu gewährleisten und das Engagement, die Investitionen und die Innovation in KI in der gesamten EU zu stärken.
Das “Gesetz zur Regulierung von KI” der EU gilt direkt für die Mitgliedstaaten und findet auch Anwendung auf Unternehmen, die Geschäfte innerhalb der EU betreiben, sowie auf im Ausland ansässige Unternehmen.
Bei Verstößen können hohe Geldbußen verhängt werden (bis zu 30 Millionen Euro oder 6 % des weltweiten Jahresumsatzes, je nachdem, welcher Betrag höher ist), was dazu führen kann, dass Unternehmen nicht mehr in der Lage sind, KI-Geschäfte innerhalb der EU zu betreiben.
Daher wird von Unternehmen, die bereits KI in den EU-Markt eingeführt haben oder die eine Expansion in den EU-Markt planen, einschließlich japanischer Unternehmen, erwartet, dass sie Maßnahmen ergreifen, um mit den neuen KI-Regulierungen der EU konform zu gehen.
Das “Gesetz zur Regulierung von KI” basiert im Wesentlichen auf drei Merkmalen: “Risikobasierte KI-Klassifizierung”, “Anforderungen und Pflichten” und “Unterstützung von Innovationen”.
Zielgruppe der Regulierung sind Unternehmen, die KI-Systeme und -Dienste auf den europäischen Markt bringen, einschließlich Entwickler, Bereitsteller, Anbieter, Importeure, Händler und Nutzer von KI.
Das Risikoniveau von KI wird in vier Stufen kategorisiert, und entsprechende Regulierungen werden angewendet. Es wird deutlich gemacht, dass Maßnahmen zur Sicherstellung der KI-Literacy von Entwicklern, Nutzern und Anbietern von KI unerlässlich sind, um die KI-Prinzipien zu erfüllen. Für weitere Informationen siehe den zugehörigen Artikel.
Zugehöriger Artikel: Der aktuelle Stand und die Aussichten des Gesetzes zur Regulierung von KI in der EU? Auch die Auswirkungen auf japanische Unternehmen werden erläutert[ja]
Wichtige rechtliche Überlegungen im Zusammenhang mit KI
In diesem Kapitel erläutern wir hauptsächlich die rechtlichen Aspekte, die Unternehmen bei der Nutzung von generativer KI beachten sollten.
Urheberrecht bei KI-generierten Werken
Bei durch generative KI erstellten Werken sind folgende rechtliche Punkte zu beachten:
- Ob das Werk Urheberrechte verletzt
- Ob für durch generative KI erstellte Werke Urheberrechte anerkannt werden
Wie bereits erwähnt, wenn Werke, die von ChatGPT generiert wurden, Ähnlichkeiten oder Abhängigkeiten zu urheberrechtlich geschützten Werken aufweisen, kann dies eine Urheberrechtsverletzung darstellen. Andererseits stellt sich die Frage, ob für durch generative KI erstellte Werke Urheberrechte anerkannt werden können?
Nach dem japanischen Urheberrechtsgesetz werden “Werke” als “kreativer Ausdruck von Gedanken oder Gefühlen” definiert. Da KI keine Gedanken oder Gefühle hat, könnte man argumentieren, dass für durch generative KI erstellte Inhalte keine Urheberrechte anerkannt werden.
Andererseits ist der Generierungsprozess von Inhalten durch KI für den Nutzer eine Blackbox (der Entscheidungsprozess ist undurchsichtig), sodass es äußerst schwierig sein kann, von der KI genau die gewünschten Inhalte erzeugen zu lassen. Wenn jedoch in der Phase der Eingabeaufforderung (Prompt) die kreative Leistung des Nutzers erkennbar ist, könnte man sagen, dass die “Gedanken oder Gefühle” des Nutzers durch die generative KI “kreativ ausgedrückt” wurden, und in solchen Fällen könnte ein Urheberrecht anerkannt werden.
Umgang mit personenbezogenen Daten bei der Nutzung von KI
Bei der Nutzung von KI ist Vorsicht geboten, da dies möglicherweise gegen das Gesetz zum Schutz personenbezogener Daten verstoßen könnte. Es sind Maßnahmen erforderlich, um sicherzustellen, dass keine personenbezogenen oder privaten Informationen eingegeben werden.
Wenn personenbezogene Daten in die Eingabeaufforderung eingegeben werden, könnte dies als Weitergabe personenbezogener Daten an Dritte durch den Dienstanbieter angesehen werden. Grundsätzlich ist die Zustimmung der betroffenen Person erforderlich, um personenbezogene Daten an Dritte weiterzugeben. Ohne diese Zustimmung könnte ein Verstoß gegen das Gesetz zum Schutz personenbezogener Daten vorliegen.
Bei ChatGPT ist es so eingerichtet, dass selbst wenn versehentlich personenbezogene Informationen eingegeben werden, diese nicht im Chat ausgegeben werden können. Dies liegt an der Richtlinie von OpenAI, keine personenbezogenen Daten zu speichern oder zu verfolgen. Bei anderen Diensten oder Plattformen kann dies jedoch anders sein, daher ist Vorsicht geboten.
Risikomanagement bei der Beteiligung von Unternehmen an KI
Risikomanagement variiert je nach Geschäftsstrategie des Unternehmens, dem Verwendungszweck der KI und den relevanten gesetzlichen Vorschriften. Daher ist es wichtig, angemessene Risikomanagementmaßnahmen entsprechend der Situation und dem Zweck zu ergreifen.
Unternehmen, die generative KI nutzen, sollten die folgenden Punkte berücksichtigen, um Risiken zu minimieren:
- Personalentwicklung: Für die angemessene Nutzung generativer KI sind spezialisiertes Wissen und Fähigkeiten erforderlich. Es ist wichtig, durch Bildung und Training der Mitarbeiter ein Verständnis für die richtige Nutzung zu fördern.
- Entwicklung, Einführung und Betrieb interner Richtlinien: Durch die Entwicklung und Durchsetzung interner Richtlinien zur Nutzung generativer KI können Risiken reduziert werden.
- Aufbau einer Förderorganisation für Nutzung und Risikomanagement: Die Einrichtung einer Organisation zur Förderung der Nutzung generativer KI und die Platzierung eines Teams für das Risikomanagement innerhalb der Organisation sind effektiv.
- Systemeinführung: Für eine angemessene Einführung generativer KI ist es notwendig, die Auswahl und das Design des Systems sorgfältig zu planen.
Zudem diversifizieren sich die mit der Nutzung generativer KI verbundenen Risiken, einschließlich Informationslecks, Verletzungen von Rechten und Privatsphäre, Bedenken hinsichtlich der Genauigkeit und Sicherheit von Informationen sowie das Risiko von Verzerrungen. Um diese Risiken zu vermeiden, ist die Einführung eines angemessenen Governance- und Risikomanagementrahmens unerlässlich.
Verwandter Artikel: “Risiken bei der Einführung von ChatGPT in Unternehmen. Erklärung von Fällen und Maßnahmen bei Informationslecks”[ja]
Zusammenfassung: Aufgrund der Entwicklung des AI-Rechts ist ein Catch-up erforderlich
Die Gesetzgebung im Bereich des AI-Business befindet sich, beginnend mit dem weltweit ersten internationalen “AI-Regulationsgesetz” der EU (verabschiedet am 9. Dezember 2023), in einem Stadium der Entwicklung, weshalb von Unternehmen erwartet wird, dass sie bestehende Gesetze einhalten und gleichzeitig eine flexible Haltung gegenüber neuen Gesetzen einnehmen.
In Japan gibt es noch keine Gesetze, die AI direkt regulieren, aber es ist notwendig, verwandte Gesetze wie das Urheberrechtsgesetz, das Gesetz zum Schutz personenbezogener Daten und das Gesetz zur Verhinderung unlauteren Wettbewerbs gut zu verstehen und angemessen darauf zu reagieren. Darüber hinaus ist es erforderlich, die Trends bei der Änderung relevanter Gesetze genau zu beobachten und schnell darauf zu reagieren.
Maßnahmen unserer Kanzlei
Die Monolith Rechtsanwaltskanzlei verfügt über umfangreiche Erfahrungen in IT, insbesondere im Internet und Recht. Im Bereich des AI-Geschäfts gibt es viele rechtliche Risiken, und die Unterstützung durch Anwälte, die sich mit rechtlichen Fragen im Zusammenhang mit AI auskennen, ist unerlässlich.
Unsere Kanzlei bietet mit einem Team aus AI-erfahrenen Anwälten und Ingenieuren hochwertige rechtliche Unterstützung für das AI-Geschäft, einschließlich ChatGPT, an. Dies umfasst die Erstellung von Verträgen, die Überprüfung der Rechtmäßigkeit von Geschäftsmodellen, den Schutz von geistigem Eigentum und den Datenschutz. Weitere Details finden Sie im folgenden Artikel.
Bereiche, die von der Monolith Rechtsanwaltskanzlei abgedeckt werden: AI (einschließlich ChatGPT) Rechtsangelegenheiten[ja]
Category: IT