MONOLITH LAW OFFICE+81-3-6262-3248Wochentags 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

Was sind die Risiken bei der geschäftlichen Nutzung von ChatGPT? Eine Erklärung zu rechtlichen Problemen

IT

Was sind die Risiken bei der geschäftlichen Nutzung von ChatGPT? Eine Erklärung zu rechtlichen Problemen

Seit seiner Veröffentlichung hat ChatGPT weltweit große Aufmerksamkeit für seine Nützlichkeit erregt. Gleichzeitig ist bekannt geworden, dass damit verschiedene Risiken einhergehen. Da die rechtlichen Rahmenbedingungen noch in der Entwicklung sind, ist es eine Tatsache, dass viele Geschäftsführer sich Sorgen über die Risiken beim Einsatz von ChatGPT im Geschäftsbetrieb und über Methoden zur Risikoabsicherung machen.

In diesem Artikel erläutern wir die rechtlichen Risiken und Maßnahmen, die beim Einsatz von ChatGPT im Geschäftsverkehr zu beachten sind.

Vier Risiken bei der geschäftlichen Nutzung von ChatGPT

In Unternehmen schreitet die Nutzung von ChatGPT, einem AI-System zur Generierung natürlicher Sprache, voran. Im Geschäftsjahr 2022 (Reiwa 4 (2022)) lag die Einführungsrate bei 13,5 %, einschließlich der Unternehmen, die eine Einführung planen, sogar bei 24,0 %. (Quelle: Japanisches Ministerium für Innere Angelegenheiten und Kommunikation|Information and Communications in Japan White Paper Reiwa 5 (2023) “Trends in the Use of Communications” 「Einführungsstatus von IoT- und AI-Systemen und -Diensten in Unternehmen[ja]」)

Zweifellos kann AI-Technologie wie ChatGPT die Effizienz von Unternehmensprozessen steigern und es werden mehr Geschäftschancen erwartet. Andererseits bringt sie auch viele rechtliche Risiken mit sich. Daher ist es notwendig, diese Risiken vollständig zu verstehen und auf dieser Grundlage zu entscheiden, ob sie geschäftlich genutzt werden soll.

Experten schlagen Alarm bezüglich potenzieller Risiken von AI, wie Urheberrechtsfragen, die Verbreitung von Falschinformationen, die Weitergabe von vertraulichen Informationen, Datenschutzprobleme und die missbräuchliche Verwendung für Cyberangriffe.

In diesem Kapitel werden die vier Risiken erläutert, die bei der geschäftlichen Nutzung von ChatGPT zu beachten sind.

Risiken von Informationslecks durch Lernfunktionen

ChatGPT ist zwar praktisch, aber da es sich um einen KI-Chatbot handelt, der durch das Lernen verschiedener Daten im Internet generiert wird, besteht das Risiko, dass eingegebene Informationen, falls keine Maßnahmen ergriffen werden, durch das Lernen genutzt und somit geleakt werden könnten.

Nach der Datennutzungspolitik von OpenAI werden die Daten, die Nutzer in ChatGPT eingeben, von OpenAI gesammelt und verwendet (gelernt), es sei denn, der Nutzer beantragt über die ‘API’ von ChatGPT oder ‘Opt-Out’ etwas anderes.

Ohne entsprechende Maßnahmen sollte man darauf achten, keine persönlichen oder vertraulichen Informationen einzugeben, die ein hohes Maß an Vertraulichkeit erfordern. Selbst wenn versehentlich persönliche Informationen in ChatGPT eingegeben werden, wird eine Warnmeldung angezeigt, und ChatGPT ist so konzipiert, dass es keine persönlichen Informationen speichert oder verfolgt und diese nicht im Chat ausgibt.

Andererseits gab es in der Vergangenheit einen Vorfall, bei dem aufgrund eines Bugs im System von OpenAI, dem Betreiber von ChatGPT, die registrierten persönlichen Informationen der Nutzer geleakt wurden.

Verwandter Artikel: Was ist das Risiko eines Informationslecks bei ChatGPT? Vorstellung von 4 Maßnahmen, die Sie ergreifen sollten[ja]

Das Risiko mangelnder Informationsglaubwürdigkeit

Das Risiko mangelnder Informationsglaubwürdigkeit

Seit Mai 2023 (Reiwa 5) ist die Web-Browsing-Funktion von ChatGPT implementiert worden, wodurch ChatGPT nun in der Lage ist, aktuelle Informationen zu sammeln und Antworten auf dieser Grundlage zu generieren.

Jedoch gibt ChatGPT Antworten, als wären die Informationen wahrheitsgetreu, obwohl deren Glaubwürdigkeit nicht garantiert ist. Die von ChatGPT generierten Antworten basieren nicht auf der Genauigkeit der Lern-Daten, sondern werden als die wahrscheinlichsten (plausibelsten) Texte erzeugt. Daher ist eine Faktenüberprüfung bei den Antworten von ChatGPT unerlässlich. Sollte man auf Basis der Antworten von ChatGPT unwahre Informationen verbreiten, könnte dies das Ansehen des Unternehmens gefährden.

Am 3. April 2023 (Reiwa 5) hat die Universität Tokio aufgrund technischer Herausforderungen von ChatGPT und der Besorgnis über dessen Einfluss auf die Gesellschaft folgende Erklärung abgegeben:

“Das Prinzip von ChatGPT besteht darin, durch maschinelles Lernen und Verstärkungslernen aus einer großen Menge bestehender Texte und Inhalte wahrscheinliche Texte zu erstellen. Daher können die geschriebenen Inhalte Lügen enthalten. Es ist, als würde man mit einer sehr eloquenten Person sprechen, die so tut, als wüsste sie Bescheid. (Allerdings hat die neueste Version GPT-4 eine deutlich höhere Genauigkeit und ist als Gesprächspartner durchaus kompetent.) Um ChatGPT effektiv zu nutzen, ist Fachwissen erforderlich, und es ist notwendig, Antworten kritisch zu überprüfen und gegebenenfalls zu korrigieren. Außerdem kann es keine Analysen oder Beschreibungen zu neuen Erkenntnissen liefern, die nicht in den bestehenden Informationen enthalten sind. Das bedeutet, dass Menschen nicht aufhören können zu lernen oder zu forschen, nur weil ChatGPT existiert. Wenn jedoch eine gebildete Person mit Fachwissen die Antworten kritisch analysiert und ChatGPT geschickt einsetzt, kann dies die Effizienz von routinemäßigen Aufgaben erheblich steigern.”, so die Feststellung.

Quelle: Universität Tokio | ‘Über generative KI (ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion etc.)[ja]

Rechtliche Risiken wie Urheberrechtsverletzungen und Verletzungen der Privatsphäre

Die Beurteilung von Urheberrechtsverletzungen bei ChatGPT unterscheidet sich zwischen der “AI-Entwicklungs- und Lernphase” und der “Erzeugungs- und Nutzungsphase”. Da die Nutzung von urheberrechtlich geschützten Werken in jeder Phase unterschiedlich ist, variieren auch die anwendbaren Artikel des Urheberrechtsgesetzes. Daher ist es notwendig, beide Phasen getrennt zu betrachten.

Referenz: Japanisches Kulturamt | Urheberrechtsseminar “AI und Urheberrecht” im Jahr Reiwa 5 (2023)[ja]

Im Januar 2019 trat eine überarbeitete Fassung des Urheberrechtsgesetzes in Kraft, die in Artikel 30-4 eine neue Bestimmung für die “AI-Entwicklungs- und Lernphase” einführte. Demnach sind Nutzungen von urheberrechtlich geschützten Werken, die nicht das Ziel haben, Gedanken oder Gefühle, die in den Werken ausgedrückt sind, zu genießen, wie beispielsweise die Informationsanalyse für die AI-Entwicklung, grundsätzlich ohne Zustimmung des Urheberrechtsinhabers möglich.

Andererseits, wenn das von ChatGPT erzeugte Produkt Ähnlichkeiten oder Abhängigkeiten (Modifikationen) zu urheberrechtlich geschützten Werken aufweist, kann dies eine Urheberrechtsverletzung darstellen. Daher ist es vor der Veröffentlichung wichtig, die Rechteinhaber der von ChatGPT referenzierten Informationen zu überprüfen und sicherzustellen, dass keine ähnlichen Inhalte vorhanden sind. Wenn urheberrechtlich geschützte Werke zitiert werden, muss die Quelle angegeben werden (Bestimmungen zur Beschränkung der Rechte), und wenn sie reproduziert werden, muss die Zustimmung des Urheberrechtsinhabers eingeholt werden, um sie ordnungsgemäß zu verarbeiten.

Laut den Nutzungsbedingungen von OpenAI kann der von ChatGPT erstellte Inhalt kommerziell genutzt werden. Wenn jedoch unklar ist, ob der mit ChatGPT erstellte Inhalt eine Urheberrechtsverletzung darstellt, wird empfohlen, einen Experten zu konsultieren.

Wenn ein Urheberrechtsinhaber eine Urheberrechtsverletzung geltend macht, können sowohl zivilrechtliche (Schadensersatz, Schmerzensgeld, Unterlassung der Nutzung, Wiederherstellung des Rufs usw.) als auch strafrechtliche Verantwortlichkeiten (Antragsdelikte) in Frage kommen. Im Falle von Unternehmen kann die Anwendung von Doppelbestrafungsvorschriften dazu führen, dass sowohl Einzelpersonen als auch juristische Personen bestraft werden, was zu erheblichen Schäden führen kann.

Bezüglich persönlicher Informationen und Privatsphäre ist ebenfalls Vorsicht geboten, beispielsweise sollten diese nicht in ChatGPT eingegeben werden. Wie bereits erwähnt, speichert oder verfolgt ChatGPT keine persönlichen Informationen und kann diese nicht in Chats ausgeben. Dies ist jedoch eine Richtlinie von OpenAI, und bei anderen Plattformen oder Diensten kann dies anders sein.

Das Risiko von Datenschutzverletzungen wird im folgenden Artikel erläutert, den Sie ebenfalls lesen sollten.

Verwandter Artikel: Das Risiko von Datenschutzverletzungen in Unternehmen und Schadensersatz[ja]

Das Risiko, unbeabsichtigt schädliche Inhalte zu erstellen

Das Risiko, unbeabsichtigt schädliche Inhalte zu erstellen

Abhängig vom Inhalt der von ChatGPT gelernten Daten und den eingegebenen Prompts besteht die Möglichkeit, dass schädliche Inhalte erstellt werden. Wenn Inhalte, die von ChatGPT erstellt wurden, ohne Überprüfung veröffentlicht werden, kann dies den Ruf und den Markenwert eines Unternehmens schädigen und möglicherweise zu rechtlichen Problemen führen.

Obwohl schädliche Inhalte so eingestellt sind, dass sie von ChatGPT nicht verarbeitet werden können, ist es schwierig, schädliche Programmcodes oder betrügerische Dienste zu identifizieren, und sie könnten dennoch erzeugt werden. Angesichts solcher Risiken ist es wichtig, stets eine Struktur zu haben, die erstellte Inhalte kontinuierlich überprüft.

Verständnis der Nutzungsbedingungen zur Vermeidung von Risiken bei der Verwendung von ChatGPT

Bei der geschäftlichen Nutzung von ChatGPT ist es zur Risikovermeidung unerlässlich, die Nutzung gemäß den Nutzungsbedingungen und der Datenschutzrichtlinie von OpenAI durchzuführen. Da die Nutzungsbedingungen häufig geändert werden, ist es wichtig, bei der Verwendung im Geschäftsbereich die Änderungen zu überprüfen und die aktuellsten Nutzungsbedingungen zu kennen.

Verwandter Artikel: Erläuterung der OpenAI-Nutzungsbedingungen, worauf sollte bei kommerzieller Nutzung geachtet werden?[ja]

Notwendige Maßnahmen zur Risikovermeidung bei der geschäftlichen Nutzung von ChatGPT

Erstellung von internen Regeln

Um die mit ChatGPT verbundenen Risiken zu vermeiden und es im Geschäftsbetrieb angemessen zu nutzen, ist es erforderlich, dass Unternehmen folgendes Governance-System etablieren:

Erstellung von internen Regeln

Am 1. Mai 2023 (Reiwa 5) veröffentlichte die General Incorporated Association Japanese Deep Learning Association (JDLA) eine Zusammenfassung der ethischen, rechtlichen und sozialen Fragen (ELSI), die mit ChatGPT verbunden sind, und stellte die ‘Richtlinien für die Nutzung von generativen KI’ vor. Auch in den Bereichen Industrie, Akademie und Regierung wird die Entwicklung solcher Richtlinien vorangetrieben.

Bei der Einführung von ChatGPT in Unternehmen ist es nicht nur wichtig, die Informationssicherheitskompetenz der Einzelpersonen zu erhöhen und interne Schulungen durchzuführen, sondern auch wünschenswert, eigene Richtlinien für die Nutzung von ChatGPT zu erstellen. Durch die Formulierung und umfassende Bekanntmachung von klaren Richtlinien für die Nutzung von ChatGPT im eigenen Unternehmen kann ein gewisses Maß an Risikovermeidung erwartet werden.

Referenz: General Incorporated Association Japanese Deep Learning Association (JDLA) | ‘Richtlinien für die Nutzung von generativen KI[ja]

Einen Aufsichtsführenden für die Nutzung von ChatGPT einsetzen

Die Einrichtung eines Aufsichtsführenden für die Nutzung von ChatGPT im Unternehmen, der ständig die Anwendung der Richtlinien überwacht und Risiken verwaltet, ist ebenfalls eine wirksame Maßnahme zur Risikovermeidung.

Die Überwachung des Verhaltens von ChatGPT, die Korrektur der generierten Ergebnisse und das Datenmanagement können als eine Art Systemaudit betrachtet werden. Ein Systemaudit bewertet objektiv die Effizienz, Sicherheit und Zuverlässigkeit von Informationssystemen und wird mit dem Ziel durchgeführt, die Effizienz der Geschäftsprozesse zu steigern und die Transformation der Organisation zu unterstützen. Durch die Einrichtung eines Aufsichtsführenden für das Audit kann auch die Transparenz und Rechenschaftspflicht in Bezug auf die Operationen gestärkt werden.

Zusammenfassung: Risikovermeidung ist unerlässlich für die geschäftliche Nutzung von ChatGPT

In diesem Abschnitt haben wir detailliert die Risiken und Maßnahmen erläutert, die mit der geschäftlichen Nutzung von ChatGPT verbunden sind.

Bei der rasanten Entwicklung von KI-Geschäftsanwendungen wie ChatGPT ist es unerlässlich, eine Vielzahl von rechtlichen Risiken zu berücksichtigen und entsprechende Maßnahmen zu ergreifen. Dazu gehören die Erstellung von Richtlinien für die interne Nutzung, die Überprüfung der Rechtmäßigkeit von Geschäftsmodellen, die Erstellung von Verträgen und Nutzungsbedingungen, der Schutz von geistigem Eigentum und die Einhaltung von Datenschutzbestimmungen. Hierfür ist die Zusammenarbeit mit Experten, die sich auf KI-Technologie spezialisiert haben, unverzichtbar.

Maßnahmen unserer Kanzlei

Die Monolith Rechtsanwaltskanzlei verfügt über umfangreiche Erfahrungen in IT, insbesondere im Bereich Internet und Recht. Im AI-Geschäft gibt es viele rechtliche Risiken, und die Unterstützung durch einen Anwalt, der sich mit rechtlichen Fragen im Zusammenhang mit AI auskennt, ist unerlässlich.

Unsere Kanzlei bietet mit einem Team aus AI-versierten Anwälten und Ingenieuren verschiedene rechtliche Unterstützungen für AI-Geschäfte, einschließlich ChatGPT. Weitere Details finden Sie im folgenden Artikel.

Bereiche, die von der Monolith Rechtsanwaltskanzlei abgedeckt werden: Rechtliche Angelegenheiten im Bereich AI (wie ChatGPT)[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Category: IT

Tag:

Zurück Nach Oben