Wat zijn de risico's van het zakelijk gebruik van ChatGPT? Uitleg over juridische kwesties
Sinds de release heeft ChatGPT wereldwijd veel aandacht gekregen voor zijn bruikbaarheid. Tegelijkertijd is het bekend geworden dat het gebruik ervan ook verschillende risico’s met zich meebrengt. De wetgeving is nog in ontwikkeling, en het is een feit dat veel bedrijfsleiders zich zorgen maken over de risico’s van het gebruik van ChatGPT in het bedrijfsleven en over methoden om deze risico’s te beperken.
In dit artikel bespreken we de juridische risico’s en maatregelen bij het gebruik van ChatGPT voor zakelijke doeleinden.
Vier risico’s bij het zakelijk gebruik van ChatGPT
Het gebruik van natuurlijke taal genererende AI zoals ChatGPT neemt ook binnen bedrijven toe. In het fiscale jaar 2022 (Reiwa 5) was het implementatiepercentage van bedrijven 13,5%, en als we de bedrijven die van plan zijn het te implementeren meerekenen, stijgt dit percentage tot 24,0%. (Bron: Japanse Ministerie van Binnenlandse Zaken en Communicatie | Informatie- en Communicatiewitboek van het jaar Reiwa 5 (2023), Communicatiegebruikstrendonderzoek ‘Status van de implementatie van systemen en diensten zoals IoT en AI in bedrijven[ja]‘)
Zeker, AI-technologieën zoals ChatGPT kunnen effectief zijn voor het verbeteren van de bedrijfsefficiëntie en kunnen leiden tot meer zakelijke kansen. Echter, ze brengen ook veel juridische risico’s met zich mee. Daarom is het noodzakelijk om deze risico’s goed te begrijpen alvorens te beslissen over het zakelijk gebruik ervan.
Experts luiden bijvoorbeeld de noodklok over potentiële risico’s van AI, zoals auteursrechtkwesties, de verspreiding van onjuiste informatie, het lekken van vertrouwelijke informatie, privacyproblemen en misbruik voor cyberaanvallen.
In dit hoofdstuk bespreken we vier risico’s die komen kijken bij het zakelijk gebruik van ChatGPT.
Risico’s van Informatielekken door Leerfuncties
Hoewel ChatGPT handig is, schuilt er een risico op informatielekken omdat het een AI-chatbot is die gegenereerd wordt door het leren van diverse data op het internet. Zonder gepaste maatregelen kan de informatie die u invoert gebruikt worden voor leerdoeleinden en lekken.
Volgens het data-gebruiksbeleid van OpenAI, zal de data die gebruikers invoeren in ChatGPT door OpenAI verzameld en gebruikt (voor leren) worden, tenzij de gebruiker via de ‘API’ of door een ‘opt-out’ aanvraag anders aangeeft.
Zonder voorzorgsmaatregelen is het belangrijk om voorzichtig te zijn met het invoeren van persoonlijke of vertrouwelijke informatie. Zelfs als u per ongeluk persoonlijke informatie invoert in ChatGPT, zal er een waarschuwingsbericht verschijnen en ChatGPT zal de persoonlijke informatie niet opslaan of volgen, en kan het niet in de chat weergeven.
Aan de andere kant was er in het verleden een incident waarbij persoonlijke informatie van gebruikers lekte door een bug in het systeem van OpenAI, het bedrijf dat ChatGPT beheert.
Gerelateerd artikel: Wat is het risico op informatielekken bij ChatGPT? Vier noodzakelijke maatregelen[ja]
Risico’s van onbetrouwbare informatie
Vanaf mei 2023 (Reiwa 5) is de webbrowserfunctie van ChatGPT geïmplementeerd, waardoor het nu mogelijk is om de meest actuele informatie te verzamelen en antwoorden te genereren op basis van die resultaten.
Echter, hoewel ChatGPT antwoorden genereert alsof het ware informatie betreft, is de betrouwbaarheid ervan niet gegarandeerd. De reacties die ChatGPT produceert, zijn niet noodzakelijkerwijs gebaseerd op de nauwkeurigheid van de leerdata, maar zijn eerder gegenereerd als de meest waarschijnlijke (meest plausibele) teksten. Daarom is factchecking essentieel bij het gebruik van ChatGPT’s antwoorden. Als er per ongeluk valse informatie wordt verspreid op basis van de antwoorden van ChatGPT, kan dit de reputatie van het bedrijf schaden.
Op 3 april 2023 (Reiwa 5) heeft de Universiteit van Tokio, wijzend op technische problemen met ChatGPT, de volgende verklaring afgegeven over de mogelijke impact op de samenleving in de toekomst:
“Het principe van ChatGPT is het creëren van plausibele teksten door middel van machine learning en reinforcement learning van een grote hoeveelheid bestaande teksten en content. Daarom kan de inhoud die het schrijft leugens bevatten. Het is alsof je praat met een zeer welbespraakte ‘pretender’. (Hoewel de nieuwste versie, GPT-4, aanzienlijk nauwkeuriger is en een behoorlijk competente gesprekspartner.) Daarom vereist het gebruik van ChatGPT gespecialiseerde kennis en is het noodzakelijk om de antwoorden kritisch te controleren en indien nodig aan te passen. Bovendien kan het geen nieuwe inzichten analyseren of beschrijven die niet in de bestaande informatie voorkomen. Met andere woorden, de komst van ChatGPT betekent niet dat mensen kunnen stoppen met studeren of onderzoek doen. Echter, als personen met algemene kennis of expertise de antwoorden kritisch analyseren en het goed gebruiken, kan het de efficiëntie van routinematige taken aanzienlijk verbeteren,” aldus de verklaring.
Bron: Universiteit van Tokio | ‘Over generatieve AI (ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion, etc.)[ja]‘
Juridische risico’s zoals auteursrechtinbreuk en privacyschending
De beoordeling van auteursrechtinbreuk door ChatGPT verschilt tussen de ‘AI-ontwikkelings- & leerfase’ en de ‘generatie- & gebruiksfase’. Omdat de handelingen met betrekking tot het gebruik van auteursrechtelijk beschermde werken in elke fase verschillen, verschillen ook de relevante artikelen van de auteursrechtwet. Daarom is het noodzakelijk om beide fasen afzonderlijk te beschouwen.
Referentie: Japanse Culturele Zaken Agentschap | Reiwa 5 (2023) Auteursrechtseminar ‘AI en auteursrecht'[ja]
In de herziene Japanse Auteursrechtwet, die in januari 2019 in werking is getreden, is een nieuwe bepaling voor beperking van rechten toegevoegd in artikel 30-4, specifiek voor de ‘AI-ontwikkelings- & leerfase’. Gebruik van auteursrechtelijk beschermde werken voor informatieanalyse ten behoeve van AI-ontwikkeling, waarbij het genieten van de uitgedrukte gedachten of emoties niet het doel is, kan in principe zonder toestemming van de auteursrechthouder worden uitgevoerd.
Aan de andere kant, als de door ChatGPT gegenereerde output gelijkenis of afhankelijkheid (wijziging) vertoont met auteursrechtelijk beschermde werken, kan dit leiden tot auteursrechtinbreuk. Daarom is het belangrijk om, voordat u iets publiceert, te controleren of ChatGPT geen informatie heeft gebruikt waarop auteursrechten rusten en of er geen gelijkenis is met de inhoud die ChatGPT heeft gecreëerd. Bovendien, wanneer u auteursrechtelijk beschermd materiaal citeert, moet u de bron vermelden (beperking van rechten), en wanneer u het reproduceert, moet u toestemming verkrijgen van de auteursrechthouder en dit op een juiste manier verwerken.
Volgens de gebruiksvoorwaarden van OpenAI kan de inhoud die door ChatGPT is gecreëerd commercieel worden gebruikt. Echter, als het moeilijk is om te beoordelen of de door ChatGPT gecreëerde inhoud auteursrechtinbreuk vormt, wordt aanbevolen om advies in te winnen bij een specialist.
Als u door een auteursrechthouder wordt beschuldigd van auteursrechtinbreuk, kunt u zowel civielrechtelijk (schadevergoeding, smartengeld, verbod op gebruik, herstel van eer) als strafrechtelijk (klachtdelict) aansprakelijk worden gesteld. In het geval van bedrijven kan de dubbele strafwetgeving van toepassing zijn, waarbij zowel individuen als rechtspersonen bestraft kunnen worden, wat kan leiden tot aanzienlijke schade.
Wat betreft persoonlijke informatie en privacy, is het ook noodzakelijk om voorzichtig te zijn en deze niet in ChatGPT in te voeren. Zoals eerder vermeld, zelfs als persoonlijke informatie per ongeluk in ChatGPT wordt ingevoerd, slaat ChatGPT geen persoonlijke informatie op of volgt deze niet, en kan het deze niet in de chat weergeven. Dit is echter het beleid van OpenAI, en kan verschillen bij andere platforms of diensten.
Voor meer informatie over het risico van het lekken van persoonlijke informatie, lees ook het volgende artikel:
Gerelateerd artikel: Het risico van bedrijfsinformatielekken en schadevergoeding[ja]
Het risico van onbedoeld schadelijke inhoud creëren
Afhankelijk van de inhoud van de data waarop ChatGPT is getraind en de aard van de prompts, bestaat het risico dat er schadelijke inhoud wordt gecreëerd. Als de door ChatGPT gegenereerde inhoud wordt gepubliceerd zonder controle, kan dit de reputatie en merkwaarde van een bedrijf schaden en zelfs leiden tot juridische problemen.
Hoewel het systeem van ChatGPT is ingesteld om geen schadelijke inhoud te genereren of te verwerken, kan het moeilijk zijn om schadelijke programmacodes of frauduleuze diensten te onderscheiden, waardoor deze toch gegenereerd kunnen worden. Met deze risico’s in gedachten is het van cruciaal belang om altijd een systeem te hebben dat de gegenereerde inhoud controleert.
Gebruiksvoorwaarden begrijpen en risico’s vermijden bij het gebruik van ChatGPT
Bij het zakelijk inzetten van ChatGPT is het essentieel om risico’s te vermijden door het gebruik in overeenstemming met de gebruiksvoorwaarden en het privacybeleid van OpenAI. Aangezien de gebruiksvoorwaarden regelmatig worden herzien, is het belangrijk om bij zakelijk gebruik de wijzigingen te controleren en op de hoogte te blijven van de meest actuele voorwaarden.
Gerelateerd artikel: Uitleg over de gebruiksvoorwaarden van OpenAI, wat zijn de aandachtspunten voor commercieel gebruik?[ja]
Het vermijden van risico’s bij zakelijk gebruik van ChatGPT
Om de risico’s die ChatGPT met zich meebrengt te vermijden en het op een gepaste manier in het bedrijfsleven te gebruiken, is het volgende governancekader vereist voor bedrijven.
Het opstellen van interne regels
Op 1 mei 2023 (Reiwa 5) heeft de General Incorporated Association Japan Deep Learning Association (JDLA) de ethische, juridische en sociale vraagstukken (ELSI) die ChatGPT met zich meebrengt samengevat en de ‘Richtlijnen voor het gebruik van generatieve AI’ gepubliceerd. Ook in de academische wereld en de publieke sector wordt de ontwikkeling van richtlijnen overwogen.
Bij de implementatie van ChatGPT in een bedrijf is het niet alleen essentieel om de informatiebeveiligingsgeletterdheid van individuen te verhogen en interne opleidingen te verzorgen, maar het is ook wenselijk om eigen richtlijnen voor het gebruik van ChatGPT op te stellen. Door het opstellen en grondig bekendmaken van richtlijnen die de regels voor het gebruik van ChatGPT binnen het eigen bedrijf expliciet maken, kan een bepaald niveau van risicobeperking worden verwacht.
Referentie: General Incorporated Association Japan Deep Learning Association (JDLA) | ‘Richtlijnen voor het gebruik van generatieve AI[ja]‘
Een toezichthouder aanstellen voor het gebruik van ChatGPT
Het aanstellen van een toezichthouder voor het gebruik van ChatGPT binnen het bedrijf, die de richtlijnen voortdurend monitort en risico’s beheert, is ook effectief voor risicobeperking.
Het monitoren van het gedrag van ChatGPT, het corrigeren van de gegenereerde resultaten en het beheren van de data kan worden gezien als een audit die vergelijkbaar is met een systeemaudit. Een systeemaudit evalueert objectief de efficiëntie, veiligheid en betrouwbaarheid van informatiesystemen en wordt uitgevoerd met het doel bedrijfsprocessen te optimaliseren en organisatorische transformatie te ondersteunen. Door een toezichthouder voor de audit aan te stellen, kan ook de transparantie en verantwoordingsplicht van de operaties worden versterkt.
Samenvatting: Risicobeperkende maatregelen zijn essentieel bij het zakelijk gebruik van ChatGPT
Hier hebben we in detail de risico’s en maatregelen besproken die gepaard gaan met het zakelijk gebruik van ChatGPT.
Bij het snel evoluerende AI-bedrijf zoals ChatGPT zijn diverse juridische risico’s verbonden aan intern gebruik. Het is essentieel om maatregelen te treffen, variërend van het opstellen van richtlijnen voor intern gebruik, het beoordelen van de wettigheid van het bedrijfsmodel, het opstellen van contracten en gebruiksvoorwaarden, tot het beschermen van intellectuele eigendomsrechten en het omgaan met privacykwesties. Hiervoor is samenwerking met experts die goed thuis zijn in AI-technologie onmisbaar.
Maatregelen van ons kantoor
Het Monolith Advocatenkantoor is een juridisch kantoor met uitgebreide ervaring in IT, en in het bijzonder op het gebied van internet en recht. De AI-business brengt veel juridische risico’s met zich mee, en de ondersteuning van een advocaat die goed thuis is in juridische kwesties rondom AI is onmisbaar.
Ons kantoor biedt met een team van AI-geïnformeerde advocaten en ingenieurs diverse juridische ondersteuningen voor AI-bedrijven, inclusief die welke gebruikmaken van ChatGPT. De details zijn beschreven in het onderstaande artikel.
Expertisegebieden van Monolith Advocatenkantoor: AI (zoals ChatGPT) juridische diensten[ja]
Category: IT
Tag: ITTerms of Use