{"id":70906,"date":"2024-04-03T17:31:40","date_gmt":"2024-04-03T08:31:40","guid":{"rendered":"https:\/\/monolith.law\/nl\/?p=70906"},"modified":"2024-04-09T17:02:05","modified_gmt":"2024-04-09T08:02:05","slug":"chatgpt-confidential-leak","status":"publish","type":"post","link":"https:\/\/monolith.law\/nl\/it\/chatgpt-confidential-leak","title":{"rendered":"Risico's van de bedrijfsimplementatie van ChatGPT: Uitleg over gevallen van lekkage van vertrouwelijke informatie en tegenmaatregelen"},"content":{"rendered":"\n<p>De implementatie van ChatGPT binnen bedrijven vordert gestaag. Hoewel de bruikbaarheid ervan veel aandacht krijgt, zijn er enkele punten waarop we moeten letten. Een daarvan is dat je geen vertrouwelijke informatie in ChatGPT mag invoeren. Er zijn daadwerkelijk gevallen in het buitenland waarbij het invoeren van vertrouwelijke informatie heeft geleid tot ernstige lekken van bedrijfsgeheimen.<\/p>\n\n\n\n<p>In dit artikel zal een advocaat uitleggen hoe je met de dagelijks evoluerende ChatGPT in een zakelijke context omgaat, met een focus op het risico van het lekken van vertrouwelijke informatie, inclusief voorbeelden en de te nemen maatregelen.<\/p>\n\n\n\n<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_53 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<div class=\"ez-toc-title-container\">\n<span class=\"ez-toc-title-toggle\"><\/span><\/div>\n<nav><ul class='ez-toc-list ez-toc-list-level-1 ' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/monolith.law\/nl\/it\/chatgpt-confidential-leak\/#Waarom_u_geen_vertrouwelijke_informatie_in_ChatGPT_moet_invoeren\" title=\"Waarom u geen vertrouwelijke informatie in ChatGPT moet invoeren\">Waarom u geen vertrouwelijke informatie in ChatGPT moet invoeren<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/monolith.law\/nl\/it\/chatgpt-confidential-leak\/#Risico%E2%80%99s_voor_bedrijven_bij_het_gebruik_van_ChatGPT_anders_dan_het_lekken_van_vertrouwelijke_informatie\" title=\"Risico&#8217;s voor bedrijven bij het gebruik van ChatGPT, anders dan het lekken van vertrouwelijke informatie\">Risico&#8217;s voor bedrijven bij het gebruik van ChatGPT, anders dan het lekken van vertrouwelijke informatie<\/a><ul class='ez-toc-list-level-3'><li class='ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/monolith.law\/nl\/it\/chatgpt-confidential-leak\/#Gebrek_aan_betrouwbaarheid_van_de_gegenereerde_informatie\" title=\"Gebrek aan betrouwbaarheid van de gegenereerde informatie\">Gebrek aan betrouwbaarheid van de gegenereerde informatie<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-4\" href=\"https:\/\/monolith.law\/nl\/it\/chatgpt-confidential-leak\/#Juridische_risico%E2%80%99s_zoals_inbreuk_op_auteursrechten\" title=\"Juridische risico&#8217;s zoals inbreuk op auteursrechten\">Juridische risico&#8217;s zoals inbreuk op auteursrechten<\/a><\/li><\/ul><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-5\" href=\"https:\/\/monolith.law\/nl\/it\/chatgpt-confidential-leak\/#Incidenten_waarbij_vertrouwelijke_informatie_in_ChatGPT_werd_ingevoerd\" title=\"Incidenten waarbij vertrouwelijke informatie in ChatGPT werd ingevoerd\">Incidenten waarbij vertrouwelijke informatie in ChatGPT werd ingevoerd<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-6\" href=\"https:\/\/monolith.law\/nl\/it\/chatgpt-confidential-leak\/#Maatregelen_om_te_voorkomen_dat_vertrouwelijke_informatie_lekt_bij_het_gebruik_van_ChatGPT\" title=\"Maatregelen om te voorkomen dat vertrouwelijke informatie lekt bij het gebruik van ChatGPT\">Maatregelen om te voorkomen dat vertrouwelijke informatie lekt bij het gebruik van ChatGPT<\/a><ul class='ez-toc-list-level-3'><li class='ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-7\" href=\"https:\/\/monolith.law\/nl\/it\/chatgpt-confidential-leak\/#Het_opstellen_van_richtlijnen_voor_intern_gebruik\" title=\"Het opstellen van richtlijnen voor intern gebruik\">Het opstellen van richtlijnen voor intern gebruik<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-8\" href=\"https:\/\/monolith.law\/nl\/it\/chatgpt-confidential-leak\/#Het_implementeren_van_technologie_om_het_lekken_van_vertrouwelijke_informatie_te_voorkomen\" title=\"Het implementeren van technologie om het lekken van vertrouwelijke informatie te voorkomen\">Het implementeren van technologie om het lekken van vertrouwelijke informatie te voorkomen<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-9\" href=\"https:\/\/monolith.law\/nl\/it\/chatgpt-confidential-leak\/#Overweging_van_de_implementatie_van_gespecialiseerde_tools\" title=\"Overweging van de implementatie van gespecialiseerde tools\">Overweging van de implementatie van gespecialiseerde tools<\/a><\/li><\/ul><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-10\" href=\"https:\/\/monolith.law\/nl\/it\/chatgpt-confidential-leak\/#Hoe_u_ervoor_kunt_zorgen_dat_ChatGPT_geen_gevoelige_informatie_leert_die_u_invoert\" title=\"Hoe u ervoor kunt zorgen dat ChatGPT geen gevoelige informatie leert die u invoert\">Hoe u ervoor kunt zorgen dat ChatGPT geen gevoelige informatie leert die u invoert<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-11\" href=\"https:\/\/monolith.law\/nl\/it\/chatgpt-confidential-leak\/#Samenvatting_Essentiele_maatregelen_voor_het_gebruik_van_ChatGPT_in_het_bedrijfsleven_met_betrekking_tot_de_behandeling_van_vertrouwelijke_informatie\" title=\"Samenvatting: Essenti\u00eble maatregelen voor het gebruik van ChatGPT in het bedrijfsleven met betrekking tot de behandeling van vertrouwelijke informatie\">Samenvatting: Essenti\u00eble maatregelen voor het gebruik van ChatGPT in het bedrijfsleven met betrekking tot de behandeling van vertrouwelijke informatie<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-12\" href=\"https:\/\/monolith.law\/nl\/it\/chatgpt-confidential-leak\/#Maatregelen_van_ons_kantoor\" title=\"Maatregelen van ons kantoor\">Maatregelen van ons kantoor<\/a><\/li><\/ul><\/nav><\/div>\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Waarom_u_geen_vertrouwelijke_informatie_in_ChatGPT_moet_invoeren\"><\/span>Waarom u geen vertrouwelijke informatie in ChatGPT moet invoeren<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/monolith.law\/wp-content\/uploads\/2023\/11\/Shutterstock_1244741962.jpg\" alt=\"\" class=\"wp-image-63127\" \/><\/figure>\n\n\n\n<p>Hoewel ChatGPT handig is, is het een AI-chatbot die gegenereerd wordt door te leren van grote hoeveelheden data op het internet en gebruiksgegevens. Zonder de juiste voorzorgsmaatregelen kan het invoeren van vertrouwelijke informatie leiden tot het risico op datalekken.<\/p>\n\n\n\n<p>Later zullen we dieper ingaan op maatregelen tegen het risico van datalekken van vertrouwelijke informatie, maar eerst zullen we andere risico&#8217;s gerelateerd aan ChatGPT en het lekken van vertrouwelijke informatie bespreken.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Risico%E2%80%99s_voor_bedrijven_bij_het_gebruik_van_ChatGPT_anders_dan_het_lekken_van_vertrouwelijke_informatie\"><\/span>Risico&#8217;s voor bedrijven bij het gebruik van ChatGPT, anders dan het lekken van vertrouwelijke informatie<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>ChatGPT bevindt zich momenteel in de testfase bij veel bedrijven. Daarom is het noodzakelijk om de risico&#8217;s goed te begrijpen alvorens te beslissen of het voor zakelijke doeleinden gebruikt zal worden.<\/p>\n\n\n\n<p>Bij het gebruik van ChatGPT kunnen bedrijven naast het lekken van vertrouwelijke informatie (inclusief persoonsgegevens) de volgende twee beveiligingsrisico&#8217;s lopen:<\/p>\n\n\n\n<ul>\n<li>Risico op onbetrouwbaarheid van de gegenereerde informatie<\/li>\n\n\n\n<li>Risico op inbreuk op auteursrechten van de in- en uitvoerinformatie<\/li>\n<\/ul>\n\n\n\n<p>We zullen elk van deze risico&#8217;s in detail bespreken.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Gebrek_aan_betrouwbaarheid_van_de_gegenereerde_informatie\"><\/span>Gebrek aan betrouwbaarheid van de gegenereerde informatie<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>De op 14 maart 2023 gepubliceerde GPT-4 heeft een zoekfunctie gekregen, waardoor het nu de meest actuele informatie kan bieden. Echter, ChatGPT presenteert zijn antwoorden alsof ze waar zijn, maar de betrouwbaarheid ervan is niet gegarandeerd. De reacties die ChatGPT genereert, zijn niet noodzakelijkerwijs gebaseerd op de nauwkeurigheid van de informatie uit de leerdata, maar zijn eerder gebaseerd op wat als de meest waarschijnlijke tekst wordt beschouwd. Daarom is het essentieel om een feitencontrole uit te voeren voordat u de output gebruikt. Als een bedrijf per ongeluk valse informatie verspreidt, kan dit de geloofwaardigheid van het bedrijf zelf schaden.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Juridische_risico%E2%80%99s_zoals_inbreuk_op_auteursrechten\"><\/span>Juridische risico&#8217;s zoals inbreuk op auteursrechten<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"http:\/\/Monolith.law\/wp-content\/uploads\/2023\/11\/Shutterstock_2320781925.jpg\" alt=\"Juridische risico's zoals inbreuk op auteursrechten\" class=\"wp-image-63124\" \/><\/figure>\n\n\n\n<p>Bij het beoordelen van auteursrechtinbreuk in ChatGPT, wordt er onderscheid gemaakt tussen de &#8216;AI-ontwikkelings- en leerfase&#8217; en de &#8216;generatie- en gebruiksfase&#8217;. Omdat de handelingen met betrekking tot het gebruik van auteursrechtelijk beschermd materiaal in elk van deze fasen verschillen, verschillen ook de toepasselijke artikelen van de auteursrechtwet. Daarom is het noodzakelijk om deze twee afzonderlijk te beschouwen.<\/p>\n\n\n\n<p>Referentie: <a href=\"https:\/\/www.bunka.go.jp\/seisaku\/chosakuken\/pdf\/93903601_01.pdf\" target=\"_blank\" rel=\"noreferrer noopener\">Japanse Culturele Zaken Agentschap | Reiwa 5 (2023) Auteursrechtseminar &#8216;AI en auteursrecht'[ja]<\/a><\/p>\n\n\n\n<p>In de herziene auteursrechtwet die in januari 2019 in werking is getreden, is een nieuwe bepaling voor de &#8216;AI-ontwikkelings- en leerfase&#8217; toegevoegd aan artikel 30, lid 4, over beperkingen van rechten (uitzonderingen waarvoor geen toestemming nodig is). Gebruikshandelingen die niet gericht zijn op het genieten van de in auteursrechtelijk beschermd materiaal uitgedrukte gedachten of gevoelens, zoals informatieanalyse voor AI-ontwikkeling, kunnen in principe zonder toestemming van de auteursrechthebbende worden uitgevoerd.<\/p>\n\n\n\n<p>Aan de andere kant, als het door ChatGPT gegenereerde materiaal gelijkenis of afhankelijkheid (wijziging) vertoont met auteursrechtelijk beschermd werk, kan dit een inbreuk op het auteursrecht vormen. Daarom is het belangrijk om, voordat iets wordt gepubliceerd, te controleren wie de rechthebbenden zijn van de informatie waarnaar ChatGPT heeft verwezen en of er geen inhoud is die lijkt op wat ChatGPT heeft gecre\u00eberd. Bij het citeren van auteursrechtelijk beschermd materiaal moet de bron duidelijk worden vermeld (beperkingen van rechten), en bij het herdrukken moet toestemming van de auteursrechthebbende worden verkregen, of het moet op een passende manier worden afgehandeld.<\/p>\n\n\n\n<p>Als een auteursrechthebbende een inbreuk op het auteursrecht aanwijst, kan dit leiden tot civiele aansprakelijkheid (schadevergoeding, smartengeld, verbod op gebruik, herstel van eer en goede naam, enz.) of strafrechtelijke aansprakelijkheid (klachtdelict).<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Incidenten_waarbij_vertrouwelijke_informatie_in_ChatGPT_werd_ingevoerd\"><\/span>Incidenten waarbij vertrouwelijke informatie in ChatGPT werd ingevoerd<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Op 30 maart 2023 (Reiwa 5) rapporteerde het Zuid-Koreaanse medium &#8216;EConomist&#8217; dat er drie incidenten hebben plaatsgevonden bij de halfgeleiderdivisie van Samsung Electronics, waarbij vertrouwelijke informatie werd ingevoerd in ChatGPT nadat het gebruik ervan was toegestaan.<\/p>\n\n\n\n<p>Hoewel Samsung Electronics waarschuwingen had gegeven over informatiebeveiliging binnen het bedrijf, waren er medewerkers die broncode verstuurden om om programma-aanpassingen te vragen (twee incidenten), of die inhoud van vergaderingen verstuurden voor het opstellen van notulen.<\/p>\n\n\n\n<p>Na deze incidenten heeft het bedrijf als noodmaatregel de uploadcapaciteit per vraag aan ChatGPT beperkt. Het bedrijf heeft ook aangegeven dat het de verbinding met ChatGPT zou kunnen verbreken als dergelijke incidenten zich opnieuw zouden voordoen.<\/p>\n\n\n\n<p>Daarnaast waarschuwen Walmart en Amazon hun medewerkers om geen vertrouwelijke informatie te delen via chatbots. Een advocaat van Amazon heeft aangegeven dat er al gevallen zijn waarbij de reacties van ChatGPT lijken op interne data van Amazon, wat suggereert dat de data mogelijk gebruikt is voor het trainen van het systeem.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Maatregelen_om_te_voorkomen_dat_vertrouwelijke_informatie_lekt_bij_het_gebruik_van_ChatGPT\"><\/span>Maatregelen om te voorkomen dat vertrouwelijke informatie lekt bij het gebruik van ChatGPT<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>OpenAI legt in hun gebruiksvoorwaarden en dergelijke uit dat ingevoerde gegevens gebruikt kunnen worden voor systeemverbeteringen en training, en zij adviseren om geen gevoelige informatie te versturen.<\/p>\n\n\n\n<p>In dit hoofdstuk introduceren we vier maatregelen, zowel op hardware- als softwaregebied, om het lekken van vertrouwelijke informatie te voorkomen bij het gebruik van ChatGPT.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Het_opstellen_van_richtlijnen_voor_intern_gebruik\"><\/span>Het opstellen van richtlijnen voor intern gebruik<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/monolith.law\/wp-content\/uploads\/2023\/11\/Shutterstock_2248359907.jpg\" alt=\"Het opstellen van richtlijnen voor intern gebruik\" class=\"wp-image-63125\" \/><\/figure>\n\n\n<p>Bij de implementatie van ChatGPT binnen een bedrijf is het niet alleen essentieel om de informatiebeveiligingskennis van individuele medewerkers te verhogen en interne reskilling te bevorderen, maar het is ook raadzaam om specifieke richtlijnen voor het gebruik van ChatGPT binnen uw eigen organisatie op te stellen.<\/p>\n\n\n\n<p>Op 1 mei 2023 (Reiwa 5) heeft de General Incorporated Association Japan Deep Learning Association (JDLA) de ethische, juridische en sociale vraagstukken (ELSI) rondom ChatGPT samengevat en de &#8216;Richtlijnen voor het gebruik van generatieve AI&#8217; gepubliceerd. Ook in de academische wereld en overheidssectoren wordt gestart met het overwegen van het opstellen van dergelijke richtlijnen.<\/p>\n\n\n\n<p>Door deze als referentie te gebruiken en de regels voor het gebruik van ChatGPT binnen uw eigen bedrijf in duidelijke richtlijnen vast te leggen, kunt u bepaalde risico&#8217;s vermijden.<\/p>\n\n\n\n<p>Referentie: General Incorporated Association Japan Deep Learning Association (JDLA) | <a href=\"https:\/\/www.jdla.org\/document\/#ai-guideline\" target=\"_blank\" rel=\"noreferrer noopener\">Richtlijnen voor het gebruik van generatieve AI[ja]<\/a><\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Het_implementeren_van_technologie_om_het_lekken_van_vertrouwelijke_informatie_te_voorkomen\"><\/span>Het implementeren van technologie om het lekken van vertrouwelijke informatie te voorkomen<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>Als maatregel om menselijke fouten die leiden tot het lekken van vertrouwelijke informatie te voorkomen, is het mogelijk om een systeem genaamd DLP (Data Loss Prevention) te implementeren. Dit systeem voorkomt het lekken van specifieke data en maakt het mogelijk om de verzending en het kopi\u00ebren van vertrouwelijke informatie te blokkeren.<\/p>\n\n\n\n<p>DLP houdt voortdurend toezicht op de ingevoerde data en heeft de functie om automatisch vertrouwelijke en belangrijke informatie te identificeren en te beschermen. Wanneer DLP gevoelige informatie detecteert, kan het systeem waarschuwingen geven of de actie blokkeren. Het maakt het mogelijk om interne informatielekken te voorkomen met beheersbare kosten, maar een geavanceerd begrip van beveiligingssystemen is vereist. Voor bedrijven zonder technische afdeling kan de soepele implementatie ervan een uitdaging zijn.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Overweging_van_de_implementatie_van_gespecialiseerde_tools\"><\/span>Overweging van de implementatie van gespecialiseerde tools<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>Sinds maart 2023 (Reiwa 5) is het mogelijk geworden om met behulp van de API (een afkorting voor &#8216;Application Programming Interface&#8217;, een interface die software, programma&#8217;s en webdiensten met elkaar verbindt) het lekken van gegevens die naar ChatGPT zijn verzonden, te voorkomen.<\/p>\n\n\n\n<p>Hoewel gegevens die via de API worden verzonden niet worden gebruikt voor leren of verbetering, worden ze voor &#8216;monitoring om misbruik of verkeerd gebruik te voorkomen&#8217; 30 dagen bewaard en daarna verwijderd volgens de nieuwe opslagvoorwaarden. Het is echter mogelijk dat de bewaartermijn van de gegevens wordt verlengd in geval van een &#8216;juridische aanvraag&#8217;.<\/p>\n\n\n\n<p>Zelfs als u ChatGPT instelt om het niet voor leren of verbetering te gebruiken, worden de gegevens voor een bepaalde periode op de server opgeslagen, dus in theorie bestaat er een risico op informatielekken. Daarom is het noodzakelijk om voorzichtig te zijn bij het invoeren van vertrouwelijke informatie of persoonsgegevens.<\/p>\n\n\n\n<p>Desalniettemin hecht OpenAI veel waarde aan de privacy van gebruikers en de veiligheid van hun gegevens en heeft strenge beveiligingsmaatregelen getroffen. Als u de dienst veiliger wilt gebruiken, wordt aanbevolen om &#8216;Azure OpenAI Service&#8217; te implementeren, een tool die geavanceerde beveiligingsmaatregelen mogelijk maakt.<\/p>\n\n\n\n<p>De &#8216;Azure OpenAI Service&#8217;, een tool die speciaal is ontworpen voor bedrijven, verzamelt geen gegevens die via de API naar ChatGPT zijn ingevoerd. Bovendien, als u zich afmeldt en uw aanvraag wordt goedgekeurd, kunt u in principe de 30 dagen bewaring en monitoring van invoergegevens weigeren, waardoor u het risico op informatielekken kunt vermijden.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Hoe_u_ervoor_kunt_zorgen_dat_ChatGPT_geen_gevoelige_informatie_leert_die_u_invoert\"><\/span>Hoe u ervoor kunt zorgen dat ChatGPT geen gevoelige informatie leert die u invoert<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Zoals eerder vermeld, leert ChatGPT alle content die is ingevoerd via opt-in, maar vanaf 25 april 2023 (2023\u5e744\u670825\u65e5) is er een functie beschikbaar waarmee u vooraf kunt kiezen voor opt-out.<\/p>\n\n\n\n<p>Als directe voorzorgsmaatregel moet u een &#8216;opt-out&#8217; aanvraag indienen als u niet wilt dat de gegevens die u in ChatGPT invoert worden gebruikt voor leren of verbetering. ChatGPT heeft een Google-formulier voor &#8216;opt-out&#8217; beschikbaar, dus het is aan te raden om deze procedure zeker te volgen. (Voer uw e-mailadres, organisatie-ID en organisatienaam in en verzend deze)<\/p>\n\n\n\n<p>Echter, zelfs in dit geval, zal OpenAI de ingevoerde gegevens voor een bepaalde periode (in principe 30 dagen) monitoren en worden ze op de server opgeslagen.<\/p>\n\n\n\n<blockquote class=\"wp-block-quote\">\n<p>Gebruiksvoorwaarden van ChatGPT<\/p>\n\n\n\n<p>3. Inhoud<\/p>\n\n\n\n<p>(c) Gebruik van inhoud om de dienst te verbeteren<\/p>\n\n\n\n<p>Wij gebruiken geen inhoud die u aan onze API levert of van onze API ontvangt (&#8220;API-inhoud&#8221;) om onze diensten te ontwikkelen of te verbeteren.<\/p>\n\n\n\n<p>Wij kunnen inhoud van diensten die niet onze API zijn (&#8220;Niet-API-inhoud&#8221;) gebruiken om onze diensten te ontwikkelen en te verbeteren.<\/p>\n\n\n\n<p>Als u niet wilt dat uw Niet-API-inhoud wordt gebruikt om diensten te verbeteren, kunt u zich afmelden door <a href=\"https:\/\/docs.google.com\/forms\/d\/e\/1FAIpQLScrnC-_A7JFs4LbIuzevQ_78hVERlNqqCPCt3d8XqnKOfdRdQ\/viewform\" target=\"_blank\" rel=\"noopener\" title=\"\">dit formulier<\/a> in te vullen. Let op dat dit in sommige gevallen de mogelijkheid van onze diensten kan beperken om uw specifieke gebruikssituatie beter aan te pakken.<\/p>\n<cite>Referentie: Offici\u00eble website van OpenAI | Gebruiksvoorwaarden van ChatGPT <a href=\"https:\/\/openai.com\/policies\/terms-of-use\" target=\"_blank\" rel=\"noopener\" title=\"\">https:\/\/openai.com\/policies\/terms-of-use<\/a><\/cite><\/blockquote>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Samenvatting_Essentiele_maatregelen_voor_het_gebruik_van_ChatGPT_in_het_bedrijfsleven_met_betrekking_tot_de_behandeling_van_vertrouwelijke_informatie\"><\/span>Samenvatting: Essenti\u00eble maatregelen voor het gebruik van ChatGPT in het bedrijfsleven met betrekking tot de behandeling van vertrouwelijke informatie<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Hierboven heb ik de risico&#8217;s van het lekken van vertrouwelijke informatie en de maatregelen die genomen moeten worden bij het gebruik van ChatGPT in het bedrijfsleven besproken, met voorbeelden ter illustratie.<\/p>\n\n\n\n<p>Bij het gebruik van snel evoluerende AI in het bedrijfsleven, zoals ChatGPT, is het onmisbaar om samen met experts maatregelen te treffen. Dit omvat het opstellen van richtlijnen voor intern gebruik, het beoordelen van de wettigheid van het bedrijfsmodel, het opstellen van contracten en gebruiksvoorwaarden, het beschermen van intellectuele eigendomsrechten en het omgaan met privacykwesties.<\/p>\n\n\n\n<p>Gerelateerd artikel: <a href=\"https:\/\/monolith.law\/corporate\/web3-law\" target=\"_blank\" rel=\"noreferrer noopener\">Wat is de wetgeving rondom Web3? Uitleg over de belangrijkste punten voor bedrijven die de markt betreden[ja]<\/a><\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Maatregelen_van_ons_kantoor\"><\/span>Maatregelen van ons kantoor<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Monolith Advocatenkantoor is een juridische firma met uitgebreide ervaring in IT, en in het bijzonder op het gebied van internet en recht. De AI-business brengt vele juridische risico&#8217;s met zich mee, en de ondersteuning van een advocaat die gespecialiseerd is in juridische kwesties rondom AI is onontbeerlijk.<\/p>\n\n\n\n<p>Ons kantoor biedt geavanceerde juridische ondersteuning voor AI-business, inclusief ChatGPT, door een team van AI-ge\u00efnformeerde advocaten en ingenieurs. We verzorgen contractopstelling, beoordeling van de wettelijkheid van bedrijfsmodellen, bescherming van intellectuele eigendomsrechten en privacykwesties. Meer details vindt u in het onderstaande artikel.<\/p>\n\n\n\n<p>Expertisegebieden van Monolith Advocatenkantoor: <a href=\"https:\/\/monolith.law\/artificial-intelligence\" target=\"_blank\" rel=\"noreferrer noopener\">AI (zoals ChatGPT) juridische zaken[ja]<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>De implementatie van ChatGPT binnen bedrijven vordert gestaag. Hoewel de bruikbaarheid ervan veel aandacht krijgt, zijn er enkele punten waarop we moeten letten. Een daarvan is dat je geen vertrouweli [&hellip;]<\/p>\n","protected":false},"author":32,"featured_media":71369,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[16],"tags":[19,51],"acf":[],"_links":{"self":[{"href":"https:\/\/monolith.law\/nl\/wp-json\/wp\/v2\/posts\/70906"}],"collection":[{"href":"https:\/\/monolith.law\/nl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/monolith.law\/nl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/monolith.law\/nl\/wp-json\/wp\/v2\/users\/32"}],"replies":[{"embeddable":true,"href":"https:\/\/monolith.law\/nl\/wp-json\/wp\/v2\/comments?post=70906"}],"version-history":[{"count":2,"href":"https:\/\/monolith.law\/nl\/wp-json\/wp\/v2\/posts\/70906\/revisions"}],"predecessor-version":[{"id":71370,"href":"https:\/\/monolith.law\/nl\/wp-json\/wp\/v2\/posts\/70906\/revisions\/71370"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/monolith.law\/nl\/wp-json\/wp\/v2\/media\/71369"}],"wp:attachment":[{"href":"https:\/\/monolith.law\/nl\/wp-json\/wp\/v2\/media?parent=70906"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/monolith.law\/nl\/wp-json\/wp\/v2\/categories?post=70906"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/monolith.law\/nl\/wp-json\/wp\/v2\/tags?post=70906"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}