Quels sont les risques liés à l'utilisation professionnelle de ChatGPT ? Explications sur les problèmes juridiques
Depuis sa sortie, ChatGPT a suscité une grande attention à travers le monde pour son utilité. Cependant, il est également devenu évident qu’il s’accompagne de divers risques. La législation est encore en cours d’élaboration, et il est vrai que de nombreux dirigeants se sentent inquiets quant aux risques liés à l’utilisation de ChatGPT dans les affaires, ainsi que sur les méthodes pour se prémunir contre ces risques.
Cet article explique les risques juridiques liés à l’utilisation de ChatGPT dans le cadre professionnel et les mesures à prendre pour y faire face.
Les 4 risques liés à l’utilisation professionnelle de ChatGPT
En entreprise, l’utilisation de l’IA de génération de langage naturel ChatGPT progresse, et le taux d’adoption par les entreprises pour l’année fiscale 2022 est de 13,5 %, ce chiffre atteignant 24,0 % si l’on inclut les entreprises prévoyant de l’adopter. (Source : Ministère des Affaires intérieures et des Communications | Livre blanc sur l’information et la communication de l’année Reiwa 5 (2023) – Enquête sur les tendances d’utilisation des communications « Situation de l’adoption des systèmes et services IoT & AI, etc. en entreprise[ja] »)
Il est vrai que les technologies IA, y compris ChatGPT, sont efficaces pour améliorer l’efficacité opérationnelle des entreprises et peuvent offrir de nombreuses opportunités commerciales. Cependant, elles s’accompagnent également de nombreux risques juridiques. Par conséquent, il est nécessaire de bien comprendre ces risques avant de décider de les utiliser à des fins professionnelles.
Par exemple, des experts tirent la sonnette d’alarme concernant les risques potentiels de l’IA, tels que les problèmes de droits d’auteur, la diffusion de fausses informations, la fuite d’informations confidentielles, les problèmes de confidentialité et l’utilisation malveillante dans des cyberattaques.
Ce chapitre expliquera les quatre risques associés à l’utilisation professionnelle de ChatGPT.
Risque de fuite d’informations dû aux fonctionnalités d’apprentissage
Bien que ChatGPT soit pratique, c’est un chatbot IA généré par l’apprentissage de diverses données sur Internet, et sans mesures appropriées, les informations saisies peuvent être utilisées pour l’apprentissage et ainsi risquer de fuir.
Selon la politique d’utilisation des données d’OpenAI, à moins que l’utilisateur ne passe par l’API de ChatGPT ou ne fasse une demande d’« opt-out », les données saisies dans ChatGPT peuvent être collectées et utilisées (apprentissage) par OpenAI.
Il est essentiel de ne pas saisir d’informations personnelles ou confidentielles, telles que des données à caractère secret, sans avoir pris de mesures de protection. Même si des informations personnelles sont saisies par erreur dans ChatGPT, un message d’avertissement s’affiche et ChatGPT est conçu pour ne pas stocker ni suivre les informations personnelles et ne pas les restituer dans le chat.
Cependant, il y a eu des cas où, en raison de bugs dans le système d’OpenAI qui gère ChatGPT, des informations personnelles enregistrées par les utilisateurs ont été divulguées.
Article connexe : Quels sont les risques de fuite d’informations avec ChatGPT ? Présentation de quatre mesures à prendre[ja]
Le risque lié au manque de fiabilité de l’information
Depuis mai 2023, la fonction de navigation web de ChatGPT a été implémentée, dotant ChatGPT d’une capacité de recherche, lui permettant de collecter les informations les plus récentes et de répondre en fonction des résultats obtenus.
Cependant, bien que ChatGPT présente ses réponses comme si elles étaient véridiques, leur fiabilité n’est pas garantie. Les réponses générées par ChatGPT ne sont pas nécessairement basées sur l’exactitude des données d’apprentissage, mais sont plutôt produites en tant que textes jugés les plus probables. Par conséquent, il est indispensable de procéder à une vérification des faits des réponses de ChatGPT. Si jamais une entreprise diffuse des informations fausses basées sur les réponses de ChatGPT, sa crédibilité pourrait être sérieusement compromise.
Le 3 avril 2023, l’Université de Tokyo a exprimé ses préoccupations quant aux impacts futurs de cette technologie sur la société, en raison des défis techniques associés à ChatGPT, et a publié la déclaration suivante :
« Le principe de ChatGPT repose sur la création de textes vraisemblables par le biais de l’apprentissage machine et de l’apprentissage par renforcement à partir d’un grand volume de textes et de contenus existants. Par conséquent, il est possible que les contenus générés contiennent des mensonges. Cela revient à converser avec une personne qui semble très éloquente mais qui prétend savoir des choses sans réellement les connaître. (Cependant, il faut noter que la dernière version, GPT-4, est nettement plus précise et constitue un interlocuteur assez compétent.) Pour maîtriser ChatGPT, il est nécessaire de posséder des connaissances spécialisées, de vérifier les réponses de manière critique et de les corriger si besoin. De plus, il ne peut pas analyser ou décrire de nouvelles connaissances qui ne figurent pas dans les informations existantes. En d’autres termes, l’arrivée de ChatGPT ne signifie pas que les humains peuvent se permettre de négliger leurs études ou leurs recherches. Néanmoins, si une personne cultivée et dotée de connaissances spécialisées analyse de manière critique les réponses et les utilise habilement, il est possible d’améliorer considérablement l’efficacité des tâches routinières. » a souligné l’université.
Source : Université de Tokyo | « À propos de l’IA générative (ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion, etc.)[ja] »
Risques juridiques tels que la violation du droit d’auteur et de la vie privée
La détermination d’une violation du droit d’auteur sur ChatGPT se divise entre les phases de « développement et d’apprentissage de l’IA » et de « génération et utilisation ». Les actes d’utilisation des œuvres protégées diffèrent à chaque étape, tout comme les articles de la loi sur le droit d’auteur. Il est donc nécessaire de considérer ces deux aspects séparément.
La loi révisée sur le droit d’auteur, entrée en vigueur en janvier 2019, a introduit une nouvelle disposition limitant les droits, l’article 30-4, concernant la phase de « développement et d’apprentissage de l’IA ». Les actes d’utilisation d’œuvres protégées, tels que l’analyse de l’information pour le développement de l’IA, qui ne visent pas à jouir des idées ou des sentiments exprimés dans ces œuvres, peuvent être effectués sans l’autorisation du titulaire du droit d’auteur, en principe.
En revanche, si les contenus générés par ChatGPT présentent une similitude ou une dépendance (modification) avec des œuvres protégées, cela peut constituer une violation du droit d’auteur. Avant de publier, il est donc crucial de vérifier les droits des informations auxquelles ChatGPT a fait référence et de s’assurer qu’il n’y a pas de contenu similaire à ce qui a été créé par ChatGPT. En outre, lorsqu’on cite une œuvre, il faut indiquer la source (disposition limitant les droits), et lorsqu’on la reproduit, il faut obtenir l’autorisation du titulaire du droit d’auteur pour la traiter correctement.
Selon les conditions d’utilisation d’OpenAI, le contenu créé par ChatGPT peut être utilisé à des fins commerciales. Cependant, si vous avez des difficultés à déterminer si le contenu créé à l’aide de ChatGPT viole le droit d’auteur, il est recommandé de consulter un expert.
Si un titulaire de droit d’auteur signale une violation, vous pourriez être tenu responsable au civil (dommages-intérêts, compensation morale, injonction d’utilisation, réhabilitation de la réputation, etc.) ou au pénal (délit sur plainte). Pour les entreprises, des sanctions pénales peuvent être appliquées à la fois aux individus et aux personnes morales en vertu des dispositions sur les peines doubles, ce qui peut entraîner des dommages considérables.
Concernant les informations personnelles et la vie privée, il est également nécessaire de faire attention à ne pas les saisir dans ChatGPT. Comme mentionné précédemment, même si des informations personnelles sont accidentellement entrées dans ChatGPT, le système est conçu pour ne pas stocker ni suivre ces informations et ne pas les restituer dans le chat. Cependant, cela dépend de la politique d’OpenAI et peut différer sur d’autres plateformes ou services.
Pour plus d’informations sur les risques de fuite d’informations personnelles, veuillez lire l’article suivant.
Article connexe : Le risque de fuite d’informations personnelles d’entreprise et la compensation des dommages[ja]
Le risque de créer involontairement du contenu nuisible
En fonction du contenu des données apprises par ChatGPT et du contenu des prompts, il existe un risque de création de contenu nuisible. Si le contenu créé par ChatGPT est publié sans vérification, cela peut nuire à la réputation et à la valeur de la marque de l’entreprise, et peut également conduire à des problèmes juridiques.
Bien que le contenu nuisible soit configuré pour ne pas être généré ou traité par ChatGPT, il est difficile de distinguer certains éléments tels que les codes de programmes malveillants ou les services frauduleux, qui peuvent être générés par erreur. Compte tenu de ces risques, il est essentiel de mettre en place un système de vérification systématique du contenu produit.
Comprendre les conditions d’utilisation pour éviter les risques liés à l’utilisation de ChatGPT
Lors de l’utilisation de ChatGPT à des fins commerciales, il est essentiel d’éviter les risques en utilisant le service conformément aux conditions d’utilisation et à la politique de confidentialité d’OpenAI. Les conditions d’utilisation sont fréquemment mises à jour, il est donc nécessaire de vérifier les modifications et de se tenir informé des dernières conditions lors de l’utilisation dans un contexte professionnel.
Article connexe : Explication des conditions d’utilisation d’OpenAI, quels sont les points d’attention pour un usage commercial ?[ja]
Ce qu’il faut pour éviter les risques liés à l’utilisation professionnelle de ChatGPT
Pour éviter les risques associés à ChatGPT et l’utiliser correctement en entreprise, il est nécessaire de mettre en place le système de gouvernance suivant.
Créer des règles internes
Le 1er mai 2023 (Reiwa 5), l’Association Japonaise d’Apprentissage Profond (JDLA) a compilé les enjeux éthiques, légaux et sociaux (ELSI) de ChatGPT et a publié les “Lignes directrices pour l’utilisation de l’IA générative”. Dans les secteurs de l’industrie, de l’académie et du gouvernement, l’élaboration de lignes directrices est également en cours d’examen.
Lors de l’introduction de ChatGPT dans une entreprise, il est essentiel d’améliorer la littératie en matière de sécurité de l’information des individus et de fournir une formation interne, mais il est souhaitable de développer des lignes directrices propres à l’utilisation de ChatGPT par l’entreprise. En établissant et en diffusant largement des lignes directrices qui codifient les règles d’utilisation de ChatGPT de l’entreprise, il est possible d’espérer une certaine prévention des risques.
Référence : Association Japonaise d’Apprentissage Profond (JDLA) | “Lignes directrices pour l’utilisation de l’IA générative[ja]“
Mettre en place un superviseur pour l’utilisation de ChatGPT
Il est également efficace de désigner un superviseur au sein de l’entreprise pour surveiller constamment l’application des lignes directrices et gérer les risques liés à l’utilisation de ChatGPT.
Surveiller le comportement de ChatGPT, corriger les résultats générés et gérer les données sont des tâches d’audit qui s’apparentent généralement à un audit de système. L’audit de système vise à évaluer objectivement l’efficacité, la sécurité et la fiabilité d’un système d’information, dans le but de faciliter l’efficience opérationnelle et de soutenir la transformation organisationnelle. En désignant un superviseur pour effectuer l’audit, il est également possible de renforcer la transparence et la responsabilité liées à l’exploitation.
Résumé : Des mesures de prévention des risques sont essentielles pour l’utilisation professionnelle de ChatGPT
Nous avons ici détaillé les risques associés à l’utilisation professionnelle de ChatGPT et les mesures pour les prévenir.
L’intégration d’une IA en évolution rapide comme ChatGPT dans les affaires nécessite une série de mesures préventives allant de l’établissement de directives internes à l’examen de la légalité des modèles d’affaires, en passant par la rédaction de contrats et de conditions d’utilisation, la protection des droits de propriété intellectuelle et la conformité en matière de vie privée. Il est indispensable de collaborer avec des experts en droit et en technologie de l’IA pour naviguer à travers ces divers risques juridiques.
Présentation des mesures proposées par notre cabinet
Le cabinet Monolith est un cabinet d’avocats riche d’une expérience considérable dans les domaines de l’IT, et plus particulièrement d’Internet et du droit. Les affaires liées à l’IA comportent de nombreux risques juridiques, et le soutien d’avocats spécialisés dans les problématiques légales de l’IA est absolument essentiel.
Notre cabinet propose un soutien juridique varié pour les entreprises impliquées dans les affaires d’IA, y compris ChatGPT, grâce à une équipe composée d’avocats spécialisés en IA et d’ingénieurs. Vous trouverez plus de détails dans l’article ci-dessous.
Domaines de compétence du cabinet Monolith : Droit de l’IA (y compris ChatGPT)[ja]
Category: IT
Tag: ITTerms of Use