Quel est l'état actuel des lois réglementant l'IA ? Comparaison entre le Japon et l'UE et points clés des stratégies à adopter
Des IA génératives telles que ChatGPT sont devenues un phénomène majeur. Ces IA, désormais intégrées dans le monde des affaires, sont considérées comme les pionnières de la « quatrième vague de l’IA ». En parallèle, un cadre juridique international pour réguler l’IA est en cours d’élaboration.
Cet article aborde les lois relatives à l’IA, en se concentrant sur la gestion appropriée des droits de propriété intellectuelle, des informations personnelles et d’autres données confidentielles.
Définition et histoire de l’IA (Intelligence Artificielle)
L’IA (intelligence artificielle) désigne l’intelligence artificielle. D’un point de vue légal, il n’existe pas de définition stricte, et diverses définitions ont été proposées. Voici quelques exemples.
Source | Définition / Explication |
« Kōjien » | Un système informatique doté de fonctions intellectuelles telles que le raisonnement et le jugement. |
« Encyclopédie Britannica » | Science et technologie > Ordinateur & IA. La capacité (aptitude) des ordinateurs numériques ou des robots informatiques à exécuter des tâches liées à des êtres intelligents. |
Article de l’Association japonaise d’intelligence artificielle « L’IA comme connaissance générale » | La réponse à la question « Qu’est-ce que l’IA ? » n’est pas simple. Même parmi les experts en IA, il existe un large débat, au point qu’il pourrait remplir un livre entier tant les opinions divergent. Cependant, en trouvant un terrain d’entente, on pourrait le résumer en une phrase : « La technologie qui réalise mécaniquement le même travail intellectuel que les humains ». |
Article académique « Apprentissage profond et intelligence artificielle » | L’IA est un domaine d’étude qui tente de comprendre de manière constructive les mécanismes de l’intelligence humaine. |
Article académique « Vers une société idéale avec l’intelligence artificielle » | L’IA et les technologies de l’information sont avant tout des outils. |
L’IA est également décrite comme un ensemble de technologies, de logiciels, de systèmes informatiques et d’algorithmes qui reproduisent les capacités intellectuelles humaines sur ordinateur.
En tant que principaux types d’IA spécialisée, on peut citer :
- Traitement du langage naturel (traduction automatique, analyse syntaxique, analyse morphologique, RNN, etc.)
- Systèmes experts imitant le raisonnement et les décisions des experts
- Reconnaissance d’images et de voix, qui détectent et extraient des motifs spécifiques à partir de données
Le domaine de l’IA, depuis les débuts de l’informatique dans les années 1950, a continué à être exploré et développé. La première vague d’enthousiasme pour l’IA a duré jusqu’aux années 1970 avec des recherches sur « l’exploration et le raisonnement », et la deuxième vague dans les années 1980 avec des recherches sur « la représentation de la connaissance » a vu naître les systèmes experts, marquant deux périodes de boom distinctes.
Avec l’arrivée du Big Data dans les années 2000 et la reconnaissance mondiale de l’utilité de l’apprentissage profond (deep learning) dans le traitement d’images suite à l’apparition d’Alexnet en 2012, la recherche s’est intensifiée rapidement, menant à la troisième vague d’enthousiasme pour l’IA.
Entre 2016 et 2017, des IA intégrant l’apprentissage profond et l’apprentissage par renforcement (Q-learning, méthode de gradient de politique) ont fait leur apparition.
La principale révolution de la troisième vague d’enthousiasme pour l’IA réside dans le traitement du langage naturel et le traitement d’images par capteurs, mais elle a également eu un impact significatif sur les domaines du développement technologique, de la sociologie, de l’éthique et de l’économie.
Le 30 novembre 2022, le lancement par OpenAI de ChatGPT, une IA générative de traitement du langage naturel, a attiré l’attention en tant qu’outil polyvalent, dynamisant le business des IA génératives. Certains appellent ce phénomène social la quatrième vague d’enthousiasme pour l’IA.
Scènes d’affaires où il faut vérifier les lois relatives à l’IA
L’IA générative, une forme d’intelligence artificielle, est certes un outil utile, mais elle comporte des risques tels que la diffusion de fausses informations, la facilitation de crimes et, parfois, des menaces à la démocratie.
Ces risques associés à l’IA sont désormais des défis incontournables. Nous expliquerons donc les scènes d’affaires où il est nécessaire de vérifier les régulations légales, du point de vue des utilisateurs et des fournisseurs.
Utilisation de l’IA générative de texte
Depuis le lancement de ChatGPT en novembre 2022, l’IA générative de texte a été saluée mondialement comme un outil polyvalent capable de gérer des demandes complexes, offrant ainsi une amélioration de l’efficacité du travail et un excellent rapport coût-performance.
En même temps, les risques associés à l’utilisation de l’IA générative de texte sont devenus connus. Il est essentiel de prendre en compte quels risques existent et quelles lois doivent être respectées pour les éviter.
ChatGPT, représentant de l’IA générative de texte, comporte le risque de fuite des informations (prompts) saisies par les utilisateurs si aucune mesure n’est prise. ChatGPT a la capacité de collecter, stocker et utiliser ces prompts, ce qui pose un risque de fuite d’informations confidentielles personnelles ou d’entreprise, ainsi que des informations secrètes obtenues par des accords de non-divulgation (NDA).
De plus, ChatGPT présente des risques spécifiques tels que la production et la diffusion de fausses informations (hallucinations), les violations de droits d’auteur, entre autres. Par conséquent, il est indispensable de vérifier les faits des contenus produits.
Utilisation de l’IA générative d’images
Lors de l’utilisation de l’IA générative d’images dans les affaires, il est crucial de garder à l’esprit le risque de violation des droits d’auteur.
Les droits d’auteur des images et des textes générés par ChatGPT ou similaires appartiennent généralement à l’utilisateur qui les a créés. Selon OpenAI, les utilisateurs peuvent utiliser ChatGPT et similaires à toutes fins (y compris commerciales).
Cependant, l’utilisation nécessite une attention particulière aux points suivants :
Les données d’apprentissage de ChatGPT incluent une grande quantité de contenus disponibles sur Internet, et la plupart de ces contenus sont protégés par des droits d’auteur (textes, images, musiques, vidéos, etc.). Par conséquent, les contenus générés peuvent potentiellement violer les droits d’auteur d’autrui.
Développement de l’IA et fourniture de services d’IA générative
L’activité liée à l’IA implique diverses lois, et à l’échelle mondiale, le cadre juridique est en cours de développement. Il est donc nécessaire d’adopter une attitude flexible pour se conformer aux lois existantes tout en s’adaptant aux nouvelles législations.
Dans le chapitre suivant, nous expliquerons les lois japonaises relatives à l’IA et le premier règlement international sur l’IA, le « Règlement sur l’IA » de l’UE, adopté en décembre 2023.
Les lois japonaises sur l’IA
Actuellement au Japon, l’IA n’est pas réglementée par des lois contraignantes mais est plutôt gérée par l’autorégulation. Cet article explique les lois actuelles à prendre en compte lors de l’utilisation de l’IA.
Référence : Ministère de l’Économie, du Commerce et de l’Industrie | « Lignes directrices de gouvernance pour la mise en pratique des principes de l’IA ver. 1.1 »[ja]
Loi sur le droit d’auteur
En janvier 2019 (ère Heisei 31), la « Loi révisée sur le droit d’auteur » a été promulguée, introduisant une nouvelle exception à la restriction des droits (article 30-4, paragraphe 1, point 2) pour « l’analyse d’informations ». Les actes d’utilisation qui ne visent pas à jouir des pensées ou des sentiments exprimés dans les œuvres, tels que l’analyse d’informations pour le développement et l’apprentissage de l’IA, peuvent désormais être effectués sans l’autorisation du détenteur du droit d’auteur.
Cette révision a établi une définition de « l’analyse d’informations », clarifiant que l’apprentissage profond et l’apprentissage automatique de l’IA sont inclus dans cette définition.
Le cas d’utilisation pour l’analyse d’informations (extraction d’informations relatives au langage, au son, à l’image ou à d’autres éléments constituant de nombreuses œuvres ou autres informations en grande quantité, et leur comparaison, classification ou autre analyse)
Loi sur le droit d’auteur, article 30-4, paragraphe 1, point 2
Cependant, il est important de noter que les œuvres créées à l’aide de l’IA qui présentent une similarité ou une dépendance à l’égard d’autres œuvres peuvent constituer une violation du droit d’auteur.
De plus, l’entrée d’une œuvre dans ChatGPT comme invite peut également enfreindre le droit de reproduction, entre autres. L’utilisation de l’IA générative pour modifier l’œuvre d’autrui peut également entraîner une violation du droit de transformation.
Selon les conditions d’utilisation d’OpenAI, les droits sur le contenu créé par ChatGPT appartiennent à l’utilisateur et son utilisation commerciale est possible. Cependant, en cas de difficulté à déterminer si le contenu constitue une violation du droit d’auteur, il est recommandé de consulter un expert.
En cas de réclamation pour violation du droit d’auteur par le détenteur des droits, vous pourriez être tenu responsable au civil (injonction d’utilisation, dommages-intérêts, compensation morale, réhabilitation de la réputation, etc.) ou au pénal.
Loi sur la prévention de la concurrence déloyale
Le 1er juillet 2019 (ère Heisei 31), la loi révisée sur la prévention de la concurrence déloyale a été promulguée. Auparavant, il était difficile de prévenir la concurrence déloyale pour les objets qui n’étaient pas protégés par le droit des brevets ou le droit d’auteur, ou qui ne correspondaient pas aux « secrets d’affaires » de la loi sur la prévention de la concurrence déloyale.
Cette révision a donc introduit des mesures civiles (droit à l’injonction, estimation des dommages-intérêts, etc.) contre les actes malveillants tels que l’acquisition ou l’utilisation illégale de données de valeur limitée.
La législation de l’UE sur l’utilisation de l’IA
Le système juridique de l’UE se compose de trois parties : le droit primaire (les traités), le droit dérivé (la législation de l’UE) et la jurisprudence. Le droit dérivé, basé sur le droit primaire (les traités), comprend les actes législatifs qui lient directement ou indirectement les États membres au sein de l’UE et est appelé droit de l’UE (droit dérivé). Il existe principalement cinq types de droit dérivé, mais la « loi sur la régulation de l’IA » de l’UE correspond à un règlement (Regulation), ce qui constitue une règle unifiée qui lie directement les États membres de l’UE.
En revanche, une directive (Directive) impose aux États membres de l’UE une obligation légale indirecte, en les obligeant à légiférer ou à modifier leur législation nationale pour mettre en œuvre le contenu de la directive. Le délai est généralement de trois ans après sa publication dans le Journal officiel de l’UE.
Article connexe : Un must pour les entreprises se développant en Europe : Points clés sur le système juridique et les lois de l’UE[ja]
Ce chapitre explique les dernières tendances concernant les réglementations juridiques liées à l’utilisation de l’IA dans l’UE, en se concentrant sur les « directives » et les « règlements ».
Projet de directive sur la responsabilité en matière d’IA
Le 28 septembre 2022, la Commission européenne a publié le “Projet de directive sur la responsabilité en matière d’IA” ainsi qu’une proposition de révision de la “Directive sur la responsabilité du fait des produits”. Ces documents établissent les règles concernant la responsabilité légale des entreprises d’IA dans l’UE (Union européenne), conformément au “Règlement sur l’IA”, constituant un cadre juridique important. Ils seront soumis à la “Directive sur les actions collectives” de l’UE, applicable à partir de juin 2023, ce qui signifie que les entreprises japonaises concernées doivent également comprendre leur contenu.
Cela représente un changement significatif dans les règles de responsabilité civile pour les logiciels, y compris les systèmes d’IA, dans l’UE, adaptées à l’économie circulaire de l’ère numérique et aux chaînes de valeur mondiales.
Article connexe : Quel est l’état actuel et les perspectives de la réglementation de l’IA dans l’UE ? Impact sur les entreprises japonaises expliqué[ja]
L’objectif du “Projet de directive sur la responsabilité en matière d’IA” est de définir les règles de responsabilité civile basées sur des causes extracontractuelles pour les dommages causés par les systèmes d’IA, afin d’améliorer le fonctionnement du marché intérieur de l’UE.
En d’autres termes, il est nécessaire de noter que les dommages couverts ne se limitent pas à ceux découlant d’une sécurité insuffisante relevant de la “Directive sur la responsabilité du fait des produits”, mais incluent également les dommages causés par négligence (comme la responsabilité délictuelle), qui ne sont pas couverts par la responsabilité contractuelle (responsabilité pour non-exécution des obligations contractuelles et responsabilité pour défaut de conformité).
Par exemple, les dommages résultant de discriminations par des systèmes de recrutement basés sur l’IA sont également envisagés comme étant couverts.
Ce projet de directive vise à alléger le fardeau de la preuve pour les entreprises développant des “systèmes d’IA à haut risque” définis dans le “Règlement sur l’IA”, afin de traiter le problème de la boîte noire de l’IA, en introduisant des mesures telles que la “présomption de causalité” et un “système de divulgation des preuves”.
En cas de non-respect de l’ordre de divulgation des preuves, le “Projet de directive sur la responsabilité en matière d’IA” prévoit de présumer une violation du devoir de diligence et la causalité, tandis que la proposition de révision de la “Directive sur la responsabilité du fait des produits” prévoit de présumer un défaut et la causalité, imposant des sanctions plus sévères que celles du droit japonais de procédure civile pour assurer la conformité.
Ce projet de directive est limité, dans sa première phase, à l’allègement du fardeau de la preuve lié à l’opacité des systèmes d’IA, et introduit de nouvelles dispositions concernant l’éligibilité à agir en justice, la divulgation des preuves, la conservation des preuves et la présomption de causalité, en définissant chaque exigence.
La deuxième phase prévoit une révision et une évaluation. La Commission européenne mettra en place un programme de surveillance pour examiner les informations sur les incidents, évaluer la pertinence et la nécessité d’imposer une responsabilité sans faute (responsabilité stricte) aux entreprises exploitant des systèmes d’IA à haut risque, ainsi que la nécessité d’introduire une assurance obligatoire, et rapportera au Conseil européen et au Parlement européen, entre autres.
Projet de révision de la Directive sur la responsabilité du fait des produits
La “Directive sur la responsabilité du fait des produits” est une loi de l’UE adoptée en 1985 pour protéger les consommateurs, définissant la responsabilité des fabricants en cas de dommages causés par des produits défectueux.
Dans le projet de révision, le champ d’application de la responsabilité du fait des produits est étendu pour inclure désormais le “logiciel” comme un “produit”, et si un système d’IA, qui est une forme de logiciel, présente un “défaut”, la responsabilité sans faute s’appliquera à l’opérateur du système d’IA. De plus, la capacité d’apprentissage continu après installation et les mises à jour logicielles sont ajoutées comme nouveaux critères pour juger de la présence de “défauts”.
En vertu de la loi japonaise actuelle sur la responsabilité du fait des produits, le logiciel n’est généralement pas considéré comme un bien meuble, et donc ne rentre pas dans la catégorie des “produits” couverts par la loi. Cependant, cette révision propose de modifier la conception de ce qui constitue un “produit”. Elle introduit également des “mesures d’allègement de la charge de la preuve”, ce qui pourrait avoir un impact significatif sur les logiciels, y compris les systèmes d’IA et les produits de haute technologie.
Loi sur la régulation de l’IA
La “Loi sur la régulation de l’IA (AI Act)” est un ensemble de règles unifiées de l’UE (législation secondaire) destiné aux entreprises d’IA, comprenant 85 articles. Il s’agit de la première loi internationale régulant l’IA, adoptée le 9 décembre 2023 (2023) suite à un accord provisoire entre la Commission européenne, le Parlement européen et le Conseil européen. Son entrée en vigueur et son application intégrale sont prévues pour 2024.
Cette loi constitue le cœur de la stratégie numérique de l’UE connue sous le nom de “A Europe fit for the Digital Age” (Une Europe adaptée à l’ère numérique), visant à répondre aux nouveaux défis et risques de l’ère numérique en évolution. Elle garantit la sécurité de l’IA et les droits fondamentaux, et fait partie d’un vaste ensemble de mesures sur l’IA visant à renforcer les efforts, les investissements et l’innovation en matière d’IA dans toute l’UE.
La “Loi sur la régulation de l’IA” de l’UE s’applique directement aux États membres de l’UE ainsi qu’aux entreprises opérant au sein de l’UE, y compris celles basées à l’étranger, par application transfrontalière.
En cas de violation, des sanctions financières considérables peuvent être imposées, basées sur le chiffre d’affaires mondial (jusqu’à 30 millions d’euros, soit environ 4,7 milliards de yens, ou 6 % du chiffre d’affaires mondial, selon le montant le plus élevé), risquant de rendre impossible la conduite d’activités liées à l’IA dans l’UE.
Par conséquent, les entreprises, y compris celles du Japon, qui ont déjà intégré l’IA sur le marché de l’UE ou envisagent de pénétrer le marché de l’UE, doivent se conformer à la nouvelle réglementation européenne sur l’IA.
La “Loi sur la régulation de l’IA” repose principalement sur trois caractéristiques : la classification des IA basée sur le risque, les exigences et obligations, et le soutien à l’innovation.
Les entités réglementées incluent les entreprises qui ciblent le marché européen avec des systèmes et services d’IA, y compris les développeurs, les déploiements, les fournisseurs, les importateurs, les vendeurs et les utilisateurs d’IA.
Les niveaux de risque de l’IA sont catégorisés en quatre étapes, avec des régulations applicables en fonction de ces niveaux. Pour atteindre les principes de l’IA, il est essentiel de garantir la littératie en IA des développeurs, utilisateurs et fournisseurs d’IA, comme le stipule clairement la directive. Pour plus de détails, veuillez consulter l’article connexe.
Article connexe : Quel est l’état actuel et les perspectives de la loi sur la régulation de l’IA dans l’UE ? Impact sur les entreprises japonaises expliqué[ja]
Points à considérer dans la législation relative à l’IA
Ce chapitre explique principalement les points à prendre en compte sur le plan légal lorsque les entreprises souhaitent utiliser l’IA générative.
Sur les droits d’auteur des œuvres créées par l’IA
Concernant les œuvres générées par l’IA générative, les points juridiques suivants peuvent être envisagés :
- Si l’œuvre viole ou non les droits d’auteur
- Si les œuvres générées par l’IA générative peuvent être reconnues comme ayant des droits d’auteur
Comme mentionné précédemment, si les œuvres générées par ChatGPT présentent des similitudes ou dépendances avec des œuvres protégées par le droit d’auteur, cela peut constituer une violation des droits d’auteur. D’autre part, les œuvres créées par l’IA générative peuvent-elles être reconnues comme ayant des droits d’auteur ?
Selon la loi sur les droits d’auteur, une “œuvre” est définie comme “une expression créative de pensées ou de sentiments”. Comme l’IA ne possède ni pensées ni sentiments, certains estiment que les contenus créés par l’IA générative ne peuvent pas être protégés par le droit d’auteur.
En revanche, le processus de génération de contenu par l’IA peut être considéré comme une boîte noire pour l’utilisateur, rendant difficile la production de contenu conforme aux attentes par l’IA. Cependant, si l’ingéniosité de l’utilisateur est reconnue au stade de la saisie des prompts, il peut être considéré que les “pensées ou sentiments” de l’utilisateur ont été “exprimés de manière créative” par l’IA générative, et dans ce cas, les droits d’auteur peuvent être reconnus.
Sur le traitement des données personnelles lors de l’utilisation de l’IA
Lors de l’utilisation de l’IA, il est nécessaire de faire attention à la possibilité de violer la loi sur la protection des données personnelles. Il est nécessaire de prendre des mesures telles que ne pas entrer d’informations personnelles ou privées.
Si des informations personnelles sont saisies dans les prompts, cela peut constituer une fourniture de données personnelles à des tiers par le fournisseur de services. En principe, le consentement de la personne concernée est nécessaire pour fournir des informations personnelles à des tiers, donc en l’absence de consentement, cela peut constituer une violation de la loi sur la protection des données personnelles.
Avec ChatGPT, même si des informations personnelles sont accidentellement saisies, un mécanisme empêche leur affichage dans le chat. Cela est dû à la politique d’OpenAI, qui ne stocke ni ne suit les informations personnelles. Cependant, il est important de noter que cela peut varier avec d’autres services ou plateformes.
Mesures de gestion des risques pour les entreprises impliquées dans l’IA
Les mesures de gestion des risques varient selon la stratégie commerciale de l’entreprise, l’objectif d’utilisation de l’IA et les réglementations applicables. Il est donc crucial d’adopter des mesures de gestion des risques adaptées à la situation et aux objectifs.
Pour minimiser les risques liés à l’utilisation de l’IA générative, les entreprises devraient prendre en compte les points suivants :
- Formation des talents : L’utilisation appropriée de l’IA générative nécessite des connaissances et des compétences spécialisées. Il est important de faire comprendre aux employés la manière appropriée de l’utiliser à travers l’éducation et la formation.
- Élaboration, introduction et gestion des directives internes : La mise en place de directives internes concernant l’utilisation de l’IA générative et leur respect par les employés peuvent réduire les risques.
- Création d’une organisation pour promouvoir l’utilisation et la gestion des risques de l’IA générative : Il est efficace de créer une organisation pour promouvoir l’utilisation de l’IA générative et de placer une équipe en charge de la gestion des risques au sein de cette organisation.
- Introduction du système : Pour une introduction appropriée de l’IA générative, il est nécessaire de sélectionner et de concevoir soigneusement le système.
De plus, les risques associés à l’utilisation de l’IA générative sont diversifiés, incluant la fuite d’informations, l’atteinte aux droits et à la vie privée, les préoccupations concernant l’exactitude et la sécurité des informations, ainsi que les risques de biais. Pour éviter ces risques, il est essentiel d’introduire un cadre de gouvernance et de gestion des risques approprié.
Article connexe : « Les risques liés à l’introduction de ChatGPT dans les entreprises : explications sur les fuites d’informations confidentielles et les mesures à prendre »[ja]
Résumé : La législation sur l’IA est en cours de développement, une mise à jour est nécessaire
La législation concernant les affaires d’IA, y compris la première loi internationale sur la régulation de l’IA dans l’UE (adoptée le 9 décembre 2023), est en phase de développement. Par conséquent, il est demandé aux entreprises de respecter les lois existantes tout en adoptant une approche flexible face aux nouvelles législations.
Au Japon, il n’existe pas encore de loi régulant directement l’IA, mais il est essentiel de bien comprendre et de se conformer aux lois connexes telles que la loi sur le droit d’auteur, la loi sur la protection des données personnelles et la loi sur la prévention de la concurrence déloyale. De plus, il est nécessaire de surveiller attentivement les tendances des révisions futures de ces lois et de réagir rapidement.
Présentation des mesures prises par notre cabinet
Le cabinet d’avocats Monolith se distingue par son expérience riche et approfondie dans le domaine de l’IT, et plus particulièrement d’Internet et du droit. Les affaires liées à l’IA comportent de nombreux risques juridiques, rendant indispensable le soutien d’avocats spécialisés dans les problématiques juridiques liées à l’IA.
Notre cabinet propose un soutien juridique avancé pour les entreprises d’IA, y compris ChatGPT, grâce à une équipe composée d’avocats spécialisés en IA et d’ingénieurs. Nous offrons une gamme de services tels que la rédaction de contrats, l’évaluation de la légalité des modèles d’affaires, la protection des droits de propriété intellectuelle et la gestion de la confidentialité. Vous trouverez plus de détails dans l’article ci-dessous.
Domaines d’expertise du cabinet Monolith : Droit de l’IA (y compris ChatGPT)[ja]
Category: IT