Un avocat explique le contenu des « Directives pour les opérateurs d'IA » du Ministère de l'Économie, du Commerce et de l'Industrie

Le “Guide des opérateurs d’IA (version 1.0)” élaboré en 2024 par le Ministère de l’Économie, du Commerce et de l’Industrie du Japon (version 1.0 du Guide des opérateurs d’IA[ja]), a été conçu dans un contexte où la gestion des risques et les défis éthiques liés à l’implémentation sociale de la technologie IA, en raison de son développement rapide, sont devenus des thèmes cruciaux pour les entreprises et la société dans son ensemble. Ce guide vise à indiquer la direction de la gouvernance de l’IA que les entreprises devraient adopter pour une utilisation appropriée de l’IA et l’amélioration de la confiance sociale. En tant que soft law sans force contraignante légale, il clarifie les rôles de chaque acteur tout en mettant l’accent sur une approche basée sur les risques et la cohérence avec les systèmes internationaux.
De plus, une caractéristique de ce guide est l’adoption de la notion de “gouvernance agile”, qui, contrairement à des règles fixes, permet une réponse flexible aux changements environnementaux. C’est un mécanisme qui, en faisant tourner en continu le cycle d’analyse de l’environnement et des risques, de définition des objectifs, d’opération et d’évaluation, permet de réduire les risques et de réaliser un développement durable de la technologie. En outre, des éléments tels que la collaboration entre plusieurs acteurs, la circulation appropriée des données et l’implication active de la direction sont soulignés comme piliers soutenant une gouvernance efficace.
Publication du “Guide des Entreprises d’IA” par le Ministère de l’Économie, du Commerce et de l’Industrie du Japon et son Contexte

En avril 2024, le Ministère de l’Économie, du Commerce et de l’Industrie du Japon a élaboré et publié le “Guide des Entreprises d’IA (Version 1.0)[ja]“. Ce guide est positionné comme une série de directives sans force contraignante sur le plan juridique, destinées à soutenir le développement et l’implémentation sociale des technologies d’intelligence artificielle. Par conséquent, il n’impose pas d’obligations comme le ferait une loi, mais présente des concepts fondamentaux, des principes et des directives pour servir de référence aux entreprises dans leur mise en pratique. Il se compose d’un texte principal qui énonce les concepts et principes, et d’une annexe qui fournit des méthodes pratiques spécifiques.
Approche basée sur les « Principes d’une société IA centrée sur l’humain »
Les « Directives pour les opérateurs d’IA » s’appuient sur les « Principes d’une société IA centrée sur l’humain », présentés en mars 2019 (Reiwa 1). Ces principes établissent l’idée fondamentale que « ce n’est pas l’humain qui doit être au service de l’IA, mais l’IA qui doit être utilisée par l’humain ». Plus précisément, l’IA devrait être exploitée sous le contrôle humain comme un moyen d’augmenter les capacités humaines, et il faut éviter une dépendance excessive qui pourrait mener à une situation où les humains seraient manipulés par l’IA.
De plus, l’IA ne devrait pas se limiter à être un substitut au travail humain, mais devrait servir d’outil avancé et pratique pour étendre la créativité et les capacités humaines. Par conséquent, lors de l’utilisation de l’IA, il est exigé que les utilisateurs décident eux-mêmes comment l’exploiter et prennent des décisions responsables à cet égard.
Intégration et révision des directives passées
Ces directives résultent de l’intégration et de la révision de trois principales directives antérieures.
- « Directives pour le développement de l’IA » (2017) : Explication des principes de base et des points d’attention dans le développement de l’IA.
- « Directives pour l’utilisation de l’IA » (2019) : Présentation des principes de base et de leur explication pour l’utilisation de l’IA.
- « Directives de gouvernance pour la mise en pratique des principes de l’IA » (2021) : Présentation d’objectifs d’action concrets et d’exemples pratiques pour promouvoir l’implémentation sociale.
Ces directives ont été utilisées comme références que les opérateurs d’IA devraient suivre. Les nouvelles « Directives pour les opérateurs d’IA » intègrent ces éléments tout en prenant en compte les tendances internationales et l’émergence de nouvelles technologies.
Processus d’élaboration et historique de publication
Le projet de “Guidelines pour les opérateurs d’IA” a été présenté pour la première fois lors de la 7ème réunion du Conseil Stratégique pour l’IA du Cabinet Office, tenue le 21 décembre 2023 (Reiwa 5). Par la suite, le document a été officiellement publié sous l’égide du Ministère des Affaires Intérieures et des Communications et du Ministère de l’Économie, du Commerce et de l’Industrie le 19 janvier 2024, et une période de commentaires publics a été ouverte du 20 janvier au 19 février. À la suite de cette procédure de collecte d’avis, la version 1.0 des “Guidelines pour les opérateurs d’IA” a été finalisée et publiée le 19 avril de la même année.
Signification des lignes directrices
Contrairement à l’Union européenne, où le règlement sur l’IA a été établi en tant que droit contraignant, les “Lignes directrices pour les opérateurs d’IA” au Japon sont ce que l’on appelle du droit souple, sans force contraignante légale. Elles fournissent les principes de base et les directives de conduite que les opérateurs d’IA devraient mettre en pratique. Dans le contexte du développement avancé de la technologie IA, elles constituent une étape cruciale pour promouvoir une utilisation appropriée dans la société et construire une société IA fiable. Il est demandé aux opérateurs de se référer à ces lignes directrices pour établir leurs politiques en matière de développement et d’utilisation de l’IA au sein de leurs entreprises.
Les principes fondamentaux des “Directives pour les opérateurs d’IA” au Japon
Les “Directives pour les opérateurs d’IA” au Japon sont structurées autour de trois principes fondamentaux pour promouvoir le développement de la technologie de l’intelligence artificielle et son implémentation appropriée dans la société.
Soutien aux initiatives volontaires des opérateurs
Les Directives pour les opérateurs d’IA préconisent une “approche basée sur le risque”, qui adapte les mesures en fonction de l’ampleur et de la probabilité des risques, et indiquent la direction que les entreprises devraient prendre pour leurs mesures. Cette approche recommande des mesures flexibles adaptées au contenu et au degré de risque, en partant du principe que les risques varient considérablement selon les cas d’utilisation et la nature des modèles d’IA. En particulier, les risques associés à chaque cas d’utilisation ne correspondent pas nécessairement à la taille de l’entreprise, ce qui nécessite une évaluation prudente de la nature des risques.
Pour les types de risques élevés, il est envisagé d’examiner la réglementation, tandis que pour les risques faibles, il est important de choisir des méthodes de régulation flexibles, telles que la certification privée ou l’autodéclaration. Cette approche permet une gestion efficace des risques tout en évitant une réglementation excessive.
Coordination avec les discussions internationales
Le marché des technologies de l’IA s’étend au-delà des frontières, et il est crucial pour les entreprises japonaises de maintenir leur compétitivité internationale en assurant la cohérence avec les systèmes et principes étrangers. Les principes fondamentaux et les principes des présentes Directives sont basés sur des lignes directrices internationales telles que les principes de l’OCDE sur l’IA, et un annexe détaille également les relations avec les directives d’autres pays.
Compte tenu du marché transfrontalier des modèles et services d’IA, y compris les modèles de base, il est essentiel pour les entreprises japonaises qui souhaitent être actives à l’échelle mondiale de garantir l’interopérabilité avec les systèmes étrangers. De plus, lors de l’établissement de toute forme de réglementation, il convient d’éviter une situation où les entreprises japonaises seules portent un fardeau lourd qui réduit leur compétitivité, et de s’assurer que le système est efficace pour les entreprises étrangères également, en préservant un terrain de jeu équitable pour les entreprises tant nationales qu’internationales.
Clarté pour le lecteur
Les Directives pour les opérateurs d’IA mettent l’accent sur la facilité de compréhension pour le lecteur. Elles se caractérisent notamment par la distinction des risques et des politiques de réponse à considérer pour chaque acteur, tels que les “développeurs d’IA”, les “fournisseurs d’IA” et les “utilisateurs d’IA”.
L’approche “Multi-Stakeholder” et le concept de “Living Document”
En outre, les Directives pour les opérateurs d’IA se distinguent par l’adoption des concepts de “Multi-Stakeholder” et de “Living Document”. Autrement dit, elles sont élaborées en tenant compte de l’efficacité et de la légitimité, à travers des discussions approfondies avec des parties prenantes multiples, y compris des institutions éducatives et de recherche, la société civile incluant les consommateurs, et les entreprises privées. De plus, en référence à l’idée de gouvernance agile, elles sont conçues comme un “Living Document” qui sera mis à jour au besoin pour améliorer continuellement la gouvernance de l’IA.
Distinction des acteurs et champ d’application des “Directives pour les opérateurs d’IA” au Japon

Une des caractéristiques importantes des “Directives pour les opérateurs d’IA” est la distinction des acteurs concernés selon leurs attributs et la clarification des actions qu’ils doivent entreprendre. Ces directives identifient les “développeurs d’IA”, les “fournisseurs d’IA” et les “utilisateurs d’IA” comme étant les principaux acteurs concernés, tandis que les “utilisateurs hors activité professionnelle” et les “fournisseurs de données” ne sont pas visés par ces directives.
Rôles et responsabilités des développeurs, fournisseurs et utilisateurs d’IA
Les développeurs d’IA sont les entités responsables du prétraitement des données, de l’apprentissage et du processus de développement de l’IA. Cela inclut, par exemple, le prétraitement des données d’apprentissage collectées, la création de modèles d’IA et la vérification de leur utilité à travers des essais. Ces processus constituent la base pour assurer la performance et la fiabilité de l’IA, exigeant ainsi des développeurs une gestion appropriée des données et la construction de modèles de haute qualité.
Les fournisseurs d’IA sont les entités qui s’occupent de l’implémentation et de la fourniture des systèmes d’IA. Ils intègrent les modèles d’IA dans des systèmes existants ou nouvellement créés, les coordonnent avec d’autres systèmes, puis les fournissent aux utilisateurs. Ils peuvent également sensibiliser et soutenir l’exploitation pour promouvoir une utilisation appropriée des systèmes d’IA, ou même opérer et fournir directement des services d’IA. Ainsi, ils assistent les utilisateurs pour qu’ils puissent utiliser les systèmes d’IA de manière sûre et efficace.
Les utilisateurs d’IA sont les entités qui utilisent les systèmes ou services d’IA. Ils opèrent les systèmes d’IA de manière appropriée et profitent de leurs avantages en tenant compte des avertissements fournis par les fournisseurs. Ils ont également la responsabilité de continuer à utiliser les systèmes d’IA conformément à leur conception initiale. De cette manière, les actions des utilisateurs influencent également l’acceptation sociale et la fiabilité des systèmes d’IA.
Entités non concernées par l’application
En revanche, les “fournisseurs de données” et les “utilisateurs hors activité professionnelle” ne sont pas concernés par ces directives. Les fournisseurs de données ont pour rôle de fournir les données d’apprentissage pour l’IA et peuvent inclure diverses entités, allant des personnes physiques ou morales aux capteurs et systèmes fournissant des données. D’autre part, les utilisateurs hors activité professionnelle sont ceux qui bénéficient des systèmes ou services d’IA en dehors de leurs activités commerciales et peuvent parfois être affectés par les décisions prises par l’IA.
Par exemple, dans un service d’IA utilisant des données de candidats à l’emploi, les “développeurs d’IA” sont ceux qui développent le modèle d’IA, les “fournisseurs d’IA” sont ceux qui offrent le service, et les entreprises qui utilisent ce service sont les “utilisateurs d’IA”. En revanche, les candidats précédents correspondent aux “fournisseurs de données”, et les candidats affectés par les décisions du service sont les “utilisateurs hors activité professionnelle”.
Principes communs des « Directives pour les opérateurs d’IA » sous le droit japonais
Les « Directives pour les opérateurs d’IA » au Japon présentent dix principes communs que tous les acteurs, quelles que soient leurs caractéristiques, doivent suivre. Ces principes sont classés en deux catégories : ceux que chaque acteur doit mettre en œuvre par lui-même et ceux qui nécessitent une collaboration avec la société. Ils sont positionnés comme un cadre pour la gouvernance de l’IA.
Les sept principes à mettre en œuvre par les acteurs eux-mêmes
- Centré sur l’humain : Lors de l’utilisation de l’IA, il est requis de respecter la dignité individuelle, de comprendre la précision et les limites des résultats et de ne pas utiliser l’IA à des fins inappropriées. Il est également nécessaire de faire attention à l’utilisation de l’IA qui, comme les bulles de filtres, peut biaiser les informations et les valeurs et limiter les choix.
- Sécurité : Il est requis de réaliser une analyse des risques et de prendre les mesures appropriées pour s’assurer que les systèmes d’IA ne dévient pas de leur objectif initial. Il est également important de garantir l’exactitude et la transparence des données, ainsi que la mise à jour appropriée des modèles d’IA.
- Équité : Il est nécessaire de s’efforcer de faire en sorte que les résultats de l’IA ne favorisent pas les préjugés ou la discrimination. L’intervention du jugement humain dans les décisions de l’IA et la prise en compte des biais potentiels sont requises.
- Protection de la vie privée : Il est requis de se référer aux normes internationales de protection des données personnelles et de respecter les directives et normes internationales en matière de vie privée. Il est également important de garantir l’interopérabilité dans le transfert transfrontalier de données personnelles.
- Assurance de la sécurité : Il est nécessaire de maintenir la confidentialité, l’intégrité et la disponibilité des systèmes d’IA et de prendre des mesures raisonnables basées sur le niveau technique. Il est également requis de se préparer aux attaques extérieures et de répondre aux risques les plus récents.
- Transparence : Il est requis de rendre le processus d’apprentissage et de raisonnement des systèmes d’IA vérifiable et d’expliquer les informations si nécessaire. Cependant, la divulgation des algorithmes ou du code source n’est pas demandée, et la vie privée ainsi que les secrets commerciaux sont respectés.
- Responsabilité : En cas d’erreur dans les résultats de l’IA, il est nécessaire d’accepter les critiques et de mettre en œuvre une surveillance objective. Il est attendu que les acteurs établissent une politique de réponse aux parties prenantes et rapportent régulièrement l’état d’avancement.
Les trois principes à mettre en œuvre en collaboration avec la société
- Éducation et littératie : Il est requis de fournir une éducation pour que tous ceux impliqués dans l’IA acquièrent une littératie suffisante en IA et de promouvoir la sensibilisation aux caractéristiques et aux risques de l’IA parmi les parties prenantes.
- Assurance d’une concurrence équitable : Il est nécessaire de créer un environnement où les nouvelles entreprises et services utilisant l’IA peuvent concourir équitablement, visant une croissance économique durable et la résolution des problèmes sociaux.
- Innovation : Il est recommandé de promouvoir la diversité internationale et la collaboration entre les industries, les universités et le gouvernement, et d’assurer l’interopérabilité entre les systèmes d’IA. Lorsqu’il existe des spécifications standards, il est recommandé de s’y conformer.
L’importance de l'”Agile Governance” et ses méthodes de mise en pratique
Les “Directives pour les opérateurs d’IA” soulignent que la construction de la gouvernance de l’IA ne doit pas adopter une approche uniforme, mais nécessite une réponse flexible adaptée à la taille et au type d’activité de chaque entreprise. Plutôt que de simplement imiter les initiatives d’autres entreprises, il est demandé que tous les niveaux de l’entreprise, de la direction au terrain, expérimentent et élaborent des règles adaptées à leur propre organisation. La pratique de l'”Agile Governance” est la clé de ce processus.
Qu’est-ce que l’Agile Governance ?
L’Agile Governance est une approche qui, au lieu de fixer des règles rigides à l’avance, implique de faire tourner en continu le cycle suivant pour répondre de manière flexible aux changements de l’environnement externe et des risques :
- Analyse de l’environnement et des risques : Comprendre précisément l’environnement externe et les risques techniques.
- Définition des objectifs : Fixer des objectifs appropriés en fonction de la situation actuelle.
- Conception du système : Concevoir un système d’IA efficace pour atteindre les objectifs.
- Opération : Mettre en œuvre le système conçu et vérifier les résultats.
- Évaluation : Évaluer régulièrement les résultats de l’opération et ajuster si nécessaire.
En continuant de faire tourner un tel cycle, il est possible de répondre rapidement et efficacement aux environnements technologiques et aux tendances du marché en constante évolution.
Les trois piliers soutenant l’Agile Governance

L'”Agile Governance” montre la direction que doit prendre la gouvernance qui évolue avec le progrès des technologies de l’IA. Les entreprises sont appelées à adopter une réponse flexible adaptée à leur modèle d’affaires et à leur environnement, et à s’engager de la direction au terrain. En outre, en établissant une collaboration entre les parties prenantes et une gestion des risques internationale, il est possible de rendre la gouvernance de l’IA plus efficace. Les éléments suivants sont considérés comme importants dans ce processus :
- Assurer la collaboration entre plusieurs parties : La technologie de l’IA implique plusieurs parties prenantes du point de vue de la chaîne de valeur et de la chaîne de risque, il est donc important de clarifier le rôle et la responsabilité de chacun et d’assurer la collaboration. Cela permet de gérer correctement les risques à chaque étape du développement, de la fourniture et de l’utilisation des systèmes d’IA.
- Assurer une circulation appropriée des données : Pour mettre en œuvre la gouvernance de l’IA, une circulation appropriée des données est essentielle. En particulier, lorsqu’on envisage l’utilisation de données à travers plusieurs pays, il est nécessaire de maintenir la transparence et la sécurité des données tout en tenant compte des réglementations et des exigences de gestion des risques de chaque pays.
- Engagement de la direction : Pour réaliser une gouvernance efficace de l’IA, l’implication active de la direction est requise. Cela inclut la formulation d’une stratégie de gouvernance, l’établissement d’un système à travers toute l’organisation et l’inculcation de la culture d’entreprise. L’engagement de la direction est la force motrice pour que toute l’organisation poursuive les mêmes objectifs.
Les détails sur la gouvernance de l’IA que les entreprises devraient construire, tels qu’indiqués dans les “Directives pour les opérateurs d’IA”, sont présentés plus en détail dans l’article ci-dessous.
Article connexe : Quelle gouvernance de l’IA les entreprises devraient-elles mettre en œuvre ? Explication des points clés basés sur les ‘Directives pour les opérateurs d’IA'[ja]
Présentation des mesures proposées par notre cabinet
Le cabinet d’avocats Monolith est un cabinet juridique doté d’une riche expérience dans les domaines de l’IT, et plus particulièrement d’Internet et du droit.
Le business de l’IA comporte de nombreux risques juridiques, et le soutien d’avocats compétents en matière d’IA est essentiel. Notre cabinet offre un support juridique avancé pour les affaires d’IA, y compris ChatGPT, grâce à une équipe composée d’avocats spécialisés en IA et d’ingénieurs. Nous fournissons des services tels que la rédaction de contrats, l’examen de la légalité des modèles d’affaires, la protection des droits de propriété intellectuelle et la gestion de la confidentialité. Vous trouverez plus de détails dans l’article ci-dessous.
Domaines de pratique du cabinet Monolith : Droit de l’IA (y compris ChatGPT)[ja]
Category: IT