MONOLITH LAW OFFICE+81-3-6262-3248Días de semana 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

¿Cuál es la situación actual de las leyes que regulan la IA? Comparación entre Japón y la UE y puntos clave de las estrategias

IT

¿Cuál es la situación actual de las leyes que regulan la IA? Comparación entre Japón y la UE y puntos clave de las estrategias

La inteligencia artificial generativa, como ChatGPT, se ha convertido en un gran fenómeno. Ahora, al ser adoptada en el ámbito empresarial, se dice que esta IA generativa es el catalizador de la “cuarta ola de auge de la IA”. En consonancia, se está avanzando en el desarrollo de un marco legal para regular la IA a nivel mundial.

En este artículo, abordaremos las leyes relacionadas con la IA, explicando el manejo adecuado de información confidencial como los derechos de propiedad intelectual y los datos personales.

Definición e historia de la IA (Inteligencia Artificial)

IA (inteligencia artificial) se refiere a “inteligencia artificial”. Legalmente, no existe una definición estricta, y hay varias definiciones. A continuación, se muestra un ejemplo.

FuenteDefinición / Explicación
“Kōjien”Un sistema de computadora equipado con funciones intelectuales como razonamiento y juicio.
“Enciclopedia Británica”Ciencia y tecnología > Computadoras y IA. La capacidad de los ordenadores digitales o robots informáticos para realizar tareas relacionadas con seres inteligentes.
Artículo de la Sociedad Japonesa de Inteligencia Artificial “AI como conocimiento cultural”La respuesta a la pregunta “¿Qué es la IA?” no es simple. Incluso entre los expertos en IA, hay un gran debate, y las opiniones son tan variadas que podrían llenar un libro. Sin embargo, si se extrae un denominador común y se resume en una frase, sería “la tecnología que realiza el mismo trabajo intelectual que los humanos de manera mecánica”.
Artículo académico “Aprendizaje profundo e inteligencia artificial”La IA es un campo de estudio que intenta explicar constructivamente los mecanismos de la inteligencia humana.
Artículo académico “En busca de una sociedad de inteligencia artificial ideal”La IA y otras tecnologías de la información son meramente herramientas.

La IA se refiere a una variedad de tecnologías, software, sistemas informáticos y algoritmos que reproducen la capacidad intelectual humana en computadoras.

Entre las principales IA especializadas, se incluyen las siguientes:

  • Procesamiento del lenguaje natural (traducción automática, análisis sintáctico, análisis morfológico, RNN, etc.)
  • Sistemas expertos que imitan el razonamiento y juicio de expertos
  • Reconocimiento de imágenes y voz, entre otros, que detectan y extraen patrones específicos de datos

El campo de la IA ha estado en desarrollo continuo desde la década de 1950, que fue el amanecer de la era de las computadoras. La primera ola de entusiasmo por la IA duró hasta la década de 1970 con investigaciones sobre “búsqueda y razonamiento”, la segunda ola ocurrió en la década de 1980 con investigaciones sobre “representación del conocimiento”, lo que llevó al nacimiento de los sistemas expertos, marcando dos paradigmas significativos en el campo.

Desde la década de 2000, con la aparición de big data y, después de 2012, con la introducción de Alexnet, la utilidad del aprendizaje profundo (deep learning) en el procesamiento de imágenes se reconoció mundialmente, lo que aceleró rápidamente la investigación y trajo la tercera ola de entusiasmo por la IA.

Entre 2016 y 2017, aparecieron IA que incorporaban aprendizaje profundo y aprendizaje por refuerzo (Q-learning, métodos de gradiente de política).

La principal revolución de la tercera ola de entusiasmo por la IA ha sido notable en el procesamiento del lenguaje natural y el procesamiento de imágenes mediante sensores, pero también ha tenido un gran impacto en campos como el desarrollo tecnológico, la sociología, la ética y la economía.

El 30 de noviembre de 2022, el lanzamiento de ChatGPT por OpenAI, una IA de generación de lenguaje natural, atrajo mucha atención como una herramienta versátil, impulsando el negocio de la IA generativa. Algunas personas llaman a este fenómeno social la cuarta ola de entusiasmo por la IA.

Escenarios Negocios donde se debe revisar la legislación sobre IA

Escenarios Negocios donde se debe revisar la regulación legal

La IA generativa, una forma de inteligencia artificial, es una herramienta útil que, por otro lado, puede propagar información errónea, fomentar el crimen e incluso amenazar la democracia con sus riesgos.

Estos riesgos asociados con la IA se han convertido en un desafío ineludible. Por lo tanto, explicaremos los escenarios Negocios en los que se debe revisar la regulación legal, desde la perspectiva tanto de los usuarios como de los proveedores.

Uso de IA para generación de texto

Desde el lanzamiento de ChatGPT en noviembre de 2022, la IA para generación de texto ha recibido atención mundial como una herramienta versátil que promete eficiencia en el trabajo y una alta relación costo-beneficio, debido a su capacidad para manejar solicitudes complejas.

Por otro lado, también se han conocido los riesgos asociados con el uso de IA para generación de texto. Es esencial ser consciente de estos riesgos potenciales y saber qué leyes se deben cumplir para evitarlos.

ChatGPT, representante de la IA para generación de texto, presenta el riesgo de filtración de información (prompts) ingresada por el usuario si no se toman medidas. Dado que ChatGPT tiene la capacidad de recopilar, almacenar y utilizar prompts, existe el riesgo de filtración de información confidencial personal, corporativa o adquirida a través de acuerdos de confidencialidad (NDA).

Además, ChatGPT puede generar y difundir información errónea (alucinaciones), lo que representa riesgos de violación de derechos de autor, entre otros. Por lo tanto, es indispensable verificar los hechos de los contenidos generados.

Uso de IA para generación de imágenes

Al utilizar IA para generación de imágenes en el negocio, es crucial tener en cuenta el riesgo de violación de derechos de autor.

Según OpenAI, los derechos de autor de las imágenes y textos generados por ChatGPT, entre otros, pertenecen generalmente al usuario que los generó. Los usuarios pueden utilizar ChatGPT para cualquier propósito, incluido el uso comercial.

Sin embargo, es necesario prestar atención a los siguientes puntos:

Los datos de entrenamiento de ChatGPT incluyen una gran cantidad de contenido publicado en Internet, la mayoría de los cuales son obras protegidas por derechos de autor (textos, imágenes, música, videos, etc.). Por lo tanto, el contenido generado podría infringir los derechos de autor de terceros.

Desarrollo de IA y provisión de servicios de IA generativa

El negocio de la IA está sujeto a diversas leyes, y dado que el marco legal global está en proceso de ser establecido, se requiere una actitud flexible para cumplir con las leyes existentes mientras se adapta a las nuevas legislaciones.

En el siguiente capítulo, explicaremos las leyes relacionadas con la IA en Japón y el “Reglamento de IA” de la UE, la primera legislación internacional de su tipo, promulgada en diciembre de 2023.

Leyes japonesas sobre la IA

Actualmente en Japón, la IA no está regulada por leyes con fuerza coercitiva, sino que se adopta una política de autorregulación. Aquí explicaremos las leyes actuales que deben tenerse en cuenta al utilizar la IA.

Referencia: Ministerio de Economía, Comercio e Industria | “Directrices de gobernanza para la práctica de los principios de la IA ver. 1.1″[ja]

Ley de Derechos de Autor

En enero de 2019 (Año 31 de Heisei), se implementó la “Ley de Derechos de Autor Revisada”, que introdujo una nueva disposición sobre limitaciones de derechos (una excepción que no requiere permiso) para “análisis de información” (Artículo 30-4, párrafo 1, ítem 2 de la misma ley). Los actos de uso que no tienen como objetivo disfrutar de los pensamientos o sentimientos expresados en las obras, como el análisis de información en el desarrollo de la IA y en la etapa de aprendizaje, pueden realizarse sin el permiso del titular de los derechos de autor.

Esta revisión ha establecido claramente que el aprendizaje profundo y el aprendizaje automático de la IA, incluido en “análisis de información”.

En casos de utilización para análisis de información (extracción de información relacionada con el lenguaje, sonido, imágenes y otros elementos de una gran cantidad de obras y otra información masiva, y realizar comparaciones, clasificaciones y otros análisis)

Artículo 30-4, párrafo 1, ítem 2 de la Ley de Derechos de Autor

Por otro lado, es necesario tener cuidado ya que las obras creadas mediante el uso de IA que presenten similitudes o dependencias con otras obras protegidas por derechos de autor pueden constituir una infracción de los derechos de autor.

Además, ingresar una obra protegida por derechos de autor como prompt en ChatGPT podría resultar en una infracción de derechos, como el derecho de reproducción. Modificar la obra de otro mediante el uso de IA generativa podría también resultar en una infracción de derechos, como el derecho de transformación.

Según los términos de servicio de OpenAI, los derechos sobre el contenido creado por ChatGPT pertenecen al usuario, y su uso comercial es posible. Sin embargo, si es difícil determinar si el contenido infringe los derechos de autor, se recomienda consultar a un experto.

En caso de que un titular de derechos de autor señale una infracción de derechos de autor, se podría incurrir en responsabilidad civil (cese de uso, indemnización por daños y perjuicios, compensación por daño moral, restauración de la reputación, etc.) y responsabilidad penal.

Ley de Prevención de la Competencia Desleal

El 1 de julio de 2019 (Año 31 de Heisei), se implementó la Ley Revisada de Prevención de la Competencia Desleal. Anteriormente, era difícil prevenir la competencia desleal para aquellos objetos que no estaban protegidos por la Ley de Patentes o la Ley de Derechos de Autor, o que no se consideraban “secretos comerciales” bajo la Ley de Prevención de la Competencia Desleal.

Por lo tanto, esta revisión ha establecido medidas civiles (derecho a solicitar la cesación, estimación de la cantidad de daños y perjuicios, etc.) contra actos maliciosos como la adquisición ilegal y el uso indebido de datos de valor limitado.

Leyes de la UE sobre el uso de la IA

Regulaciones legales de la UE sobre el uso de la IA

El sistema legal de la UE se compone de tres partes: el derecho primario (tratados), el derecho secundario (legislación de la UE) y la jurisprudencia. El derecho secundario, basado en el derecho primario (tratados), consiste en legislaciones que vinculan directa o indirectamente a los estados miembros dentro de la UE y se conocen como derecho derivado de la UE. El derecho secundario se divide en cinco categorías principales, pero la “Ley de Regulación de la IA” de la UE se clasifica como un reglamento, lo que significa que es una regla unificada que vincula directamente a los estados miembros de la UE.

Por otro lado, una directiva implica obligaciones legales indirectas para los estados miembros de la UE, quienes deben crear nueva legislación nacional o modificar la existente para implementar el contenido de la directiva. El plazo para esto es, generalmente, dentro de los tres años posteriores a su publicación en el Diario Oficial de la UE.

Artículo relacionado: Imprescindible para empresas que se expanden a Europa: Puntos clave sobre el sistema legal y las leyes de la UE[ja]

En este capítulo, explicaremos las últimas tendencias relacionadas con las regulaciones legales de la UE sobre el uso de la IA, centrándonos en las “directivas” y “reglamentos”.

Propuesta de Directiva de Responsabilidad de la IA

El 28 de septiembre de 2022, la Comisión Europea publicó la “Propuesta de Directiva de Responsabilidad de la IA” junto con una propuesta de modificación de la “Directiva de Responsabilidad por Productos Defectuosos”. Establece las reglas sobre la responsabilidad legal de los negocios de IA en la UE (Unión Europea) que son conformes con la “Ley de Regulación de la IA”, convirtiéndose en un marco legal importante. Será aplicable a partir de junio de 2023 bajo la “Directiva de Acciones Colectivas” de la UE, por lo que las empresas japonesas relacionadas también necesitarán comprender su contenido.

Representa un cambio significativo en las reglas legales de responsabilidad civil para software, incluidos los sistemas de IA, en la UE, adecuadas para la economía circular de la era digital y las cadenas de valor globales.

Artículo relacionado: ¿Cuál es el estado actual y las perspectivas de la Ley de Regulación de la IA en la UE? También se explica el impacto en las empresas japonesas[ja]

El objetivo de la “Propuesta de Directiva de Responsabilidad de la IA” es establecer reglas sobre la responsabilidad civil basada en causas extracontractuales para daños causados por sistemas de IA, mejorando así la funcionalidad del mercado interno de la UE.

Es decir, no se limita a la responsabilidad contractual (responsabilidad por incumplimiento de contrato y responsabilidad por falta de conformidad contractual) sino que incluye daños por negligencia (como la responsabilidad por actos ilícitos) que no se limitan a los derivados de la insuficiencia de seguridad cubiertos por la “Directiva de Responsabilidad por Productos Defectuosos”. Es importante tener en cuenta que esto también podría incluir daños como la discriminación causada por sistemas de selección basados en IA.

Esta propuesta aborda el problema de la caja negra de la IA mediante la introducción de medidas de alivio de la carga de la prueba para los desarrolladores de “sistemas de IA de alto riesgo” definidos en la “Ley de Regulación de la IA”, incluyendo la “presunción de causalidad” y un “sistema de divulgación de pruebas”.

Si no se cumple con una orden de divulgación de pruebas, la “Propuesta de Directiva de Responsabilidad de la IA” impone la obligación de asumir una violación del deber de cuidado y la presunción de causalidad, y la “Propuesta de Modificación de la Directiva de Responsabilidad por Productos Defectuosos” impone la obligación de asumir defectos y causalidad, imponiendo sanciones más severas que las del Código de Procedimiento Civil japonés para asegurar el cumplimiento.

Esta propuesta se limita, como primera etapa, a medidas de alivio de la carga de la prueba relacionadas con la opacidad de la IA, estableciendo nuevos requisitos para la elegibilidad del demandante, divulgación de pruebas, preservación de pruebas y presunción de causalidad.

La segunda etapa incluye disposiciones sobre revisión y evaluación. La Comisión Europea establecerá un programa de monitoreo para revisar la información de incidentes y evaluar la adecuación de imponer responsabilidad sin culpa (responsabilidad estricta) a los operadores de sistemas de IA de alto riesgo y la necesidad de introducir un seguro obligatorio, entre otras medidas, y reportará al Consejo Europeo y al Parlamento Europeo, entre otros.

Propuesta de modificación de la Directiva de Responsabilidad por Productos

La “Directiva de Responsabilidad por Productos” es una ley de la UE, establecida en 1985, diseñada para proteger a los consumidores, la cual estipula la responsabilidad de los fabricantes cuando los daños son causados por defectos en los productos.

En la propuesta de modificación, se añade el “software” como un nuevo objeto de aplicación de la responsabilidad por productos, considerando que si un sistema de IA, que es un tipo de software, tiene un “defecto”, se aplicará la responsabilidad sin culpa al operador del sistema de IA. Además, como criterios para determinar la presencia de “defectos”, se han añadido nuevas consideraciones como la capacidad de aprendizaje continuo después de la instalación y las actualizaciones de software.

En la ley actual de Japón, la “Ley Japonesa de Responsabilidad por Productos”, generalmente el software no se considera un bien mueble, por lo tanto, no se clasifica como un “producto” sujeto a la ley. Sin embargo, se está adoptando un enfoque que cambia la concepción de “producto”. Esta propuesta de modificación también introduce “medidas para aliviar la carga de la prueba”, lo que podría tener un impacto significativo en el software, incluidos los sistemas de IA y los productos de tecnología avanzada.

Ley de Regulación de la IA

La “Ley de Regulación de la IA (AI Act)” es una normativa unificada de la UE dirigida a los negocios de IA, compuesta por 85 artículos y representa la primera ley internacional que regula la IA en el mundo. Fue establecida tras un acuerdo provisional entre la Comisión Europea, el Parlamento Europeo y el Consejo Europeo el 9 de diciembre de 2023, y se espera que entre en vigor y se aplique en su totalidad en 2024.

Esta ley es central en la estrategia digital de la UE conocida como “Una Europa preparada para la era digital”, y busca abordar los nuevos desafíos y riesgos de la era digital en evolución. Garantiza la seguridad de la IA y los derechos fundamentales, y forma parte de un amplio paquete de IA que tiene como objetivo fortalecer el enfoque, la inversión y la innovación en IA en toda la UE.

La “Ley de Regulación de la IA” de la UE se aplica directamente a los estados miembros de la UE, así como a las empresas que operan dentro de la UE, incluyendo la aplicación transfronteriza, y también afecta a las empresas ubicadas fuera de la UE.

En caso de incumplimiento, se pueden imponer sanciones económicas significativas basadas en el volumen de ventas mundial (hasta 30 millones de euros = aproximadamente 47 mil millones de yenes o el 6% del volumen de ventas mundial, lo que sea mayor), lo que podría impedir la realización de negocios de IA dentro de la UE.

Por lo tanto, las empresas, incluidas las japonesas, que ya han implementado IA en el mercado de la UE o que están considerando expandirse al mercado de la UE, deben cumplir con la nueva regulación de IA de la UE.

Los pilares de la “Ley de Regulación de la IA” se dividen en tres características principales: “clasificación de la IA basada en el riesgo”, “requisitos y obligaciones” y “apoyo a la innovación”.

Los sujetos regulados son las empresas que introducen sistemas y servicios de IA en el mercado europeo, incluidos los desarrolladores, desplegadores, proveedores, importadores, distribuidores y usuarios de IA.

El nivel de riesgo de la IA se categoriza en cuatro niveles, y se aplicarán regulaciones correspondientes a cada nivel. Para lograr los principios de la IA, también es esencial tomar medidas para asegurar la alfabetización en IA de los desarrolladores, usuarios y proveedores de IA, como se indica claramente en las directrices. Para más detalles, consulte el artículo relacionado.

Artículo relacionado: ¿Cuál es el estado actual y las perspectivas de la Ley de Regulación de la IA en la UE? También se explica el impacto en las empresas japonesas[ja]

Puntos clave a tener en cuenta en la legislación sobre IA

Puntos clave a tener en cuenta en la legislación sobre IA

En este capítulo, explicaremos principalmente los puntos a tener en cuenta desde el punto de vista legal cuando las empresas buscan utilizar IA generativa.

Sobre los derechos de autor de las obras creadas por IA

Los puntos a tener en cuenta sobre las obras generadas por IA generativa incluyen los siguientes aspectos legales:

  • Si la obra infringe o no los derechos de autor
  • Si las obras generadas por IA generativa pueden ser reconocidas con derechos de autor

Como se mencionó anteriormente, las obras generadas por ChatGPT pueden infringir los derechos de autor si se reconoce que tienen similitudes o dependencias con obras protegidas por derechos de autor. Por otro lado, ¿pueden las obras creadas por IA generativa ser reconocidas con derechos de autor?

Según la ley de derechos de autor, una “obra” se define como “una expresión creativa de ideas o sentimientos”. Dado que la IA no posee ideas ni sentimientos, existe la opinión de que el contenido creado por IA generativa no puede ser reconocido con derechos de autor.

Por otro lado, dado que el proceso de generación de contenido por IA es una caja negra para los usuarios (el proceso de decisión es opaco), hacer que la IA produzca el contenido deseado por el usuario es extremadamente difícil. Por lo tanto, en casos donde se reconozca que ha habido creatividad e ingenio por parte del usuario en la etapa de la solicitud, se podría decir que las “ideas o sentimientos” del usuario se han “expresado creativamente” a través de la IA generativa, y en tales casos, los derechos de autor podrían ser reconocidos.

Sobre el manejo de información personal al utilizar IA

Al utilizar IA, es necesario tener en cuenta la posibilidad de infringir la ley de protección de información personal. Se requieren medidas como no ingresar información personal o información relacionada con la privacidad.

Si se ingresa información personal en el prompt, podría considerarse como una provisión de información personal a terceros por parte del proveedor de servicios. En general, se requiere el consentimiento del individuo para proporcionar información personal a terceros, por lo que sin este consentimiento, podría haber una violación de la ley de protección de información personal.

En el caso de ChatGPT, incluso si se ingresa información personal por error, el sistema está diseñado para no poder mostrar esa información en el chat. Esto se debe a la política de OpenAI de no almacenar ni rastrear información personal, pero es importante tener en cuenta que otros servicios o plataformas pueden operar de manera diferente.

Medidas de riesgo para empresas involucradas con IA

Las medidas de riesgo varían según la estrategia de negocio de la empresa, el propósito del uso de la IA y las regulaciones legales relacionadas, por lo que es crucial adoptar las medidas de riesgo adecuadas según la situación y el objetivo.

Para minimizar los riesgos, las empresas que utilizan IA generativa deben considerar los siguientes puntos:

  1. Desarrollo de talento: El uso adecuado de la IA generativa requiere conocimientos y habilidades especializadas. Es importante asegurarse de que los empleados comprendan el método de uso adecuado a través de la educación y la capacitación.
  2. Establecimiento, implementación y operación de guías internas: La formulación de guías internas sobre el uso de la IA generativa y asegurar su cumplimiento por parte de los empleados puede reducir los riesgos.
  3. Construcción de una organización para promover el uso y las medidas de riesgo: Establecer una organización para promover el uso de la IA generativa y colocar un equipo encargado de la gestión de riesgos dentro de la organización es efectivo.
  4. Implementación del sistema: Para introducir adecuadamente la IA generativa, es necesario seleccionar y diseñar cuidadosamente el sistema.

Además, los riesgos asociados con el uso de la IA generativa son diversos, incluyendo la fuga de información, la infracción de derechos y privacidad, preocupaciones sobre la precisión y seguridad de la información, y el riesgo de sesgo. Para evitar estos riesgos, es esencial introducir un marco adecuado de gobernanza y gestión de riesgos.

Artículo relacionado: “Riesgos de la implementación corporativa de ChatGPT. Explicación de casos de fuga de información confidencial y medidas”[ja]

Resumen: Es necesario mantenerse al día con las leyes de IA, ya que están en proceso de desarrollo

Las leyes relacionadas con los negocios de IA, incluyendo la primera ley internacional de “Regulación de IA” de la UE (establecida el 9 de diciembre de 2023), están en una fase de desarrollo de su marco legal. Por lo tanto, se requiere que las empresas cumplan con las leyes existentes mientras adoptan una actitud flexible hacia las nuevas legislaciones.

En Japón, aún no existen leyes que regulen directamente la IA, pero es necesario comprender y responder adecuadamente a las leyes relacionadas, como la Ley de Derechos de Autor, la Ley de Protección de Información Personal y la Ley de Prevención de la Competencia Desleal. Además, es crucial estar atento a las futuras enmiendas de las leyes relacionadas y responder rápidamente a ellas.

Guía de medidas por parte de nuestro despacho

Monolith Law Office es un despacho de abogados con amplia experiencia en IT, especialmente en Internet y derecho. El negocio de la IA conlleva muchos riesgos legales, y el apoyo de abogados especializados en problemas legales relacionados con la IA es esencial.

Nuestro despacho, con un equipo de abogados especializados en IA y profesionales como ingenieros, ofrece soporte legal avanzado en negocios de IA, incluido ChatGPT. Esto abarca la creación de contratos, evaluación de la legalidad de modelos de negocio, protección de derechos de propiedad intelectual y manejo de la privacidad, entre otros. Los detalles se encuentran en el artículo a continuación.

Áreas de práctica de Monolith Law Office: Derecho de IA (incluido ChatGPT)[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Volver arriba