MONOLITH LAW OFFICE+81-3-6262-3248Días de semana 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

¿Cómo prevenir las falsedades y la infracción de derechos de autor por parte de la IA? Normativas internas para el uso seguro de productos generados por IA

IT

¿Cómo prevenir las falsedades y la infracción de derechos de autor por parte de la IA? Normativas internas para el uso seguro de productos generados por IA

¿Puede la inteligencia artificial (IA) convertirse en un motor impulsor para los negocios o desencadenar la erosión de la marca? El punto de inflexión radica en la existencia de unas “normas internas de IA” efectivas. En Japón, especialmente, las infracciones de derechos de autor y la difusión de información errónea debido a alucinaciones pueden, una vez ocurridas, no solo llevar a sanciones legales, sino también hacer que la confianza acumulada de los clientes se pierda instantáneamente.

En este artículo, explicamos las directrices para establecer un sistema de cumplimiento y normas que deben liderarse ahora para lograr una operación segura de IA mientras se mantiene la competitividad en el ámbito empresarial en Japón.

Las Trampas Ocultas en la “Calidad” y “Derechos” de los Productos Generados por IA bajo la Ley Japonesa

La IA generativa se ha consolidado como una herramienta atractiva que reduce enormemente el esfuerzo necesario para crear algo de la nada, mejorando drásticamente la eficiencia desde tareas creativas hasta trabajos administrativos. Sin embargo, detrás de esta conveniencia, se esconden riesgos legales fundamentalmente diferentes a los de las herramientas de TI tradicionales en Japón.

Los resultados producidos por la IA generativa se derivan probabilísticamente de vastos datos de aprendizaje existentes, y debido a que el proceso de generación es una caja negra, siempre existe el peligro de que los usuarios infrinjan los derechos de otros sin saberlo o difundan falsedades plausibles como si fueran verdades.

En el ámbito empresarial en Japón, la excusa de “lo hizo la IA” no es válida. Las empresas que implementan IA en sus operaciones y los individuos que la utilizan están en una posición de responsabilidad legal por los resultados generados. Para evitar situaciones como la difamación por la difusión de información inapropiada o reclamaciones de daños por infracción de derechos de autor, no se debe dejar a discreción del personal, sino que se requiere establecer “barreras de protección” claras a nivel organizacional. Es necesario desarrollar rápidamente regulaciones internas sólidas que, basadas en las leyes y directrices más recientes, prevengan convertirse en infractores o víctimas de infracciones de derechos de autor y detengan la propagación de información errónea.

Riesgo 1: Cómo Evitar Convertirse en Infractor de Derechos de Autor Bajo la Ley Japonesa

Riesgo 1: Cómo Evitar Convertirse en Infractor de Derechos de Autor Bajo la Ley Japonesa

Al utilizar inteligencia artificial generativa en los negocios, el riesgo más preocupante es infringir los derechos de autor de otros y enfrentar responsabilidades legales bajo el sistema legal japonés. La inteligencia artificial generativa, por su naturaleza, tiene la capacidad de producir contenido que refleja las características de obras existentes incluidas en sus datos de aprendizaje. Comprender correctamente este proceso y tener claridad sobre en qué casos se considera una “infracción” es el primer paso para establecer medidas de defensa.


El Mecanismo de la IA Generativa y el Derecho de Autor en Japón

La IA generativa extrae patrones de una vasta cantidad de datos aprendidos para generar nuevo contenido en respuesta a las instrucciones ingresadas (prompts). En este proceso, la IA no comprende el “significado de la información”, sino que simplemente predice la siguiente palabra o píxel basado en probabilidades estadísticas. Por lo tanto, existe la posibilidad de que se genere contenido que se asemeje mucho a obras de creadores específicos o a obras protegidas por derechos de autor, en contra de la intención del usuario.

Según el documento publicado por la Agencia de Asuntos Culturales de Japón titulado “AI y el Derecho de Autor“, la determinación de infracción de derechos de autor por productos generados por IA se realiza bajo el mismo marco que para las obras tradicionales. Específicamente, se considera que hay infracción cuando se reconoce “similitud” y “dependencia” con obras existentes.

Referencia: Agencia de Asuntos Culturales de Japón|Sobre la IA y el Derecho de Autor


Los Dos Requisitos Principales para el Establecimiento de Infracción: “Similitud” y “Dependencia” bajo la Ley Japonesa

La similitud se refiere a la situación en la que el resultado generado comparte características esenciales o es idéntico a la expresión creativa de una obra existente. Por otro lado, la dependencia significa que la obra existente fue utilizada como base para la creación. En las infracciones de derechos de autor tradicionales, el enfoque estaba en si el creador había visto la obra en cuestión. Sin embargo, en el caso de la IA generativa, es crucial determinar si la obra estaba incluida en los datos de aprendizaje de la IA.

Un problema particular surge cuando, incluso si el usuario no conocía la obra existente, la dependencia podría ser reconocida si la IA la había aprendido. Esto se conoce como el “problema de la caja negra”. Según la Agencia de Asuntos Culturales de Japón, incluso si el contenido de los datos de aprendizaje es desconocido, la dependencia es más fácil de inferir si la IA ha aprendido información de manera amplia en Internet y el resultado generado es notablemente similar a una obra existente.

Referencia: Agencia de Asuntos Culturales de Japón|Seminario de Derechos de Autor del Año Fiscal Reiwa 5 (2023) AI y Derechos de Autor (P48)


Alcance y Límites de las Disposiciones de Restricción de Derechos (Artículo 30-4)

El Artículo 30-4 de la Ley de Derechos de Autor de Japón (año 2018) establece que, durante la fase de aprendizaje de la inteligencia artificial (IA), se puede utilizar una obra sin el permiso del titular de los derechos de autor, siempre que el propósito no sea “disfrutar” de las ideas o emociones expresadas en la obra. Esta disposición reconoce ampliamente el uso con fines de análisis de información, no de disfrute, y constituye una base legal importante que respalda el desarrollo de la IA en Japón.

Sin embargo, esta disposición se aplica únicamente a la “fase de aprendizaje” y no se extiende a la etapa de “utilización” de lo generado. Además, es importante tener en cuenta que si se realiza un aprendizaje adicional (como LoRA) con el objetivo de replicar el estilo de un creador específico, podría considerarse que coexiste un propósito de “disfrute”, lo que podría excluir la aplicación del Artículo 30-4.


Medidas en las Normas Internas de AI: Selección de Prompts y Servicios

En las normas internas de AI, es efectivo establecer restricciones en la etapa de entrada para minimizar el riesgo de dependencia. Específicamente, se debe prohibir en principio incluir nombres de artistas específicos o títulos de obras concretas en los prompts. Además, para funciones como Image-to-Image (i2i) que generan imágenes a partir de otras existentes, es necesario limitar su uso a imágenes de las que la empresa posea derechos o materiales con relaciones de derechos claramente definidas.

Además, la selección de servicios de AI a utilizar es crucial. Algunos planes de pago ofrecen “exención de derechos de autor” para compensar el riesgo de infracción de derechos de autor, pero se recomienda incluir en las normas un proceso para examinar las condiciones de aplicación y seleccionar aquellos que cumplan con los estándares de seguridad internos.

La siguiente tabla resume los puntos de verificación que deben organizarse en las normas internas para evitar infracciones de derechos de autor.

Punto de VerificaciónDirección Específica de la NormaPunto de Vista Fundacional
Entrada de PromptsProhibición de ingresar nombres de autores, títulos de obras y nombres propios específicosPara prevenir que se convierta en evidencia directa de dependencia
Aprendizaje Adicional (LoRA, etc.)Restricción del aprendizaje con el objetivo de reproducir el estilo de un titular de derechos específicoEvitar el riesgo de infracción de derechos por coexistencia de propósitos de disfrute
Uso de Imágenes ExternasLimitación a materiales con derechos propios de la empresa o con licencia adquiridaPara bloquear la ocurrencia de dependencia en la función i2i
Selección de ServiciosAdopción de planes con posibilidad de uso comercial y alta transparencia en relaciones de derechosVerificación del cumplimiento de los términos de uso y del sistema de compensación del proveedor de AI

 


Riesgo 2: ¿Se Genera “Derecho de Autor” en Productos Generados por IA? (Para No Convertirse en Víctima)

Cuando se utiliza IA para crear productos, es crucial considerar si se pueden reclamar derechos sobre esos productos si otra empresa los utiliza sin permiso. Según la interpretación actual de la ley japonesa, los productos generados de manera autónoma por IA no generan derechos de autor. Para que las empresas aseguren los derechos sobre los productos generados y los protejan como propiedad intelectual, deben cumplir con ciertas condiciones.


Definición de “Obra” y el Umbral de Creatividad en Japón

Según el artículo 2, párrafo 1, inciso 1 de la Ley de Derechos de Autor de Japón, una obra se define como “una expresión creativa de pensamientos o sentimientos”. Dado que la inteligencia artificial (IA) es una máquina que no posee ni “pensamientos” ni “sentimientos”, el contenido generado automáticamente por la IA no se reconoce como obra. Por lo tanto, los resultados obtenidos simplemente al ingresar un breve comando en la IA, generalmente no se consideran como una “contribución creativa” y, legalmente, no están protegidos, quedando en un estado que permite su uso libre por cualquier persona (similar al dominio público).

Para que se reconozca la calidad de obra, es necesario que un ser humano utilice la IA como una “herramienta” y que se le reconozca al humano una “intención creativa” y una “contribución creativa”. Más allá de simples instrucciones, el punto crucial para la generación de derechos es si el ser humano controla sustancialmente el contenido de la expresión.


Uso como “Herramienta” para Asegurar Derechos

Para determinar qué acciones específicas pueden ser reconocidas como contribuciones creativas bajo la ley japonesa, se consideran de manera integral los siguientes elementos. Primero, el contenido del prompt debe ser concreto y detallado. No basta con solicitar simplemente “un dibujo de un gato”; es necesario especificar minuciosamente la composición, el uso de colores, el estilo de pincelada, y refinar la expresión ideal a través de un proceso de ensayo y error. Luego, es importante que los humanos realicen adiciones o correcciones al output generado por la IA, o que combinen múltiples productos generados para añadir una nueva estructura. En estos casos, las partes modificadas por humanos generalmente se reconocen como obras protegidas por derechos de autor.

Para las empresas en Japón, es recomendable establecer un flujo de operación que permita guardar el proceso de generación (como el historial de prompts y los registros de modificaciones) para poder defenderse en caso de que los productos generados por IA en el ámbito laboral sean imitados por otras compañías.


Derechos de Propiedad de Productos Generados por IA en el Ámbito Laboral en Japón

Cuando un empleado utiliza inteligencia artificial (IA) en el ámbito laboral y realiza una contribución creativa para completar una obra, ¿a quién pertenecen esos derechos? Según el Artículo 15 de la Ley de Derechos de Autor de Japón (Heisei 45, 1993), si una obra es creada por una persona en el curso de su trabajo bajo la iniciativa de una entidad corporativa y se publica bajo el nombre de dicha entidad, el autor de la obra, salvo que se disponga lo contrario, será la entidad corporativa.

Incluso cuando se utiliza IA, si se reconoce una contribución creativa por parte de un humano, este marco de obra por encargo es aplicable. Sin embargo, las partes generadas autónomamente por la IA (sin contribución creativa humana) no generan derechos de autor y, por lo tanto, quedan fuera del ámbito del Artículo 15. Es importante que las regulaciones internas de la empresa especifiquen que los derechos de los productos generados por IA pertenecen a la compañía y que incluyan cláusulas que recomienden operaciones que involucren contribuciones creativas.

La siguiente tabla muestra los elementos y puntos de juicio para determinar la autoría de productos generados por IA.

Elementos de JuicioCasos donde se reconoce fácilmente la autoríaCasos donde se niega fácilmente la autoría
Naturaleza del PromptInstrucciones detalladas y específicas, especificación de detalles de expresiónInstrucciones breves y abstractas, solo presentación de ideas
Proceso de Prueba y ErrorGeneración y selección repetida, ajuste fino de instruccionesAdopción directa tras una sola generación
Edición HumanaAdición directa, corrección, cambio de color en el producto generadoUso del resultado de la IA sin modificaciones
Composición y SelecciónCombinación y disposición única de múltiples productos generadosPresentación de un solo producto generado

 


Riesgo 3: Defensa Legal Contra las Alucinaciones (Mentiras de la IA) Bajo la Ley Japonesa

Riesgo 3: Defensa Legal Contra las Alucinaciones (Mentiras de la IA)

Uno de los problemas técnicos más significativos que enfrenta la IA generativa es la alucinación. Este fenómeno ocurre cuando la IA produce mentiras que parecen plausibles, lo cual, en el uso empresarial, puede llevar a situaciones graves como la difamación por la difusión de información incorrecta o la toma de decisiones basadas en datos erróneos.


La Verdadera Naturaleza de las Alucinaciones y sus Efectos Negativos en los Negocios

Las alucinaciones ocurren porque la inteligencia artificial no verifica la veracidad, sino que busca la corrección probabilística en la secuencia de palabras. Esto puede llevar a la creación de precedentes inexistentes o a la presentación de eventos ficticios como hechos. De hecho, en Estados Unidos, se ha reportado un caso donde un abogado utilizó inteligencia artificial generativa para redactar documentos que contenían precedentes ficticios, lo que resultó en un gran problema en el tribunal.

En el ámbito empresarial, si se difunde información que contiene alucinaciones, pueden surgir los siguientes riesgos legales bajo el sistema legal japonés. Primero, si el contenido daña la reputación de una persona o entidad específica, puede haber responsabilidad por daños y perjuicios por difamación. Luego, si se toman decisiones de inversión basadas en datos de mercado o previsiones financieras incorrectas, se puede incurrir en una violación del deber de diligencia de un buen administrador (善管注意義務). Además, si se presentan especificaciones de productos o interpretaciones legales incorrectas a los clientes, existe la posibilidad de enfrentar responsabilidad por incumplimiento contractual o por obstrucción de negocios.


Medidas Técnicas: Uso de RAG (Generación de Búsqueda Ampliada) en Japón

Como medida de defensa técnica, la implementación de RAG (Generación de Búsqueda Ampliada) es efectiva. Esta técnica permite que la inteligencia artificial genere respuestas refiriéndose a documentos precisos y bases de datos confiables preparados previamente por la empresa, en lugar de información externa de fuentes indeterminadas. De esta manera, se puede clarificar la base de las respuestas y reducir significativamente el riesgo de alucinaciones.

No obstante, la implementación de RAG no elimina la necesidad de verificación humana. Todavía existe la posibilidad de que la inteligencia artificial interprete incorrectamente los materiales de referencia o realice resúmenes incompletos.


Medidas Operativas: Obligación de Verificación de Hechos

Lo más importante en las regulaciones internas es no aceptar ciegamente las salidas de la IA, sino establecer como proceso obligatorio la “verificación de hechos” realizada por humanos. Según las “Directrices para Operadores de IA” del Ministerio de Economía, Comercio e Industria y el Ministerio de Asuntos Internos y Comunicaciones de Japón, se establece que los usuarios de IA deben comprender la precisión de los resultados generados y tomar decisiones de uso con responsabilidad.

Referencia: Ministerio de Economía, Comercio e Industria|Directrices para Operadores de IA

Específicamente, se debe establecer un flujo que compare los hechos y cifras presentados por la IA con información primaria como sitios oficiales de agencias gubernamentales, estadísticas públicas y comunicados oficiales. En particular, para documentos que se emiten externamente, materiales relacionados con transacciones de alto valor y documentos con validez legal, se debe incluir en las regulaciones un sistema estricto de doble verificación, reconociendo que son productos generados por IA.


Ejemplo de Normativa Interna para la Gestión de Derechos y Veracidad con IA

Basándonos en el análisis de riesgos hasta este punto, presentamos ejemplos específicos de cláusulas que deberían incluirse en la normativa interna. La normativa no solo debe definir “prohibiciones”, sino también el “proceso de uso”, proporcionando así una guía para que los empleados utilicen la IA de manera segura.

Prohibiciones al Ingresar Prompts (Relacionado con Derechos de Autor y Seguridad)

Ejemplo de normativa:

    1. Los usuarios no deben ingresar nombres de individuos específicos, celebridades o artistas en la IA generativa, ni dar instrucciones para imitar su estilo o características.

    1. Solo se permite ingresar obras existentes como imágenes, documentos o código fuente para su adaptación o modificación si la empresa es el legítimo titular de los derechos de dichas obras o si se ha obtenido permiso para el uso de la IA.

    1. Está estrictamente prohibido ingresar información confidencial de la empresa, datos personales o obras no publicadas de terceros en servicios que puedan utilizarse como datos de aprendizaje.

 

Proceso de Uso de Productos Generados por IA (Verificación de Exactitud y Similitud)

Ejemplo de normativa:

    1. Cuando se utilicen productos generados por IA en materiales externos, publicidad, productos o servicios, el responsable debe verificar mediante medios objetivos, como la búsqueda de imágenes en Google o herramientas comerciales de verificación de plagio, que no exista similitud con obras existentes.

    1. La información generada por IA que incluya hechos, cifras, contextos históricos o interpretaciones legales debe ser cotejada con fuentes primarias confiables (datos oficiales, documentos oficiales, etc.) y confirmada por una persona para asegurar su veracidad antes de su uso.

    1. Si se utilizan productos generados por IA para decisiones importantes, se debe registrar el proceso de generación (prompts utilizados, fuentes cotejadas) y obtener la aprobación de un superior o del departamento especializado.

 

Flujo de Reconfirmación de Normativas para Uso Comercial

Ejemplo de normativa:

    1. Cuando se utilicen servicios de IA generativa con fines comerciales o de distribución externa, el responsable debe revisar los términos de uso más recientes del servicio y confirmar de antemano que no haya problemas con la posibilidad de uso comercial y la atribución de derechos sobre los productos generados.

    1. Si el proveedor del servicio modifica los términos de uso, se debe examinar rápidamente el contenido y reevaluar su coherencia con la normativa interna.

 


Conclusión: Consulte a un abogado para establecer regulaciones internas sobre el uso seguro de la IA en Japón

La inteligencia artificial generativa, cuando se controla adecuadamente, puede ser un “asistente excelente” que potencia la creatividad humana y eleva la productividad laboral a niveles extraordinarios. Sin embargo, este asistente también tiene el potencial de infringir derechos de autor, que son derechos de terceros, y de presentar falsedades plausibles que podrían poner a la organización en una situación crítica. Los riesgos detallados en este artículo no están destinados a restringir el uso de la IA, sino a comprender correctamente la naturaleza de estos riesgos y establecer “barreras de seguridad” adecuadas para poder acelerar al máximo.

La construcción de una gobernanza de IA por parte de las empresas ya no es una opción, sino una condición indispensable para una gestión sostenible. Establecer regulaciones internas que reflejen la Ley de Derechos de Autor de Japón, las directrices para operadores de IA y las opiniones más recientes de la Agencia de Asuntos Culturales, y establecer un sistema “Human-in-the-loop” donde los humanos asuman la responsabilidad final, determinará el éxito o fracaso en la era de la IA.


Guía de Medidas por Parte de Nuestra Firma

El despacho de abogados Monolith es una firma legal con amplia experiencia en IT, especialmente en internet y leyes. Los negocios de inteligencia artificial (IA) conllevan numerosos riesgos legales, por lo que es esencial contar con el apoyo de abogados familiarizados con los problemas legales relacionados con la IA. Nuestra firma ofrece un soporte legal avanzado para negocios de IA que utilizan herramientas como ChatGPT, a través de un equipo compuesto por abogados y expertos en ingeniería que dominan la IA. Proveemos servicios como la redacción de contratos, evaluación de la legalidad de modelos de negocio, protección de derechos de propiedad intelectual, cumplimiento de normativas de privacidad y establecimiento de regulaciones internas sobre IA. Detallamos más información en el artículo a continuación.

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Volver arriba