¿Cuáles son los riesgos de utilizar ChatGPT para fines comerciales? Explicación sobre problemas legales
Desde su lanzamiento, ChatGPT ha atraído una gran atención mundial por su utilidad. Sin embargo, también se ha reconocido que su uso conlleva diversos riesgos. Aún estamos en una fase en la que se está desarrollando la legislación pertinente, y es un hecho que muchos empresarios se sienten inseguros sobre los riesgos de utilizar ChatGPT en los negocios y las formas de mitigarlos.
En este artículo, explicaremos los riesgos legales de utilizar ChatGPT en los negocios y las medidas para manejarlos.
Cuatro riesgos al utilizar ChatGPT en los negocios
En el ámbito empresarial, el uso de la inteligencia artificial de generación de lenguaje natural como ChatGPT está avanzando, y la tasa de adopción corporativa para el año fiscal 2022 fue del 13.5%, que asciende al 24.0% si incluimos a las empresas que planean su implementación. (Fuente: Ministerio de Asuntos Internos y Comunicaciones de Japón | Libro Blanco de Información y Comunicaciones del año Reiwa 7 (2023) Encuesta sobre Tendencias de Uso de Comunicaciones ‘Estado de implementación de sistemas y servicios de IoT y AI en empresas[ja]’)
Es cierto que la tecnología AI, incluyendo ChatGPT, es efectiva para mejorar la eficiencia operativa de las empresas y se anticipa que generará aún más oportunidades de negocio. Sin embargo, también conlleva numerosos riesgos legales. Por lo tanto, es necesario comprender completamente estos riesgos antes de decidir utilizarla en los negocios.
Por ejemplo, los expertos están alertando sobre los riesgos potenciales de la IA, como problemas de derechos de autor, la difusión de información errónea, la fuga de información confidencial, problemas de privacidad y el mal uso en ataques cibernéticos.
En este capítulo, explicaremos los cuatro riesgos de utilizar ChatGPT en los negocios.
Riesgo de fuga de información debido a la función de aprendizaje
Aunque ChatGPT es conveniente, al ser un chatbot de IA generado a partir del aprendizaje de diversos datos en Internet, si no se toman medidas, existe el riesgo de que la información introducida se utilice en el aprendizaje y se filtre.
Según la política de uso de datos[ja] de OpenAI, a menos que los usuarios opten por no participar o utilicen la “API” de ChatGPT, los datos introducidos en ChatGPT pueden ser recopilados y utilizados (aprendidos) por OpenAI.
Es crucial tener cuidado de no introducir información personal o confidencial, como información altamente secreta, sin tomar las medidas adecuadas. Incluso si se introduce accidentalmente información personal en ChatGPT, se mostrará un mensaje de advertencia y ChatGPT está diseñado para no almacenar ni rastrear información personal, ni producirla en el chat.
Por otro lado, en el pasado hubo un incidente en el que la información personal registrada por los usuarios se filtró debido a un error en el sistema de OpenAI, la empresa que opera ChatGPT.
Artículo relacionado: ¿Cuál es el riesgo de fuga de información de ChatGPT? Introducción de 4 medidas que se deben tomar[ja]
Riesgos de la falta de credibilidad de la información
Desde mayo de 2023, la función de navegación web implementada en ChatGPT ha dotado al sistema de capacidades de búsqueda, permitiendo a ChatGPT recopilar información actualizada y responder en base a esos resultados.
No obstante, aunque ChatGPT emite respuestas que parecen veraces, su credibilidad no está garantizada. Las respuestas generadas por ChatGPT no se basan en la precisión de los datos de aprendizaje, sino que se crean a partir de lo que se considera el texto más probable. Por lo tanto, es indispensable realizar una verificación de hechos de las respuestas de ChatGPT. Si se difunde información falsa basada en las respuestas de ChatGPT, existe el riesgo de dañar la credibilidad de la empresa en sí.
El 3 de abril de 2023 (Reiwa 5), la Universidad de Tokio expresó su preocupación sobre los desafíos técnicos de ChatGPT y el impacto que podría tener en la sociedad futura, emitiendo la siguiente declaración:
“El principio de ChatGPT se basa en la creación de textos plausibles mediante el aprendizaje automático y el aprendizaje por refuerzo de una gran cantidad de textos y contenidos existentes. Por lo tanto, existe la posibilidad de que el contenido incluya falsedades. Es como hablar con una persona que finge saber mucho, pero que en realidad no lo sabe. (Sin embargo, la última versión, GPT-4, ha mejorado significativamente en precisión y es un interlocutor bastante competente). Por lo tanto, para manejar ChatGPT con destreza, se requiere conocimiento especializado y es necesario revisar críticamente las respuestas y corregirlas cuando sea apropiado. Además, no puede analizar ni describir nuevos conocimientos que no estén en la información existente. En otras palabras, la aparición de ChatGPT no significa que los humanos puedan descuidar su propio estudio e investigación. No obstante, si una persona con cultura y conocimiento especializado analiza críticamente el contenido de las respuestas y lo utiliza hábilmente, podría mejorar enormemente la eficiencia de las tareas rutinarias.”
Fuente: Universidad de Tokio | “Sobre la IA generativa (ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion, etc.)[ja]“
Riesgos legales como la infracción de derechos de autor y la violación de la privacidad
La determinación de la infracción de derechos de autor en ChatGPT se divide entre las fases de “desarrollo y aprendizaje de la IA” y la de “generación y uso”. Como las acciones de uso de las obras protegidas por derechos de autor varían en cada etapa, también lo hacen los artículos de la ley de derechos de autor aplicables. Por lo tanto, es necesario considerar ambas fases por separado.
En la ley de derechos de autor revisada, que entró en vigor en enero de 2019, se introdujo un nuevo artículo, el 30.4, que establece excepciones a los derechos de autor (excepciones que no requieren autorización) para la fase de “desarrollo y aprendizaje de la IA”. Los actos de uso de obras protegidas por derechos de autor que no tienen como objetivo disfrutar de las ideas o emociones expresadas en dichas obras, como el análisis de información para el desarrollo de la IA, pueden realizarse en principio sin el permiso del titular de los derechos de autor.
Por otro lado, si se reconoce que los productos generados por ChatGPT tienen similitudes o dependencia (modificación) con obras protegidas por derechos de autor, esto constituirá una infracción de derechos de autor. Por lo tanto, antes de publicar, es importante verificar los derechos de los propietarios de la información a la que ChatGPT ha hecho referencia y asegurarse de que no haya contenido similar al creado por ChatGPT. Además, al citar una obra protegida por derechos de autor, se debe indicar claramente la fuente (excepciones a los derechos de autor), y al reproducir una obra, se debe obtener el permiso del titular de los derechos de autor y manejarlo adecuadamente.
Según los términos de servicio de OpenAI, el contenido creado por ChatGPT puede utilizarse con fines comerciales. Sin embargo, si es difícil determinar si el contenido creado con ChatGPT infringe los derechos de autor, se recomienda consultar a un experto.
Si un titular de derechos de autor señala una infracción de derechos de autor, se puede incurrir en responsabilidad civil (indemnización por daños y perjuicios, compensación por angustia, cese de uso, restauración de la reputación, etc.) o responsabilidad penal (delitos perseguibles por querella). En el caso de las empresas, se pueden aplicar sanciones tanto a individuos como a entidades legales bajo las disposiciones de doble penalidad, lo que puede resultar en daños significativos.
En cuanto a la información personal y la privacidad, también es necesario tener cuidado de no introducirlos en ChatGPT. Como se mencionó anteriormente, incluso si se introduce accidentalmente información personal en ChatGPT, este no almacena ni rastrea información personal y está diseñado para no poder producirla en el chat. Sin embargo, esto es una política de OpenAI y puede ser diferente en otras plataformas o servicios.
Para más información sobre el riesgo de fuga de información personal, por favor lea el siguiente artículo.
Artículo relacionado: El riesgo de fuga de información personal en empresas y la compensación por daños[ja]
Riesgo de crear contenido dañino sin intención
Dependiendo del contenido de los datos aprendidos por ChatGPT y del contenido de los prompts, existe la posibilidad de crear contenido dañino. Si se publica contenido creado por ChatGPT sin una revisión adecuada, se puede dañar la reputación y el valor de la marca de la empresa, y también podría derivar en problemas legales.
Aunque se ha configurado a ChatGPT para que no pueda procesar contenido dañino, es difícil discernir y puede terminar generando códigos de programas dañinos o servicios fraudulentos. Teniendo en cuenta estos riesgos, es crucial establecer un sistema que siempre verifique el contenido creado.
Entienda los Términos de Uso para Evitar Riesgos al Utilizar ChatGPT
Al utilizar ChatGPT para fines comerciales, es esencial evitar riesgos siguiendo los Términos de Uso y la Política de Privacidad de OpenAI. Dado que los Términos de Uso se actualizan con frecuencia, es necesario revisar los cambios y estar al tanto de la versión más reciente al usarlo en el ámbito empresarial.
Artículo relacionado: Explicación de los Términos de Uso de OpenAI, ¿cuáles son los puntos de atención en el uso comercial?[ja]
Cómo evitar riesgos en el uso empresarial de ChatGPT
Para evitar los riesgos asociados con ChatGPT y utilizarlo adecuadamente en los negocios, se requiere que las empresas establezcan el siguiente sistema de gobernanza.
Crear reglas internas
El 1 de mayo de 2023 (Reiwa 5), la Asociación Japonesa de Aprendizaje Profundo (JDLA) compiló los puntos de discusión éticos, legales y sociales (ELSI) de ChatGPT y publicó las “Directrices para el uso de IA generativa”. También se está avanzando en la elaboración de directrices en los sectores académico, gubernamental e industrial.
Al introducir ChatGPT en una empresa, es esencial mejorar la alfabetización en seguridad de la información personal y la educación interna, pero también es deseable establecer directrices propias para el uso de ChatGPT. Al formular y difundir ampliamente una guía que codifique las reglas de uso de ChatGPT de la propia empresa, se puede esperar evitar ciertos riesgos.
Referencia: Asociación Japonesa de Aprendizaje Profundo (JDLA) | “Directrices para el uso de IA generativa[ja]“
Establecer un supervisor para el uso de ChatGPT
Es efectivo para la prevención de riesgos designar un supervisor interno para el uso de ChatGPT, quien monitoreará constantemente la operación de las directrices y gestionará los riesgos.
Supervisar el comportamiento de ChatGPT, corregir los resultados generados y gestionar los datos es una tarea que generalmente se asemeja a la auditoría de sistemas. La auditoría de sistemas evalúa objetivamente la eficiencia, seguridad y fiabilidad de los sistemas de información, y se lleva a cabo con el objetivo de mejorar la eficiencia operativa y apoyar la transformación organizacional. Establecer un supervisor para realizar la auditoría puede también fortalecer la transparencia y la responsabilidad en la operación.
Resumen: Es esencial tomar medidas para evitar riesgos en el uso empresarial de ChatGPT
En este artículo, hemos explicado en detalle los riesgos y las medidas de prevención asociados con el uso empresarial de ChatGPT.
En el negocio de la inteligencia artificial, que evoluciona rápidamente, como es el caso de ChatGPT, es imprescindible contar con una serie de estrategias de prevención de riesgos legales. Estas incluyen la creación de directrices para el uso interno, la evaluación de la legalidad del modelo de negocio, la redacción de contratos y términos de uso, la protección de los derechos de propiedad intelectual y la gestión de la privacidad. Para ello, es fundamental la colaboración con expertos especializados en tecnología AI y en derecho.
Presentación de las medidas de nuestra firma
Monolith Law Office es un despacho de abogados con una amplia experiencia en IT, especialmente en Internet y derecho. Los negocios de IA conllevan numerosos riesgos legales, y el apoyo de abogados especializados en problemas legales relacionados con la IA es esencial.
Nuestra firma cuenta con un equipo de abogados y profesionales como ingenieros especializados en IA, que brindan una variedad de apoyos legales para negocios de IA, incluyendo ChatGPT. Los detalles se encuentran en el artículo a continuación.
Áreas de práctica de Monolith Law Office: Asuntos legales de IA (incluyendo ChatGPT)[ja]
Category: IT
Tag: ITTerms of Use