{"id":69314,"date":"2024-07-16T19:42:47","date_gmt":"2024-07-16T10:42:47","guid":{"rendered":"https:\/\/monolith.law\/es\/?p=69314"},"modified":"2024-07-20T11:43:32","modified_gmt":"2024-07-20T02:43:32","slug":"ai-law-regulation","status":"publish","type":"post","link":"https:\/\/monolith.law\/es\/it\/ai-law-regulation","title":{"rendered":"\u00bfCu\u00e1l es la situaci\u00f3n actual de las leyes que regulan la IA? Comparaci\u00f3n entre Jap\u00f3n y la UE y puntos clave de las estrategias"},"content":{"rendered":"\n<p>La inteligencia artificial generativa, como ChatGPT, se ha convertido en un gran fen\u00f3meno. Ahora, al ser adoptada en el \u00e1mbito empresarial, se dice que esta IA generativa es el catalizador de la &#8220;cuarta ola de auge de la IA&#8221;. En consonancia, se est\u00e1 avanzando en el desarrollo de un marco legal para regular la IA a nivel mundial.<\/p>\n\n\n\n<p>En este art\u00edculo, abordaremos las leyes relacionadas con la IA, explicando el manejo adecuado de informaci\u00f3n confidencial como los derechos de propiedad intelectual y los datos personales.<\/p>\n\n\n\n<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_53 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<div class=\"ez-toc-title-container\">\n<span class=\"ez-toc-title-toggle\"><\/span><\/div>\n<nav><ul class='ez-toc-list ez-toc-list-level-1 ' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/monolith.law\/es\/it\/ai-law-regulation\/#Definicion_e_historia_de_la_IA_Inteligencia_Artificial\" title=\"Definici\u00f3n e historia de la IA (Inteligencia Artificial)\">Definici\u00f3n e historia de la IA (Inteligencia Artificial)<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/monolith.law\/es\/it\/ai-law-regulation\/#Escenarios_Negocios_donde_se_debe_revisar_la_legislacion_sobre_IA\" title=\"Escenarios Negocios donde se debe revisar la legislaci\u00f3n sobre IA\">Escenarios Negocios donde se debe revisar la legislaci\u00f3n sobre IA<\/a><ul class='ez-toc-list-level-3'><li class='ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/monolith.law\/es\/it\/ai-law-regulation\/#Uso_de_IA_para_generacion_de_texto\" title=\"Uso de IA para generaci\u00f3n de texto\">Uso de IA para generaci\u00f3n de texto<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-4\" href=\"https:\/\/monolith.law\/es\/it\/ai-law-regulation\/#Uso_de_IA_para_generacion_de_imagenes\" title=\"Uso de IA para generaci\u00f3n de im\u00e1genes\">Uso de IA para generaci\u00f3n de im\u00e1genes<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-5\" href=\"https:\/\/monolith.law\/es\/it\/ai-law-regulation\/#Desarrollo_de_IA_y_provision_de_servicios_de_IA_generativa\" title=\"Desarrollo de IA y provisi\u00f3n de servicios de IA generativa\">Desarrollo de IA y provisi\u00f3n de servicios de IA generativa<\/a><\/li><\/ul><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-6\" href=\"https:\/\/monolith.law\/es\/it\/ai-law-regulation\/#Leyes_japonesas_sobre_la_IA\" title=\"Leyes japonesas sobre la IA\">Leyes japonesas sobre la IA<\/a><ul class='ez-toc-list-level-3'><li class='ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-7\" href=\"https:\/\/monolith.law\/es\/it\/ai-law-regulation\/#Ley_de_Derechos_de_Autor\" title=\"Ley de Derechos de Autor\">Ley de Derechos de Autor<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-8\" href=\"https:\/\/monolith.law\/es\/it\/ai-law-regulation\/#Ley_de_Prevencion_de_la_Competencia_Desleal\" title=\"Ley de Prevenci\u00f3n de la Competencia Desleal\">Ley de Prevenci\u00f3n de la Competencia Desleal<\/a><\/li><\/ul><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-9\" href=\"https:\/\/monolith.law\/es\/it\/ai-law-regulation\/#Leyes_de_la_UE_sobre_el_uso_de_la_IA\" title=\"Leyes de la UE sobre el uso de la IA\">Leyes de la UE sobre el uso de la IA<\/a><ul class='ez-toc-list-level-3'><li class='ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-10\" href=\"https:\/\/monolith.law\/es\/it\/ai-law-regulation\/#Propuesta_de_Directiva_de_Responsabilidad_de_la_IA\" title=\"Propuesta de Directiva de Responsabilidad de la IA\">Propuesta de Directiva de Responsabilidad de la IA<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-11\" href=\"https:\/\/monolith.law\/es\/it\/ai-law-regulation\/#Propuesta_de_modificacion_de_la_Directiva_de_Responsabilidad_por_Productos\" title=\"Propuesta de modificaci\u00f3n de la Directiva de Responsabilidad por Productos\">Propuesta de modificaci\u00f3n de la Directiva de Responsabilidad por Productos<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-12\" href=\"https:\/\/monolith.law\/es\/it\/ai-law-regulation\/#Ley_de_Regulacion_de_la_IA\" title=\"Ley de Regulaci\u00f3n de la IA\">Ley de Regulaci\u00f3n de la IA<\/a><\/li><\/ul><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-13\" href=\"https:\/\/monolith.law\/es\/it\/ai-law-regulation\/#Puntos_clave_a_tener_en_cuenta_en_la_legislacion_sobre_IA\" title=\"Puntos clave a tener en cuenta en la legislaci\u00f3n sobre IA\">Puntos clave a tener en cuenta en la legislaci\u00f3n sobre IA<\/a><ul class='ez-toc-list-level-3'><li class='ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-14\" href=\"https:\/\/monolith.law\/es\/it\/ai-law-regulation\/#Sobre_los_derechos_de_autor_de_las_obras_creadas_por_IA\" title=\"Sobre los derechos de autor de las obras creadas por IA\">Sobre los derechos de autor de las obras creadas por IA<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-15\" href=\"https:\/\/monolith.law\/es\/it\/ai-law-regulation\/#Sobre_el_manejo_de_informacion_personal_al_utilizar_IA\" title=\"Sobre el manejo de informaci\u00f3n personal al utilizar IA\">Sobre el manejo de informaci\u00f3n personal al utilizar IA<\/a><\/li><\/ul><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-16\" href=\"https:\/\/monolith.law\/es\/it\/ai-law-regulation\/#Medidas_de_riesgo_para_empresas_involucradas_con_IA\" title=\"Medidas de riesgo para empresas involucradas con IA\">Medidas de riesgo para empresas involucradas con IA<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-17\" href=\"https:\/\/monolith.law\/es\/it\/ai-law-regulation\/#Resumen_Es_necesario_mantenerse_al_dia_con_las_leyes_de_IA_ya_que_estan_en_proceso_de_desarrollo\" title=\"Resumen: Es necesario mantenerse al d\u00eda con las leyes de IA, ya que est\u00e1n en proceso de desarrollo\">Resumen: Es necesario mantenerse al d\u00eda con las leyes de IA, ya que est\u00e1n en proceso de desarrollo<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-18\" href=\"https:\/\/monolith.law\/es\/it\/ai-law-regulation\/#Guia_de_medidas_por_parte_de_nuestro_despacho\" title=\"Gu\u00eda de medidas por parte de nuestro despacho\">Gu\u00eda de medidas por parte de nuestro despacho<\/a><\/li><\/ul><\/nav><\/div>\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Definicion_e_historia_de_la_IA_Inteligencia_Artificial\"><\/span>Definici\u00f3n e historia de la IA (Inteligencia Artificial)<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>IA (inteligencia artificial) se refiere a &#8220;inteligencia artificial&#8221;. Legalmente, no existe una definici\u00f3n estricta, y hay varias definiciones. A continuaci\u00f3n, se muestra un ejemplo.<\/p>\n\n\n\n<figure class=\"wp-block-table\"><table><tbody><tr><td>Fuente<\/td><td>Definici\u00f3n \/ Explicaci\u00f3n<\/td><\/tr><tr><td>&#8220;K\u014djien&#8221;<\/td><td>Un sistema de computadora equipado con funciones intelectuales como razonamiento y juicio.<\/td><\/tr><tr><td>&#8220;Enciclopedia Brit\u00e1nica&#8221;<\/td><td>Ciencia y tecnolog\u00eda &gt; Computadoras y IA. La capacidad de los ordenadores digitales o robots inform\u00e1ticos para realizar tareas relacionadas con seres inteligentes.<\/td><\/tr><tr><td>Art\u00edculo de la Sociedad Japonesa de Inteligencia Artificial &#8220;AI como conocimiento cultural&#8221;<\/td><td>La respuesta a la pregunta &#8220;\u00bfQu\u00e9 es la IA?&#8221; no es simple. Incluso entre los expertos en IA, hay un gran debate, y las opiniones son tan variadas que podr\u00edan llenar un libro. Sin embargo, si se extrae un denominador com\u00fan y se resume en una frase, ser\u00eda &#8220;la tecnolog\u00eda que realiza el mismo trabajo intelectual que los humanos de manera mec\u00e1nica&#8221;.<\/td><\/tr><tr><td>Art\u00edculo acad\u00e9mico &#8220;Aprendizaje profundo e inteligencia artificial&#8221;<\/td><td>La IA es un campo de estudio que intenta explicar constructivamente los mecanismos de la inteligencia humana.<\/td><\/tr><tr><td>Art\u00edculo acad\u00e9mico &#8220;En busca de una sociedad de inteligencia artificial ideal&#8221;<\/td><td>La IA y otras tecnolog\u00edas de la informaci\u00f3n son meramente herramientas.<\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<p>La IA se refiere a una variedad de tecnolog\u00edas, software, sistemas inform\u00e1ticos y algoritmos que reproducen la capacidad intelectual humana en computadoras.<\/p>\n\n\n\n<p>Entre las principales IA especializadas, se incluyen las siguientes:<\/p>\n\n\n\n<ul>\n<li>Procesamiento del lenguaje natural (traducci\u00f3n autom\u00e1tica, an\u00e1lisis sint\u00e1ctico, an\u00e1lisis morfol\u00f3gico, RNN, etc.)<\/li>\n\n\n\n<li>Sistemas expertos que imitan el razonamiento y juicio de expertos<\/li>\n\n\n\n<li>Reconocimiento de im\u00e1genes y voz, entre otros, que detectan y extraen patrones espec\u00edficos de datos<\/li>\n<\/ul>\n\n\n\n<p>El campo de la IA ha estado en desarrollo continuo desde la d\u00e9cada de 1950, que fue el amanecer de la era de las computadoras. La primera ola de entusiasmo por la IA dur\u00f3 hasta la d\u00e9cada de 1970 con investigaciones sobre &#8220;b\u00fasqueda y razonamiento&#8221;, la segunda ola ocurri\u00f3 en la d\u00e9cada de 1980 con investigaciones sobre &#8220;representaci\u00f3n del conocimiento&#8221;, lo que llev\u00f3 al nacimiento de los sistemas expertos, marcando dos paradigmas significativos en el campo.<\/p>\n\n\n\n<p>Desde la d\u00e9cada de 2000, con la aparici\u00f3n de big data y, despu\u00e9s de 2012, con la introducci\u00f3n de Alexnet, la utilidad del aprendizaje profundo (deep learning) en el procesamiento de im\u00e1genes se reconoci\u00f3 mundialmente, lo que aceler\u00f3 r\u00e1pidamente la investigaci\u00f3n y trajo la tercera ola de entusiasmo por la IA.<\/p>\n\n\n\n<p>Entre 2016 y 2017, aparecieron IA que incorporaban aprendizaje profundo y aprendizaje por refuerzo (Q-learning, m\u00e9todos de gradiente de pol\u00edtica).<\/p>\n\n\n\n<p>La principal revoluci\u00f3n de la tercera ola de entusiasmo por la IA ha sido notable en el procesamiento del lenguaje natural y el procesamiento de im\u00e1genes mediante sensores, pero tambi\u00e9n ha tenido un gran impacto en campos como el desarrollo tecnol\u00f3gico, la sociolog\u00eda, la \u00e9tica y la econom\u00eda.<\/p>\n\n\n\n<p>El 30 de noviembre de 2022, el lanzamiento de ChatGPT por OpenAI, una IA de generaci\u00f3n de lenguaje natural, atrajo mucha atenci\u00f3n como una herramienta vers\u00e1til, impulsando el negocio de la IA generativa. Algunas personas llaman a este fen\u00f3meno social la cuarta ola de entusiasmo por la IA.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Escenarios_Negocios_donde_se_debe_revisar_la_legislacion_sobre_IA\"><\/span>Escenarios Negocios donde se debe revisar la legislaci\u00f3n sobre IA<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/monolith.law\/wp-content\/uploads\/2024\/02\/Shutterstock_2327096251.jpg\" alt=\"Escenarios Negocios donde se debe revisar la regulaci\u00f3n legal\" class=\"wp-image-64167\" \/><\/figure>\n\n\n\n<p>La IA generativa, una forma de inteligencia artificial, es una herramienta \u00fatil que, por otro lado, puede propagar informaci\u00f3n err\u00f3nea, fomentar el crimen e incluso amenazar la democracia con sus riesgos.<\/p>\n\n\n\n<p>Estos riesgos asociados con la IA se han convertido en un desaf\u00edo ineludible. Por lo tanto, explicaremos los escenarios Negocios en los que se debe revisar la regulaci\u00f3n legal, desde la perspectiva tanto de los usuarios como de los proveedores.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Uso_de_IA_para_generacion_de_texto\"><\/span>Uso de IA para generaci\u00f3n de texto<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>Desde el lanzamiento de ChatGPT en noviembre de 2022, la IA para generaci\u00f3n de texto ha recibido atenci\u00f3n mundial como una herramienta vers\u00e1til que promete eficiencia en el trabajo y una alta relaci\u00f3n costo-beneficio, debido a su capacidad para manejar solicitudes complejas.<\/p>\n\n\n\n<p>Por otro lado, tambi\u00e9n se han conocido los riesgos asociados con el uso de IA para generaci\u00f3n de texto. Es esencial ser consciente de estos riesgos potenciales y saber qu\u00e9 leyes se deben cumplir para evitarlos.<\/p>\n\n\n\n<p>ChatGPT, representante de la IA para generaci\u00f3n de texto, presenta el riesgo de filtraci\u00f3n de informaci\u00f3n (prompts) ingresada por el usuario si no se toman medidas. Dado que ChatGPT tiene la capacidad de recopilar, almacenar y utilizar prompts, existe el riesgo de filtraci\u00f3n de informaci\u00f3n confidencial personal, corporativa o adquirida a trav\u00e9s de acuerdos de confidencialidad (NDA).<\/p>\n\n\n\n<p>Adem\u00e1s, ChatGPT puede generar y difundir informaci\u00f3n err\u00f3nea (alucinaciones), lo que representa riesgos de violaci\u00f3n de derechos de autor, entre otros. Por lo tanto, es indispensable verificar los hechos de los contenidos generados.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Uso_de_IA_para_generacion_de_imagenes\"><\/span>Uso de IA para generaci\u00f3n de im\u00e1genes<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>Al utilizar IA para generaci\u00f3n de im\u00e1genes en el negocio, es crucial tener en cuenta el riesgo de violaci\u00f3n de derechos de autor.<\/p>\n\n\n\n<p>Seg\u00fan OpenAI, los derechos de autor de las im\u00e1genes y textos generados por ChatGPT, entre otros, pertenecen generalmente al usuario que los gener\u00f3. Los usuarios pueden utilizar ChatGPT para cualquier prop\u00f3sito, incluido el uso comercial.<\/p>\n\n\n\n<p>Sin embargo, es necesario prestar atenci\u00f3n a los siguientes puntos:<\/p>\n\n\n\n<p>Los datos de entrenamiento de ChatGPT incluyen una gran cantidad de contenido publicado en Internet, la mayor\u00eda de los cuales son obras protegidas por derechos de autor (textos, im\u00e1genes, m\u00fasica, videos, etc.). Por lo tanto, el contenido generado podr\u00eda infringir los derechos de autor de terceros.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Desarrollo_de_IA_y_provision_de_servicios_de_IA_generativa\"><\/span>Desarrollo de IA y provisi\u00f3n de servicios de IA generativa<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>El negocio de la IA est\u00e1 sujeto a diversas leyes, y dado que el marco legal global est\u00e1 en proceso de ser establecido, se requiere una actitud flexible para cumplir con las leyes existentes mientras se adapta a las nuevas legislaciones.<\/p>\n\n\n\n<p>En el siguiente cap\u00edtulo, explicaremos las leyes relacionadas con la IA en Jap\u00f3n y el &#8220;Reglamento de IA&#8221; de la UE, la primera legislaci\u00f3n internacional de su tipo, promulgada en diciembre de 2023.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Leyes_japonesas_sobre_la_IA\"><\/span>Leyes japonesas sobre la IA<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Actualmente en Jap\u00f3n, la IA no est\u00e1 regulada por leyes con fuerza coercitiva, sino que se adopta una pol\u00edtica de autorregulaci\u00f3n. Aqu\u00ed explicaremos las leyes actuales que deben tenerse en cuenta al utilizar la IA.<\/p>\n\n\n\n<p>Referencia: Ministerio de Econom\u00eda, Comercio e Industria | <a href=\"https:\/\/www.meti.go.jp\/shingikai\/mono_info_service\/ai_shakai_jisso\/pdf\/20220128_1.pdf\" target=\"_blank\" rel=\"noreferrer noopener\">&#8220;Directrices de gobernanza para la pr\u00e1ctica de los principios de la IA ver. 1.1&#8243;[ja]<\/a><\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Ley_de_Derechos_de_Autor\"><\/span>Ley de Derechos de Autor<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>En enero de 2019 (A\u00f1o 31 de Heisei), se implement\u00f3 la &#8220;Ley de Derechos de Autor Revisada&#8221;, que introdujo una nueva disposici\u00f3n sobre limitaciones de derechos (una excepci\u00f3n que no requiere permiso) para &#8220;an\u00e1lisis de informaci\u00f3n&#8221; (Art\u00edculo 30-4, p\u00e1rrafo 1, \u00edtem 2 de la misma ley). Los actos de uso que no tienen como objetivo disfrutar de los pensamientos o sentimientos expresados en las obras, como el an\u00e1lisis de informaci\u00f3n en el desarrollo de la IA y en la etapa de aprendizaje, pueden realizarse sin el permiso del titular de los derechos de autor.<\/p>\n\n\n\n<p>Esta revisi\u00f3n ha establecido claramente que el aprendizaje profundo y el aprendizaje autom\u00e1tico de la IA, incluido en &#8220;an\u00e1lisis de informaci\u00f3n&#8221;.<\/p>\n\n\n\n<blockquote class=\"wp-block-quote\">\n<p>En casos de utilizaci\u00f3n para an\u00e1lisis de informaci\u00f3n (extracci\u00f3n de informaci\u00f3n relacionada con el lenguaje, sonido, im\u00e1genes y otros elementos de una gran cantidad de obras y otra informaci\u00f3n masiva, y realizar comparaciones, clasificaciones y otros an\u00e1lisis)<\/p>\n<cite>Art\u00edculo 30-4, p\u00e1rrafo 1, \u00edtem 2 de la Ley de Derechos de Autor<\/cite><\/blockquote>\n\n\n\n<p>Por otro lado, es necesario tener cuidado ya que las obras creadas mediante el uso de IA que presenten similitudes o dependencias con otras obras protegidas por derechos de autor pueden constituir una infracci\u00f3n de los derechos de autor.<\/p>\n\n\n\n<p>Adem\u00e1s, ingresar una obra protegida por derechos de autor como prompt en ChatGPT podr\u00eda resultar en una infracci\u00f3n de derechos, como el derecho de reproducci\u00f3n. Modificar la obra de otro mediante el uso de IA generativa podr\u00eda tambi\u00e9n resultar en una infracci\u00f3n de derechos, como el derecho de transformaci\u00f3n.<\/p>\n\n\n\n<p>Seg\u00fan los t\u00e9rminos de servicio de OpenAI, los derechos sobre el contenido creado por ChatGPT pertenecen al usuario, y su uso comercial es posible. Sin embargo, si es dif\u00edcil determinar si el contenido infringe los derechos de autor, se recomienda consultar a un experto.<\/p>\n\n\n\n<p>En caso de que un titular de derechos de autor se\u00f1ale una infracci\u00f3n de derechos de autor, se podr\u00eda incurrir en responsabilidad civil (cese de uso, indemnizaci\u00f3n por da\u00f1os y perjuicios, compensaci\u00f3n por da\u00f1o moral, restauraci\u00f3n de la reputaci\u00f3n, etc.) y responsabilidad penal.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Ley_de_Prevencion_de_la_Competencia_Desleal\"><\/span>Ley de Prevenci\u00f3n de la Competencia Desleal<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>El 1 de julio de 2019 (A\u00f1o 31 de Heisei), se implement\u00f3 la Ley Revisada de Prevenci\u00f3n de la Competencia Desleal. Anteriormente, era dif\u00edcil prevenir la competencia desleal para aquellos objetos que no estaban protegidos por la Ley de Patentes o la Ley de Derechos de Autor, o que no se consideraban &#8220;secretos comerciales&#8221; bajo la Ley de Prevenci\u00f3n de la Competencia Desleal.<\/p>\n\n\n\n<p>Por lo tanto, esta revisi\u00f3n ha establecido medidas civiles (derecho a solicitar la cesaci\u00f3n, estimaci\u00f3n de la cantidad de da\u00f1os y perjuicios, etc.) contra actos maliciosos como la adquisici\u00f3n ilegal y el uso indebido de datos de valor limitado.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Leyes_de_la_UE_sobre_el_uso_de_la_IA\"><\/span>Leyes de la UE sobre el uso de la IA<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/monolith.law\/wp-content\/uploads\/2024\/02\/Shutterstock_2308724579.jpg\" alt=\"Regulaciones legales de la UE sobre el uso de la IA\" class=\"wp-image-64168\" \/><\/figure>\n\n\n\n<p>El sistema legal de la UE se compone de tres partes: el derecho primario (tratados), el derecho secundario (legislaci\u00f3n de la UE) y la jurisprudencia. El derecho secundario, basado en el derecho primario (tratados), consiste en legislaciones que vinculan directa o indirectamente a los estados miembros dentro de la UE y se conocen como derecho derivado de la UE. El derecho secundario se divide en cinco categor\u00edas principales, pero la &#8220;Ley de Regulaci\u00f3n de la IA&#8221; de la UE se clasifica como un reglamento, lo que significa que es una regla unificada que vincula directamente a los estados miembros de la UE.<\/p>\n\n\n\n<p>Por otro lado, una directiva implica obligaciones legales indirectas para los estados miembros de la UE, quienes deben crear nueva legislaci\u00f3n nacional o modificar la existente para implementar el contenido de la directiva. El plazo para esto es, generalmente, dentro de los tres a\u00f1os posteriores a su publicaci\u00f3n en el Diario Oficial de la UE.<\/p>\n\n\n\n<p>Art\u00edculo relacionado: <a href=\"https:\/\/monolith.law\/corporate\/eu-law\" target=\"_blank\" rel=\"noreferrer noopener\">Imprescindible para empresas que se expanden a Europa: Puntos clave sobre el sistema legal y las leyes de la UE[ja]<\/a><\/p>\n\n\n\n<p>En este cap\u00edtulo, explicaremos las \u00faltimas tendencias relacionadas con las regulaciones legales de la UE sobre el uso de la IA, centr\u00e1ndonos en las &#8220;directivas&#8221; y &#8220;reglamentos&#8221;.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Propuesta_de_Directiva_de_Responsabilidad_de_la_IA\"><\/span>Propuesta de Directiva de Responsabilidad de la IA<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>El 28 de septiembre de 2022, la Comisi\u00f3n Europea public\u00f3 la &#8220;Propuesta de Directiva de Responsabilidad de la IA&#8221; junto con una propuesta de modificaci\u00f3n de la &#8220;Directiva de Responsabilidad por Productos Defectuosos&#8221;. Establece las reglas sobre la responsabilidad legal de los negocios de IA en la UE (Uni\u00f3n Europea) que son conformes con la &#8220;Ley de Regulaci\u00f3n de la IA&#8221;, convirti\u00e9ndose en un marco legal importante. Ser\u00e1 aplicable a partir de junio de 2023 bajo la &#8220;Directiva de Acciones Colectivas&#8221; de la UE, por lo que las empresas japonesas relacionadas tambi\u00e9n necesitar\u00e1n comprender su contenido.<\/p>\n\n\n\n<p>Representa un cambio significativo en las reglas legales de responsabilidad civil para software, incluidos los sistemas de IA, en la UE, adecuadas para la econom\u00eda circular de la era digital y las cadenas de valor globales.<\/p>\n\n\n\n<p>Art\u00edculo relacionado: <a href=\"https:\/\/monolith.law\/corporate\/ai-act\" target=\"_blank\" rel=\"noreferrer noopener\">\u00bfCu\u00e1l es el estado actual y las perspectivas de la Ley de Regulaci\u00f3n de la IA en la UE? Tambi\u00e9n se explica el impacto en las empresas japonesas[ja]<\/a><\/p>\n\n\n\n<p>El objetivo de la &#8220;Propuesta de Directiva de Responsabilidad de la IA&#8221; es establecer reglas sobre la responsabilidad civil basada en causas extracontractuales para da\u00f1os causados por sistemas de IA, mejorando as\u00ed la funcionalidad del mercado interno de la UE.<\/p>\n\n\n\n<p>Es decir, no se limita a la responsabilidad contractual (responsabilidad por incumplimiento de contrato y responsabilidad por falta de conformidad contractual) sino que incluye da\u00f1os por negligencia (como la responsabilidad por actos il\u00edcitos) que no se limitan a los derivados de la insuficiencia de seguridad cubiertos por la &#8220;Directiva de Responsabilidad por Productos Defectuosos&#8221;. Es importante tener en cuenta que esto tambi\u00e9n podr\u00eda incluir da\u00f1os como la discriminaci\u00f3n causada por sistemas de selecci\u00f3n basados en IA.<\/p>\n\n\n\n<p>Esta propuesta aborda el problema de la caja negra de la IA mediante la introducci\u00f3n de medidas de alivio de la carga de la prueba para los desarrolladores de &#8220;sistemas de IA de alto riesgo&#8221; definidos en la &#8220;Ley de Regulaci\u00f3n de la IA&#8221;, incluyendo la &#8220;presunci\u00f3n de causalidad&#8221; y un &#8220;sistema de divulgaci\u00f3n de pruebas&#8221;.<\/p>\n\n\n\n<p>Si no se cumple con una orden de divulgaci\u00f3n de pruebas, la &#8220;Propuesta de Directiva de Responsabilidad de la IA&#8221; impone la obligaci\u00f3n de asumir una violaci\u00f3n del deber de cuidado y la presunci\u00f3n de causalidad, y la &#8220;Propuesta de Modificaci\u00f3n de la Directiva de Responsabilidad por Productos Defectuosos&#8221; impone la obligaci\u00f3n de asumir defectos y causalidad, imponiendo sanciones m\u00e1s severas que las del C\u00f3digo de Procedimiento Civil japon\u00e9s para asegurar el cumplimiento.<\/p>\n\n\n\n<p>Esta propuesta se limita, como primera etapa, a medidas de alivio de la carga de la prueba relacionadas con la opacidad de la IA, estableciendo nuevos requisitos para la elegibilidad del demandante, divulgaci\u00f3n de pruebas, preservaci\u00f3n de pruebas y presunci\u00f3n de causalidad.<\/p>\n\n\n\n<p>La segunda etapa incluye disposiciones sobre revisi\u00f3n y evaluaci\u00f3n. La Comisi\u00f3n Europea establecer\u00e1 un programa de monitoreo para revisar la informaci\u00f3n de incidentes y evaluar la adecuaci\u00f3n de imponer responsabilidad sin culpa (responsabilidad estricta) a los operadores de sistemas de IA de alto riesgo y la necesidad de introducir un seguro obligatorio, entre otras medidas, y reportar\u00e1 al Consejo Europeo y al Parlamento Europeo, entre otros.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Propuesta_de_modificacion_de_la_Directiva_de_Responsabilidad_por_Productos\"><\/span>Propuesta de modificaci\u00f3n de la Directiva de Responsabilidad por Productos<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>La &#8220;Directiva de Responsabilidad por Productos&#8221; es una ley de la UE, establecida en 1985, dise\u00f1ada para proteger a los consumidores, la cual estipula la responsabilidad de los fabricantes cuando los da\u00f1os son causados por defectos en los productos.<\/p>\n\n\n\n<p>En la propuesta de modificaci\u00f3n, se a\u00f1ade el &#8220;software&#8221; como un nuevo objeto de aplicaci\u00f3n de la responsabilidad por productos, considerando que si un sistema de IA, que es un tipo de software, tiene un &#8220;defecto&#8221;, se aplicar\u00e1 la responsabilidad sin culpa al operador del sistema de IA. Adem\u00e1s, como criterios para determinar la presencia de &#8220;defectos&#8221;, se han a\u00f1adido nuevas consideraciones como la capacidad de aprendizaje continuo despu\u00e9s de la instalaci\u00f3n y las actualizaciones de software.<\/p>\n\n\n\n<p>En la ley actual de Jap\u00f3n, la &#8220;Ley Japonesa de Responsabilidad por Productos&#8221;, generalmente el software no se considera un bien mueble, por lo tanto, no se clasifica como un &#8220;producto&#8221; sujeto a la ley. Sin embargo, se est\u00e1 adoptando un enfoque que cambia la concepci\u00f3n de &#8220;producto&#8221;. Esta propuesta de modificaci\u00f3n tambi\u00e9n introduce &#8220;medidas para aliviar la carga de la prueba&#8221;, lo que podr\u00eda tener un impacto significativo en el software, incluidos los sistemas de IA y los productos de tecnolog\u00eda avanzada.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Ley_de_Regulacion_de_la_IA\"><\/span>Ley de Regulaci\u00f3n de la IA<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>La &#8220;Ley de Regulaci\u00f3n de la IA (AI Act)&#8221; es una normativa unificada de la UE dirigida a los negocios de IA, compuesta por 85 art\u00edculos y representa la primera ley internacional que regula la IA en el mundo. Fue establecida tras un acuerdo provisional entre la Comisi\u00f3n Europea, el Parlamento Europeo y el Consejo Europeo el 9 de diciembre de 2023, y se espera que entre en vigor y se aplique en su totalidad en 2024.<\/p>\n\n\n\n<p>Esta ley es central en la estrategia digital de la UE conocida como &#8220;Una Europa preparada para la era digital&#8221;, y busca abordar los nuevos desaf\u00edos y riesgos de la era digital en evoluci\u00f3n. Garantiza la seguridad de la IA y los derechos fundamentales, y forma parte de un amplio paquete de IA que tiene como objetivo fortalecer el enfoque, la inversi\u00f3n y la innovaci\u00f3n en IA en toda la UE.<\/p>\n\n\n\n<p>La &#8220;Ley de Regulaci\u00f3n de la IA&#8221; de la UE se aplica directamente a los estados miembros de la UE, as\u00ed como a las empresas que operan dentro de la UE, incluyendo la aplicaci\u00f3n transfronteriza, y tambi\u00e9n afecta a las empresas ubicadas fuera de la UE.<\/p>\n\n\n\n<p>En caso de incumplimiento, se pueden imponer sanciones econ\u00f3micas significativas basadas en el volumen de ventas mundial (hasta 30 millones de euros = aproximadamente 47 mil millones de yenes o el 6% del volumen de ventas mundial, lo que sea mayor), lo que podr\u00eda impedir la realizaci\u00f3n de negocios de IA dentro de la UE.<\/p>\n\n\n\n<p>Por lo tanto, las empresas, incluidas las japonesas, que ya han implementado IA en el mercado de la UE o que est\u00e1n considerando expandirse al mercado de la UE, deben cumplir con la nueva regulaci\u00f3n de IA de la UE.<\/p>\n\n\n\n<p>Los pilares de la &#8220;Ley de Regulaci\u00f3n de la IA&#8221; se dividen en tres caracter\u00edsticas principales: &#8220;clasificaci\u00f3n de la IA basada en el riesgo&#8221;, &#8220;requisitos y obligaciones&#8221; y &#8220;apoyo a la innovaci\u00f3n&#8221;.<\/p>\n\n\n\n<p>Los sujetos regulados son las empresas que introducen sistemas y servicios de IA en el mercado europeo, incluidos los desarrolladores, desplegadores, proveedores, importadores, distribuidores y usuarios de IA.<\/p>\n\n\n\n<p>El nivel de riesgo de la IA se categoriza en cuatro niveles, y se aplicar\u00e1n regulaciones correspondientes a cada nivel. Para lograr los principios de la IA, tambi\u00e9n es esencial tomar medidas para asegurar la alfabetizaci\u00f3n en IA de los desarrolladores, usuarios y proveedores de IA, como se indica claramente en las directrices. Para m\u00e1s detalles, consulte el art\u00edculo relacionado.<\/p>\n\n\n\n<p>Art\u00edculo relacionado: <a href=\"https:\/\/monolith.law\/corporate\/ai-act\" target=\"_blank\" rel=\"noreferrer noopener\">\u00bfCu\u00e1l es el estado actual y las perspectivas de la Ley de Regulaci\u00f3n de la IA en la UE? Tambi\u00e9n se explica el impacto en las empresas japonesas[ja]<\/a><\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Puntos_clave_a_tener_en_cuenta_en_la_legislacion_sobre_IA\"><\/span>Puntos clave a tener en cuenta en la legislaci\u00f3n sobre IA<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/monolith.law\/wp-content\/uploads\/2024\/02\/Shutterstock_2411682951.jpg\" alt=\"Puntos clave a tener en cuenta en la legislaci\u00f3n sobre IA\" class=\"wp-image-64169\" \/><\/figure>\n\n\n\n<p>En este cap\u00edtulo, explicaremos principalmente los puntos a tener en cuenta desde el punto de vista legal cuando las empresas buscan utilizar IA generativa.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Sobre_los_derechos_de_autor_de_las_obras_creadas_por_IA\"><\/span>Sobre los derechos de autor de las obras creadas por IA<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>Los puntos a tener en cuenta sobre las obras generadas por IA generativa incluyen los siguientes aspectos legales:<\/p>\n\n\n\n<ul>\n<li>Si la obra infringe o no los derechos de autor<\/li>\n\n\n\n<li>Si las obras generadas por IA generativa pueden ser reconocidas con derechos de autor<\/li>\n<\/ul>\n\n\n\n<p>Como se mencion\u00f3 anteriormente, las obras generadas por ChatGPT pueden infringir los derechos de autor si se reconoce que tienen similitudes o dependencias con obras protegidas por derechos de autor. Por otro lado, \u00bfpueden las obras creadas por IA generativa ser reconocidas con derechos de autor?<\/p>\n\n\n\n<p>Seg\u00fan la ley de derechos de autor, una &#8220;obra&#8221; se define como &#8220;una expresi\u00f3n creativa de ideas o sentimientos&#8221;. Dado que la IA no posee ideas ni sentimientos, existe la opini\u00f3n de que el contenido creado por IA generativa no puede ser reconocido con derechos de autor.<\/p>\n\n\n\n<p>Por otro lado, dado que el proceso de generaci\u00f3n de contenido por IA es una caja negra para los usuarios (el proceso de decisi\u00f3n es opaco), hacer que la IA produzca el contenido deseado por el usuario es extremadamente dif\u00edcil. Por lo tanto, en casos donde se reconozca que ha habido creatividad e ingenio por parte del usuario en la etapa de la solicitud, se podr\u00eda decir que las &#8220;ideas o sentimientos&#8221; del usuario se han &#8220;expresado creativamente&#8221; a trav\u00e9s de la IA generativa, y en tales casos, los derechos de autor podr\u00edan ser reconocidos.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Sobre_el_manejo_de_informacion_personal_al_utilizar_IA\"><\/span>Sobre el manejo de informaci\u00f3n personal al utilizar IA<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>Al utilizar IA, es necesario tener en cuenta la posibilidad de infringir la ley de protecci\u00f3n de informaci\u00f3n personal. Se requieren medidas como no ingresar informaci\u00f3n personal o informaci\u00f3n relacionada con la privacidad.<\/p>\n\n\n\n<p>Si se ingresa informaci\u00f3n personal en el prompt, podr\u00eda considerarse como una provisi\u00f3n de informaci\u00f3n personal a terceros por parte del proveedor de servicios. En general, se requiere el consentimiento del individuo para proporcionar informaci\u00f3n personal a terceros, por lo que sin este consentimiento, podr\u00eda haber una violaci\u00f3n de la ley de protecci\u00f3n de informaci\u00f3n personal.<\/p>\n\n\n\n<p>En el caso de ChatGPT, incluso si se ingresa informaci\u00f3n personal por error, el sistema est\u00e1 dise\u00f1ado para no poder mostrar esa informaci\u00f3n en el chat. Esto se debe a la pol\u00edtica de OpenAI de no almacenar ni rastrear informaci\u00f3n personal, pero es importante tener en cuenta que otros servicios o plataformas pueden operar de manera diferente.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Medidas_de_riesgo_para_empresas_involucradas_con_IA\"><\/span>Medidas de riesgo para empresas involucradas con IA<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Las medidas de riesgo var\u00edan seg\u00fan la estrategia de negocio de la empresa, el prop\u00f3sito del uso de la IA y las regulaciones legales relacionadas, por lo que es crucial adoptar las medidas de riesgo adecuadas seg\u00fan la situaci\u00f3n y el objetivo.<\/p>\n\n\n\n<p>Para minimizar los riesgos, las empresas que utilizan IA generativa deben considerar los siguientes puntos:<\/p>\n\n\n\n<ol>\n<li>Desarrollo de talento: El uso adecuado de la IA generativa requiere conocimientos y habilidades especializadas. Es importante asegurarse de que los empleados comprendan el m\u00e9todo de uso adecuado a trav\u00e9s de la educaci\u00f3n y la capacitaci\u00f3n.<\/li>\n\n\n\n<li>Establecimiento, implementaci\u00f3n y operaci\u00f3n de gu\u00edas internas: La formulaci\u00f3n de gu\u00edas internas sobre el uso de la IA generativa y asegurar su cumplimiento por parte de los empleados puede reducir los riesgos.<\/li>\n\n\n\n<li>Construcci\u00f3n de una organizaci\u00f3n para promover el uso y las medidas de riesgo: Establecer una organizaci\u00f3n para promover el uso de la IA generativa y colocar un equipo encargado de la gesti\u00f3n de riesgos dentro de la organizaci\u00f3n es efectivo.<\/li>\n\n\n\n<li>Implementaci\u00f3n del sistema: Para introducir adecuadamente la IA generativa, es necesario seleccionar y dise\u00f1ar cuidadosamente el sistema.<\/li>\n<\/ol>\n\n\n\n<p>Adem\u00e1s, los riesgos asociados con el uso de la IA generativa son diversos, incluyendo la fuga de informaci\u00f3n, la infracci\u00f3n de derechos y privacidad, preocupaciones sobre la precisi\u00f3n y seguridad de la informaci\u00f3n, y el riesgo de sesgo. Para evitar estos riesgos, es esencial introducir un marco adecuado de gobernanza y gesti\u00f3n de riesgos.<\/p>\n\n\n\n<p>Art\u00edculo relacionado: <a href=\"https:\/\/monolith.law\/corporate\/chatgpt-confidential-leak#%E6%A9%9F%E5%AF%86%E6%83%85%E5%A0%B1%E3%81%8C%E6%B5%81%E5%87%BA%E3%81%97%E3%81%AA%E3%81%84%E3%82%88%E3%81%86%E3%81%AA%E6%8A%80%E8%A1%93%E3%82%92%E5%8F%96%E3%82%8A%E5%85%A5%E3%82%8C%E3%82%8B\" target=\"_blank\" rel=\"noreferrer noopener\">&#8220;Riesgos de la implementaci\u00f3n corporativa de ChatGPT. Explicaci\u00f3n de casos de fuga de informaci\u00f3n confidencial y medidas&#8221;[ja]<\/a><\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Resumen_Es_necesario_mantenerse_al_dia_con_las_leyes_de_IA_ya_que_estan_en_proceso_de_desarrollo\"><\/span>Resumen: Es necesario mantenerse al d\u00eda con las leyes de IA, ya que est\u00e1n en proceso de desarrollo<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Las leyes relacionadas con los negocios de IA, incluyendo la primera ley internacional de &#8220;Regulaci\u00f3n de IA&#8221; de la UE (establecida el 9 de diciembre de 2023), est\u00e1n en una fase de desarrollo de su marco legal. Por lo tanto, se requiere que las empresas cumplan con las leyes existentes mientras adoptan una actitud flexible hacia las nuevas legislaciones.<\/p>\n\n\n\n<p>En Jap\u00f3n, a\u00fan no existen leyes que regulen directamente la IA, pero es necesario comprender y responder adecuadamente a las leyes relacionadas, como la Ley de Derechos de Autor, la Ley de Protecci\u00f3n de Informaci\u00f3n Personal y la Ley de Prevenci\u00f3n de la Competencia Desleal. Adem\u00e1s, es crucial estar atento a las futuras enmiendas de las leyes relacionadas y responder r\u00e1pidamente a ellas.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Guia_de_medidas_por_parte_de_nuestro_despacho\"><\/span>Gu\u00eda de medidas por parte de nuestro despacho<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Monolith Law Office es un despacho de abogados con amplia experiencia en IT, especialmente en Internet y derecho. El negocio de la IA conlleva muchos riesgos legales, y el apoyo de abogados especializados en problemas legales relacionados con la IA es esencial.<\/p>\n\n\n\n<p>Nuestro despacho, con un equipo de abogados especializados en IA y profesionales como ingenieros, ofrece soporte legal avanzado en negocios de IA, incluido ChatGPT. Esto abarca la creaci\u00f3n de contratos, evaluaci\u00f3n de la legalidad de modelos de negocio, protecci\u00f3n de derechos de propiedad intelectual y manejo de la privacidad, entre otros. Los detalles se encuentran en el art\u00edculo a continuaci\u00f3n.<\/p>\n\n\n\n<p>\u00c1reas de pr\u00e1ctica de Monolith Law Office: <a href=\"https:\/\/monolith.law\/artificial-intelligence\" target=\"_blank\" rel=\"noreferrer noopener\">Derecho de IA (incluido ChatGPT)[ja]<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>La inteligencia artificial generativa, como ChatGPT, se ha convertido en un gran fen\u00f3meno. Ahora, al ser adoptada en el \u00e1mbito empresarial, se dice que esta IA generativa es el catalizador de la &#038;#822 [&hellip;]<\/p>\n","protected":false},"author":32,"featured_media":69398,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[16],"tags":[66,19],"acf":[],"_links":{"self":[{"href":"https:\/\/monolith.law\/es\/wp-json\/wp\/v2\/posts\/69314"}],"collection":[{"href":"https:\/\/monolith.law\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/monolith.law\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/monolith.law\/es\/wp-json\/wp\/v2\/users\/32"}],"replies":[{"embeddable":true,"href":"https:\/\/monolith.law\/es\/wp-json\/wp\/v2\/comments?post=69314"}],"version-history":[{"count":2,"href":"https:\/\/monolith.law\/es\/wp-json\/wp\/v2\/posts\/69314\/revisions"}],"predecessor-version":[{"id":69399,"href":"https:\/\/monolith.law\/es\/wp-json\/wp\/v2\/posts\/69314\/revisions\/69399"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/monolith.law\/es\/wp-json\/wp\/v2\/media\/69398"}],"wp:attachment":[{"href":"https:\/\/monolith.law\/es\/wp-json\/wp\/v2\/media?parent=69314"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/monolith.law\/es\/wp-json\/wp\/v2\/categories?post=69314"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/monolith.law\/es\/wp-json\/wp\/v2\/tags?post=69314"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}