{"id":71098,"date":"2025-07-29T16:34:32","date_gmt":"2025-07-29T07:34:32","guid":{"rendered":"https:\/\/monolith.law\/es\/?p=71098"},"modified":"2025-08-14T18:47:54","modified_gmt":"2025-08-14T09:47:54","slug":"eu-ai-act","status":"publish","type":"post","link":"https:\/\/monolith.law\/es\/it\/eu-ai-act","title":{"rendered":"La ley de regulaci\u00f3n de la IA en la UE y las respuestas necesarias para las empresas japonesas"},"content":{"rendered":"\n<p>El 12 de julio de 2024 (Reiwa 6), se promulg\u00f3 la &#8220;Ley de Regulaci\u00f3n de la IA (EU AI Act)&#8221; en la Uni\u00f3n Europea, y entr\u00f3 en vigor el 1 de agosto del mismo a\u00f1o.<br>Esta ley regula el uso y la provisi\u00f3n de sistemas de IA dentro de la UE y, a partir de 2025, tambi\u00e9n requerir\u00e1 ciertas medidas por parte de las empresas japonesas.<\/p>\n\n\n\n<p>En concreto, al igual que los operadores de sitios de comercio electr\u00f3nico dentro de Jap\u00f3n necesitan cumplir con el &#8220;Reglamento General de Protecci\u00f3n de Datos (GDPR)&#8221; de la UE, las empresas japonesas que proporcionen productos o servicios relacionados con la IA a clientes dentro de la UE podr\u00edan estar sujetas a la aplicaci\u00f3n de la Ley de Regulaci\u00f3n de la IA de la UE.<\/p>\n\n\n\n<p>Aqu\u00ed explicaremos c\u00f3mo las empresas afectadas deben abordar la clasificaci\u00f3n de riesgos de los sistemas de IA y las evaluaciones de conformidad, entre otras respuestas regulatorias, en consecuencia con la implementaci\u00f3n de esta ley.<\/p>\n\n\n\n<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_53 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<div class=\"ez-toc-title-container\">\n<span class=\"ez-toc-title-toggle\"><\/span><\/div>\n<nav><ul class='ez-toc-list ez-toc-list-level-1 ' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/monolith.law\/es\/it\/eu-ai-act\/#Premisa_Diferencias_entre_%E2%80%9CReglamentos%E2%80%9D_y_%E2%80%9CDirectivas%E2%80%9D_en_la_UE\" title=\"Premisa: Diferencias entre &#8220;Reglamentos&#8221; y &#8220;Directivas&#8221; en la UE\">Premisa: Diferencias entre &#8220;Reglamentos&#8221; y &#8220;Directivas&#8221; en la UE<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/monolith.law\/es\/it\/eu-ai-act\/#La_Aplicacion_Extraterritorial_de_la_Ley_de_Regulacion_de_la_IA_y_su_Impacto_en_Japon\" title=\"La Aplicaci\u00f3n Extraterritorial de la Ley de Regulaci\u00f3n de la IA y su Impacto en Jap\u00f3n\">La Aplicaci\u00f3n Extraterritorial de la Ley de Regulaci\u00f3n de la IA y su Impacto en Jap\u00f3n<\/a><ul class='ez-toc-list-level-3'><li class='ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/monolith.law\/es\/it\/eu-ai-act\/#%C2%BFQue_es_la_Aplicacion_Extraterritorial\" title=\"\u00bfQu\u00e9 es la Aplicaci\u00f3n Extraterritorial?\">\u00bfQu\u00e9 es la Aplicaci\u00f3n Extraterritorial?<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-4\" href=\"https:\/\/monolith.law\/es\/it\/eu-ai-act\/#La_Aplicacion_Extraterritorial_de_la_Ley_de_Regulacion_de_la_IA_de_la_UE\" title=\"La Aplicaci\u00f3n Extraterritorial de la Ley de Regulaci\u00f3n de la IA de la UE\">La Aplicaci\u00f3n Extraterritorial de la Ley de Regulaci\u00f3n de la IA de la UE<\/a><\/li><\/ul><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-5\" href=\"https:\/\/monolith.law\/es\/it\/eu-ai-act\/#Caracteristicas_de_la_Ley_de_Regulacion_de_la_IA_de_la_UE_Enfoque_Basado_en_Riesgos\" title=\"Caracter\u00edsticas de la Ley de Regulaci\u00f3n de la IA de la UE: Enfoque Basado en Riesgos\">Caracter\u00edsticas de la Ley de Regulaci\u00f3n de la IA de la UE: Enfoque Basado en Riesgos<\/a><ul class='ez-toc-list-level-3'><li class='ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-6\" href=\"https:\/\/monolith.law\/es\/it\/eu-ai-act\/#%C2%BFQue_es_el_Enfoque_Basado_en_Riesgos\" title=\"\u00bfQu\u00e9 es el Enfoque Basado en Riesgos?\">\u00bfQu\u00e9 es el Enfoque Basado en Riesgos?<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-7\" href=\"https:\/\/monolith.law\/es\/it\/eu-ai-act\/#Sistemas_de_IA_con_Riesgos_Inaceptables_Bajo_la_Ley_Japonesa\" title=\"Sistemas de IA con Riesgos Inaceptables Bajo la Ley Japonesa\">Sistemas de IA con Riesgos Inaceptables Bajo la Ley Japonesa<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-8\" href=\"https:\/\/monolith.law\/es\/it\/eu-ai-act\/#Sistemas_de_IA_de_Alto_Riesgo\" title=\"Sistemas de IA de Alto Riesgo\">Sistemas de IA de Alto Riesgo<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-9\" href=\"https:\/\/monolith.law\/es\/it\/eu-ai-act\/#Sistemas_de_IA_con_Riesgos_Limitados_Bajo_la_Legislacion_Japonesa\" title=\"Sistemas de IA con Riesgos Limitados Bajo la Legislaci\u00f3n Japonesa\">Sistemas de IA con Riesgos Limitados Bajo la Legislaci\u00f3n Japonesa<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-10\" href=\"https:\/\/monolith.law\/es\/it\/eu-ai-act\/#Sistemas_de_IA_con_el_Minimo_Riesgo_Bajo_la_Legislacion_Japonesa\" title=\"Sistemas de IA con el M\u00ednimo Riesgo Bajo la Legislaci\u00f3n Japonesa\">Sistemas de IA con el M\u00ednimo Riesgo Bajo la Legislaci\u00f3n Japonesa<\/a><\/li><\/ul><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-11\" href=\"https:\/\/monolith.law\/es\/it\/eu-ai-act\/#Requisitos_y_Obligaciones_para_Sistemas_de_IA_de_Alto_Riesgo_bajo_la_Ley_Japonesa\" title=\"Requisitos y Obligaciones para Sistemas de IA de Alto Riesgo bajo la Ley Japonesa\">Requisitos y Obligaciones para Sistemas de IA de Alto Riesgo bajo la Ley Japonesa<\/a><ul class='ez-toc-list-level-3'><li class='ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-12\" href=\"https:\/\/monolith.law\/es\/it\/eu-ai-act\/#Obligaciones_de_Proveedores_Usuarios_Importadores_y_Distribuidores\" title=\"Obligaciones de Proveedores, Usuarios, Importadores y Distribuidores\">Obligaciones de Proveedores, Usuarios, Importadores y Distribuidores<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-13\" href=\"https:\/\/monolith.law\/es\/it\/eu-ai-act\/#Obligaciones_del_Proveedor\" title=\"Obligaciones del Proveedor\">Obligaciones del Proveedor<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-14\" href=\"https:\/\/monolith.law\/es\/it\/eu-ai-act\/#Obligaciones_del_Usuario\" title=\"Obligaciones del Usuario\">Obligaciones del Usuario<\/a><\/li><\/ul><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-15\" href=\"https:\/\/monolith.law\/es\/it\/eu-ai-act\/#Cronograma_de_Implementacion_Gradual_de_la_Ley_de_Regulacion_de_la_IA_en_Japon\" title=\"Cronograma de Implementaci\u00f3n Gradual de la Ley de Regulaci\u00f3n de la IA en Jap\u00f3n\">Cronograma de Implementaci\u00f3n Gradual de la Ley de Regulaci\u00f3n de la IA en Jap\u00f3n<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-16\" href=\"https:\/\/monolith.law\/es\/it\/eu-ai-act\/#Guia_de_Estrategias_por_Monolith_Law_Office\" title=\"Gu\u00eda de Estrategias por Monolith Law Office\">Gu\u00eda de Estrategias por Monolith Law Office<\/a><\/li><\/ul><\/nav><\/div>\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Premisa_Diferencias_entre_%E2%80%9CReglamentos%E2%80%9D_y_%E2%80%9CDirectivas%E2%80%9D_en_la_UE\"><\/span>Premisa: Diferencias entre &#8220;Reglamentos&#8221; y &#8220;Directivas&#8221; en la UE<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Antes de explicar la Ley de Regulaci\u00f3n de la IA en s\u00ed, es necesario entender, como premisa, la diferencia entre &#8220;Reglamentos&#8221; y &#8220;Directivas&#8221; en el derecho de la UE.<\/p>\n\n\n\n<p>En primer lugar, los &#8220;Reglamentos&#8221; son leyes que se aplican directamente a los estados miembros, empresas, etc., dentro de la UE. Esto significa que tienen prioridad sobre las leyes nacionales de los estados miembros y se aplican reglas uniformes en toda la UE. Por lo tanto, cuando un Reglamento entra en vigor, se implementa un estado en el que el mismo contenido regulatorio se aplica en todos los estados miembros de la UE.<\/p>\n\n\n\n<p>Por otro lado, las &#8220;Directivas&#8221; son leyes destinadas a coordinar y unificar el contenido regulatorio entre los estados miembros de la UE. Sin embargo, las Directivas no se aplican directamente a los estados miembros; cada pa\u00eds debe transponer el contenido establecido por la Directiva en su legislaci\u00f3n nacional. Normalmente, los estados miembros deben establecer o modificar su legislaci\u00f3n nacional dentro de los tres a\u00f1os posteriores a la publicaci\u00f3n de la Directiva en el Diario Oficial de la UE.<\/p>\n\n\n\n<p>Una caracter\u00edstica de las &#8220;Directivas&#8221; es que, al convertirlas en ley nacional, se concede cierto margen de discreci\u00f3n a cada estado miembro, lo que puede resultar en diferencias en el contenido de las leyes de cada pa\u00eds. Es decir, las leyes basadas en &#8220;Directivas&#8221; no est\u00e1n completamente unificadas en la UE, y es necesario tener en cuenta que pueden surgir diferencias entre los pa\u00edses.<\/p>\n\n\n\n<p>Con esta distinci\u00f3n en mente, la Ley de Regulaci\u00f3n de la IA se ha establecido como un &#8220;Reglamento&#8221;. Esto significa que la Ley de Regulaci\u00f3n de la IA se aplica directamente a las empresas ubicadas dentro de la UE.<\/p>\n\n\n\n<p>Art\u00edculo relacionado: <a href=\"https:\/\/monolith.law\/corporate\/eu-law\" target=\"_blank\" rel=\"noreferrer noopener\">Imprescindible para empresas que se expanden a Europa: Explicaci\u00f3n de los puntos clave sobre el derecho y el sistema legal de la UE[ja]<\/a><\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"La_Aplicacion_Extraterritorial_de_la_Ley_de_Regulacion_de_la_IA_y_su_Impacto_en_Japon\"><\/span>La Aplicaci\u00f3n Extraterritorial de la Ley de Regulaci\u00f3n de la IA y su Impacto en Jap\u00f3n<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"%C2%BFQue_es_la_Aplicacion_Extraterritorial\"><\/span>\u00bfQu\u00e9 es la Aplicaci\u00f3n Extraterritorial?<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>La &#8220;aplicaci\u00f3n extraterritorial&#8221; se refiere a la extensi\u00f3n de una ley promulgada en un pa\u00eds a actos realizados fuera del territorio sobre el cual ese pa\u00eds ejerce soberan\u00eda. La aplicaci\u00f3n extraterritorial se justifica en el contexto de la globalizaci\u00f3n econ\u00f3mica y la internacionalizaci\u00f3n de las actividades Negocios, con el objetivo de asegurar que las actividades econ\u00f3micas mundiales se lleven a cabo de manera justa y adecuada.<\/p>\n\n\n\n<p>Un ejemplo que ha llevado a un amplio reconocimiento de este concepto es el GDPR (Reglamento General de Protecci\u00f3n de Datos de la UE). Seg\u00fan el GDPR, incluso las empresas que no tienen una base en la UE pueden estar sujetas a su aplicaci\u00f3n (aplicaci\u00f3n extraterritorial) si cumplen con los siguientes requisitos:<\/p>\n\n\n\n<ul>\n<li>Si ofrecen servicios o productos a personas dentro de la UE.<\/li>\n\n\n\n<li>Si procesan datos personales con el prop\u00f3sito de monitorear el comportamiento de personas dentro de la UE.<\/li>\n<\/ul>\n\n\n\n<p>Por ejemplo, en las directrices de 2020 se aclar\u00f3 que las empresas fuera de la UE que env\u00edan empleados en viajes de negocios a la UE y procesan informaci\u00f3n personal relacionada durante ese per\u00edodo, est\u00e1n excluidas de la aplicaci\u00f3n, aunque inicialmente se debati\u00f3 su aplicaci\u00f3n extraterritorial.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"La_Aplicacion_Extraterritorial_de_la_Ley_de_Regulacion_de_la_IA_de_la_UE\"><\/span>La Aplicaci\u00f3n Extraterritorial de la Ley de Regulaci\u00f3n de la IA de la UE<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>La Ley de Regulaci\u00f3n de la IA de la UE tambi\u00e9n permite la aplicaci\u00f3n extraterritorial a empresas ubicadas fuera de la UE. Los siguientes proveedores y actividades est\u00e1n sujetos a esta ley:<\/p>\n\n\n\n<ul>\n<li>Proveedores (Providers): Aquellos que desarrollan sistemas de IA o modelos de GPAI, los que hacen desarrollar y lanzan al mercado sistemas de IA o modelos de GPAI, o los que operan sistemas de IA bajo su propio nombre o marca comercial.<\/li>\n\n\n\n<li>Usuarios (Users): Aquellos que utilizan sistemas de IA bajo su propia autoridad (excluyendo aquellos que los usan para actividades personales y no profesionales).<\/li>\n\n\n\n<li>Importadores (Importers): Importadores ubicados o establecidos dentro de la UE que introducen al mercado de la UE sistemas de IA con el nombre o marca comercial de una persona natural o jur\u00eddica establecida fuera de la UE.<\/li>\n\n\n\n<li>Distribuidores (Distributers): Personas naturales o jur\u00eddicas que pertenecen a la cadena de suministro que ofrece sistemas de IA en el mercado de la UE, distintos de los proveedores o importadores.<\/li>\n<\/ul>\n\n\n\n<p>Como se ha mencionado, incluso las empresas ubicadas fuera de la UE est\u00e1n sujetas a la Ley de Regulaci\u00f3n de la IA de la UE si ofrecen, operan, importan o utilizan sistemas de IA o modelos de GPAI dentro de la UE.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Caracteristicas_de_la_Ley_de_Regulacion_de_la_IA_de_la_UE_Enfoque_Basado_en_Riesgos\"><\/span>Caracter\u00edsticas de la Ley de Regulaci\u00f3n de la IA de la UE: Enfoque Basado en Riesgos<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/monolith.law\/wp-content\/uploads\/2024\/12\/6d7d772661bd64b7a72439ddce73b941.jpg\" alt=\"Caracter\u00edsticas de la Ley de Regulaci\u00f3n de la IA de la UE: Enfoque Basado en Riesgos\" class=\"wp-image-119449\" \/><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"%C2%BFQue_es_el_Enfoque_Basado_en_Riesgos\"><\/span>\u00bfQu\u00e9 es el Enfoque Basado en Riesgos?<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>Una de las principales caracter\u00edsticas de la Ley de Regulaci\u00f3n de la IA de la UE es la &#8220;regulaci\u00f3n seg\u00fan el contenido y el grado de riesgo&#8221; (enfoque basado en riesgos).<\/p>\n\n\n\n<p>El &#8220;enfoque basado en riesgos&#8221; se refiere al m\u00e9todo de ajustar la intensidad de la regulaci\u00f3n bas\u00e1ndose en el contenido y el grado de riesgo. Este enfoque determina la severidad de la regulaci\u00f3n aplicada a un sistema de IA de acuerdo con la gravedad de los riesgos que podr\u00eda generar.<\/p>\n\n\n\n<p>En concreto, a los sistemas de IA con un alto nivel de riesgo se les aplican regulaciones m\u00e1s estrictas, mientras que a los sistemas con un riesgo m\u00e1s bajo se les aplican regulaciones m\u00e1s flexibles. Esto permite evitar regulaciones excesivas en sistemas con bajo riesgo y, por el contrario, asegurar una supervisi\u00f3n y gesti\u00f3n adecuadas en sistemas con alto riesgo.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Sistemas_de_IA_con_Riesgos_Inaceptables_Bajo_la_Ley_Japonesa\"><\/span>Sistemas de IA con Riesgos Inaceptables Bajo la Ley Japonesa<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>En primer lugar, los sistemas de inteligencia artificial (IA) que se consideran con riesgos inaceptables son vistos como una amenaza para las personas y, en principio, est\u00e1n prohibidos en Jap\u00f3n.<\/p>\n\n\n\n<p>Por ejemplo, sistemas de IA que manipulan la cognici\u00f3n o el comportamiento de usuarios pertenecientes a grupos vulnerables, como juguetes activados por voz que fomentan comportamientos peligrosos en ni\u00f1os, entran en esta categor\u00eda. Tambi\u00e9n se proh\u00edbe el escoramiento social, que clasifica a las personas bas\u00e1ndose en su comportamiento, estatus socioecon\u00f3mico o caracter\u00edsticas personales. Adem\u00e1s, los sistemas de &#8220;biometr\u00eda en tiempo real y a distancia&#8221;, que utilizan tecnolog\u00edas como el reconocimiento facial para identificar a individuos compar\u00e1ndolos con una base de datos de informaci\u00f3n biom\u00e9trica humana, tambi\u00e9n est\u00e1n prohibidos en principio.<\/p>\n\n\n\n<p>Sin embargo, se han establecido excepciones que permiten el uso de estos sistemas en ciertos casos. Espec\u00edficamente, los sistemas de biometr\u00eda en tiempo real y a distancia solo pueden utilizarse en un n\u00famero limitado de incidentes graves. Por otro lado, los sistemas de biometr\u00eda a distancia posteriores al hecho solo se permiten con la aprobaci\u00f3n de un tribunal y con el prop\u00f3sito de procesar cr\u00edmenes graves.<\/p>\n\n\n\n<p>Adem\u00e1s, entre las excepciones que permiten la implementaci\u00f3n de estos sistemas se incluyen situaciones como la b\u00fasqueda de ni\u00f1os desaparecidos u otras posibles v\u00edctimas de delitos, la prevenci\u00f3n de amenazas concretas e inminentes a la seguridad de la vida o la integridad f\u00edsica de las personas, o ataques terroristas, as\u00ed como la detecci\u00f3n y localizaci\u00f3n de delincuentes o sospechosos de delitos graves. Estas excepciones est\u00e1n sujetas a estrictas restricciones que generalmente requieren la previa autorizaci\u00f3n de un tribunal, lo que exige un manejo cuidadoso y prudente del uso de sistemas de IA.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Sistemas_de_IA_de_Alto_Riesgo\"><\/span>Sistemas de IA de Alto Riesgo<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>Los sistemas de IA clasificados como de alto riesgo son aquellos que podr\u00edan tener un impacto negativo en la seguridad o en los derechos humanos fundamentales. Estos sistemas pueden ser utilizados siempre y cuando cumplan con ciertos requisitos y obligaciones (evaluaci\u00f3n de conformidad).<\/p>\n\n\n\n<p>Los sistemas de IA de alto riesgo se dividen en dos categor\u00edas principales. La primera incluye sistemas de IA que se utilizan en productos que est\u00e1n sujetos a la legislaci\u00f3n de seguridad de productos de la UE, como juguetes, aviaci\u00f3n, autom\u00f3viles, dispositivos m\u00e9dicos y ascensores. La segunda categor\u00eda comprende sistemas de IA que deben registrarse en una base de datos de la UE y que se utilizan en \u00e1reas espec\u00edficas. Estas \u00e1reas incluyen la gesti\u00f3n y operaci\u00f3n de infraestructuras cr\u00edticas, educaci\u00f3n y formaci\u00f3n profesional, empleo y gesti\u00f3n de trabajadores, acceso a servicios p\u00fablicos esenciales y beneficios, aplicaci\u00f3n de la ley, inmigraci\u00f3n y asilo, gesti\u00f3n de fronteras, y apoyo en la interpretaci\u00f3n y aplicaci\u00f3n de la ley.<\/p>\n\n\n\n<p>Los sistemas de IA de alto riesgo requieren evaluaci\u00f3n antes de su introducci\u00f3n en el mercado y a lo largo de su ciclo de vida. Adem\u00e1s, se reconoce el derecho a presentar quejas sobre sistemas de IA ante las autoridades nacionales designadas.<\/p>\n\n\n\n<p>En t\u00e9rminos generales, se puede decir que los sistemas de IA de alto riesgo son aquellos que est\u00e1n implicados en la seguridad de la vida o la integridad f\u00edsica de las personas, como maquinaria y veh\u00edculos. Por ejemplo, la IA para la conducci\u00f3n aut\u00f3noma podr\u00eda caer bajo esta categor\u00eda, por lo que las empresas japonesas que desarrollan IA para la conducci\u00f3n aut\u00f3noma y buscan expandirse internacionalmente deben considerar cuidadosamente si cumplen con los requisitos de un sistema de IA de alto riesgo y responder adecuadamente.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Sistemas_de_IA_con_Riesgos_Limitados_Bajo_la_Legislacion_Japonesa\"><\/span>Sistemas de IA con Riesgos Limitados Bajo la Legislaci\u00f3n Japonesa<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>En cuanto a los sistemas de IA con riesgos limitados, se contemplan riesgos como la falta de transparencia, as\u00ed como los riesgos de suplantaci\u00f3n, manipulaci\u00f3n y fraude. Espec\u00edficamente, los chatbots, deepfakes y la IA generativa se incluyen en esta categor\u00eda, y seg\u00fan la perspectiva del Parlamento Europeo, la mayor\u00eda de los sistemas de IA actualmente en uso se clasifican en esta categor\u00eda. Por ejemplo, los sistemas de traducci\u00f3n autom\u00e1tica, consolas de videojuegos, robots que ejecutan procesos de fabricaci\u00f3n repetitivos y sistemas de IA como la &#8220;M\u00e1quina de Eureka&#8221; tambi\u00e9n est\u00e1n incluidos aqu\u00ed.<\/p>\n\n\n\n<p>En el caso de la IA generativa, aunque no se clasifica como de alto riesgo, se requiere cumplir con los requisitos de transparencia y la conformidad con la ley de derechos de autor de la UE. Espec\u00edficamente, se necesitan las siguientes medidas:<\/p>\n\n\n\n<ul>\n<li>Divulgar claramente que el contenido ha sido generado por IA.<\/li>\n\n\n\n<li>Dise\u00f1ar modelos para evitar la creaci\u00f3n de contenido ilegal.<\/li>\n\n\n\n<li>Publicar un resumen de los datos protegidos por derechos de autor utilizados en el entrenamiento de la IA.<\/li>\n<\/ul>\n\n\n\n<p>Adem\u00e1s, modelos de IA general y de gran influencia como &#8220;GPT-4&#8221; (modelos GPAI), que pueden presentar riesgos sist\u00e9micos, requieren una evaluaci\u00f3n exhaustiva. En caso de incidentes graves, se impone la obligaci\u00f3n de informar a la Comisi\u00f3n Europea. Adem\u00e1s, el contenido generado o modificado por IA (im\u00e1genes, audio, archivos de video, deepfakes, etc.) debe mostrar claramente que ha sido creado por IA, para que los usuarios puedan reconocer dicho contenido.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Sistemas_de_IA_con_el_Minimo_Riesgo_Bajo_la_Legislacion_Japonesa\"><\/span>Sistemas de IA con el M\u00ednimo Riesgo Bajo la Legislaci\u00f3n Japonesa<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>Finalmente, en lo que respecta a los sistemas de inteligencia artificial (IA) con el m\u00ednimo riesgo, no se han establecido regulaciones espec\u00edficas en Jap\u00f3n. Ejemplos concretos incluyen filtros de spam y sistemas de recomendaci\u00f3n. En esta categor\u00eda, en lugar de regulaciones, se fomenta la creaci\u00f3n y el cumplimiento de c\u00f3digos de conducta.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Requisitos_y_Obligaciones_para_Sistemas_de_IA_de_Alto_Riesgo_bajo_la_Ley_Japonesa\"><\/span>Requisitos y Obligaciones para Sistemas de IA de Alto Riesgo bajo la Ley Japonesa<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/monolith.law\/wp-content\/uploads\/2024\/12\/10ec3c14ec8f0f35adbe1bfb295b40f8.jpg\" alt=\"Requisitos y Obligaciones para Sistemas de IA de Alto Riesgo bajo la Ley Japonesa\" class=\"wp-image-119447\" \/><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Obligaciones_de_Proveedores_Usuarios_Importadores_y_Distribuidores\"><\/span>Obligaciones de Proveedores, Usuarios, Importadores y Distribuidores<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>Como se ha distinguido anteriormente, los sistemas de IA de alto riesgo est\u00e1n sujetos a regulaciones particularmente estrictas debido a la gravedad de sus riesgos, y se exigen obligaciones espec\u00edficas tanto a proveedores como a usuarios.<\/p>\n\n\n\n<p>En primer lugar, se requiere que proveedores, usuarios, importadores y distribuidores establezcan un sistema de gesti\u00f3n de riesgos (Art\u00edculo 9). Esto implica la identificaci\u00f3n y gesti\u00f3n adecuada de los riesgos inherentes a los sistemas de IA de alto riesgo, la implementaci\u00f3n de un sistema para tal fin, y su documentaci\u00f3n y mantenimiento continuo. En cuanto a la gobernanza de datos (Art\u00edculo 10), se exige el uso de conjuntos de datos de aprendizaje, validaci\u00f3n y prueba que cumplan con los est\u00e1ndares de calidad. Esto es necesario porque la calidad y la fiabilidad de los datos deben ser gestionadas estrictamente incluso durante la fase de desarrollo del sistema de IA.<\/p>\n\n\n\n<p>Adem\u00e1s, se obliga a la creaci\u00f3n de documentaci\u00f3n t\u00e9cnica (Art\u00edculo 11). Esta documentaci\u00f3n t\u00e9cnica debe contener la informaci\u00f3n necesaria para demostrar que el sistema de IA de alto riesgo cumple con los requisitos regulatorios y debe estar preparada para ser proporcionada a las autoridades competentes de los estados miembros o a organismos de certificaci\u00f3n de terceros. Tambi\u00e9n es necesario dise\u00f1ar y desarrollar una funci\u00f3n de registro que documente autom\u00e1ticamente los eventos durante la operaci\u00f3n del sistema de IA (Art\u00edculo 12). Adem\u00e1s, los sistemas de IA de alto riesgo deben registrarse en una base de datos bajo la administraci\u00f3n de la UE antes de su introducci\u00f3n en el mercado, y los proveedores son responsables de establecer y mantener un sistema de gesti\u00f3n de calidad documentado.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Obligaciones_del_Proveedor\"><\/span>Obligaciones del Proveedor<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>Los proveedores tienen la obligaci\u00f3n de conservar la documentaci\u00f3n t\u00e9cnica y los documentos relacionados con el sistema de gesti\u00f3n de calidad, las aprobaciones o decisiones de los organismos de certificaci\u00f3n de terceros, etc., durante 10 a\u00f1os despu\u00e9s de la introducci\u00f3n en el mercado o el inicio de la operaci\u00f3n, y de presentarlos a petici\u00f3n de las autoridades nacionales competentes. De esta manera, los proveedores tienen la responsabilidad de mantener la calidad y la seguridad del sistema de IA a largo plazo y de asegurar la transparencia.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Obligaciones_del_Usuario\"><\/span>Obligaciones del Usuario<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>Por otro lado, tambi\u00e9n se imponen obligaciones espec\u00edficas a los usuarios en relaci\u00f3n con el uso de sistemas de IA de alto riesgo. Los usuarios deben conservar los registros generados autom\u00e1ticamente por el sistema de IA de alto riesgo durante un per\u00edodo apropiado, en funci\u00f3n del prop\u00f3sito previsto del sistema de IA, a menos que existan disposiciones especiales en la legislaci\u00f3n de la UE o de los estados miembros. Espec\u00edficamente, se exige una conservaci\u00f3n de al menos seis meses.<\/p>\n\n\n\n<p>Adem\u00e1s, cuando se inicia la operaci\u00f3n o el uso de un sistema de IA de alto riesgo en el lugar de trabajo, el usuario, que es el empleador, tiene la obligaci\u00f3n de notificar previamente a los representantes de los empleados y a los empleados afectados sobre el uso de dicho sistema. Esto se establece desde el punto de vista de la protecci\u00f3n de los derechos de los trabajadores y la garant\u00eda de transparencia.<\/p>\n\n\n\n<p>De esta manera, se establecen requisitos y obligaciones estrictas tanto para proveedores como para usuarios de sistemas de IA de alto riesgo. Especialmente en casos donde se manejan tecnolog\u00edas de IA avanzadas como dispositivos m\u00e9dicos o sistemas de conducci\u00f3n aut\u00f3noma, puede ser necesario realizar evaluaciones de conformidad y revisiones por parte de organismos de certificaci\u00f3n de terceros, teniendo en cuenta la coherencia con los marcos regulatorios existentes, por lo que las empresas deben actuar con precauci\u00f3n y de manera planificada.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Cronograma_de_Implementacion_Gradual_de_la_Ley_de_Regulacion_de_la_IA_en_Japon\"><\/span>Cronograma de Implementaci\u00f3n Gradual de la Ley de Regulaci\u00f3n de la IA en Jap\u00f3n<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/monolith.law\/wp-content\/uploads\/2024\/12\/9c31a8e538e2882c3aec3b1e4ebdc45f.jpg\" alt=\"Cronograma de Implementaci\u00f3n Gradual de la Ley de Regulaci\u00f3n de la IA en Jap\u00f3n\" class=\"wp-image-119448\" \/><\/figure>\n\n\n\n<p>La Ley de Regulaci\u00f3n de la IA de la UE tiene un cronograma de implementaci\u00f3n gradual desde su promulgaci\u00f3n hasta su aplicaci\u00f3n. Esto requiere que las empresas se preparen y respondan adecuadamente en cada etapa.<\/p>\n\n\n\n<p>El 12 de julio de 2024 (2024\u5e747\u670812\u65e5), la Ley de Regulaci\u00f3n de la IA se public\u00f3 en el bolet\u00edn oficial y entr\u00f3 en vigor el 1 de agosto del mismo a\u00f1o. En esta etapa, se requiere que las empresas primero verifiquen y consideren el contenido de la regulaci\u00f3n.<\/p>\n\n\n\n<p>El 2 de febrero de 2025 (2025\u5e742\u67082\u65e5), se aplicar\u00e1n las disposiciones sobre &#8220;Disposiciones Generales&#8221; y &#8220;Sistemas de IA con Riesgos Inaceptables&#8221;. Si una empresa maneja un sistema de IA con riesgos inaceptables, debe detener su manejo de inmediato.<\/p>\n\n\n\n<p>Luego, el 2 de mayo de 2025 (2025\u5e745\u67082\u65e5), se publicar\u00e1n los c\u00f3digos de pr\u00e1ctica para los proveedores de modelos de IA de prop\u00f3sito general (GPAI). Las empresas deben actuar de acuerdo con estos c\u00f3digos de pr\u00e1ctica.<\/p>\n\n\n\n<p>Posteriormente, el 2 de agosto de 2025 (2025\u5e748\u67082\u65e5), se aplicar\u00e1n las disposiciones sobre &#8220;Modelos GPAI&#8221; y &#8220;Sanciones&#8221;, y cada estado miembro nombrar\u00e1 su autoridad competente. En esta etapa, los proveedores de modelos GPAI deben cumplir con las regulaciones pertinentes.<\/p>\n\n\n\n<p>El 2 de febrero de 2026 (2026\u5e742\u67082\u65e5), se publicar\u00e1n las directrices sobre m\u00e9todos de implementaci\u00f3n de sistemas de IA seg\u00fan la Ley de Regulaci\u00f3n de la IA. Al mismo tiempo, se obligar\u00e1 a la vigilancia post-venta de sistemas de IA de alto riesgo, y se requerir\u00e1 un sistema para responder a esto.<\/p>\n\n\n\n<p>Adem\u00e1s, el 2 de agosto de 2026 (2026\u5e748\u67082\u65e5), se aplicar\u00e1n las disposiciones sobre &#8220;Sistemas de IA de Alto Riesgo&#8221; enumerados en el Anexo III. En este punto, los estados miembros deber\u00e1n establecer un sandbox regulatorio de IA, y el cumplimiento de las regulaciones para los sistemas de IA de alto riesgo afectados ser\u00e1 obligatorio.<\/p>\n\n\n\n<p>Finalmente, el 2 de agosto de 2027 (2027\u5e748\u67082\u65e5), se aplicar\u00e1n las disposiciones sobre &#8220;Sistemas de IA de Alto Riesgo&#8221; enumerados en el Anexo I. Esto obligar\u00e1 a cumplir con las regulaciones para los sistemas de IA especificados en el Anexo I.<\/p>\n\n\n\n<p>De esta manera, la Ley de Regulaci\u00f3n de la IA se implementar\u00e1 gradualmente a lo largo de varios a\u00f1os, y las regulaciones correspondientes a la gravedad del riesgo se aplicar\u00e1n secuencialmente. Las empresas deben comprender con precisi\u00f3n cada fecha de aplicaci\u00f3n y avanzar en las respuestas adecuadas para los sistemas de IA afectados.<\/p>\n\n\n\n<p>Art\u00edculo relacionado: <a href=\"https:\/\/monolith.law\/corporate\/ai-act\" target=\"_blank\" rel=\"noreferrer noopener\">\u00bfCu\u00e1l es el estado actual y las perspectivas de la Ley de Regulaci\u00f3n de la IA en la UE? Explicaci\u00f3n del impacto en las empresas japonesas[ja]<\/a><\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Guia_de_Estrategias_por_Monolith_Law_Office\"><\/span>Gu\u00eda de Estrategias por Monolith Law Office<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Monolith Law Office es un despacho de abogados con una amplia experiencia en IT, especialmente en la intersecci\u00f3n entre Internet y el derecho.<\/p>\n\n\n\n<p>El negocio de la inteligencia artificial (AI) conlleva numerosos riesgos legales, y el apoyo de abogados especializados en cuestiones legales relacionadas con la AI es esencial. Nuestro despacho ofrece un soporte legal avanzado para negocios de AI, incluyendo ChatGPT, a trav\u00e9s de un equipo de abogados y profesionales como ingenieros, que abarca la creaci\u00f3n de contratos, la evaluaci\u00f3n de la legalidad de modelos de negocio, la protecci\u00f3n de derechos de propiedad intelectual y la gesti\u00f3n de la privacidad. Los detalles se encuentran en el art\u00edculo a continuaci\u00f3n.<\/p>\n\n\n\n<p>\u00c1reas de pr\u00e1ctica de Monolith Law Office: <a href=\"https:\/\/monolith.law\/artificial-intelligence\" target=\"_blank\" rel=\"noreferrer noopener\">Asuntos legales de AI (incluyendo ChatGPT)[ja]<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>El 12 de julio de 2024 (Reiwa 6), se promulg\u00f3 la &#8220;Ley de Regulaci\u00f3n de la IA (EU AI Act)&#8221; en la Uni\u00f3n Europea, y entr\u00f3 en vigor el 1 de agosto del mismo a\u00f1o.Esta ley regula el uso y la pro [&hellip;]<\/p>\n","protected":false},"author":32,"featured_media":71301,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[16],"tags":[66,55,19],"acf":[],"_links":{"self":[{"href":"https:\/\/monolith.law\/es\/wp-json\/wp\/v2\/posts\/71098"}],"collection":[{"href":"https:\/\/monolith.law\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/monolith.law\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/monolith.law\/es\/wp-json\/wp\/v2\/users\/32"}],"replies":[{"embeddable":true,"href":"https:\/\/monolith.law\/es\/wp-json\/wp\/v2\/comments?post=71098"}],"version-history":[{"count":2,"href":"https:\/\/monolith.law\/es\/wp-json\/wp\/v2\/posts\/71098\/revisions"}],"predecessor-version":[{"id":71302,"href":"https:\/\/monolith.law\/es\/wp-json\/wp\/v2\/posts\/71098\/revisions\/71302"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/monolith.law\/es\/wp-json\/wp\/v2\/media\/71301"}],"wp:attachment":[{"href":"https:\/\/monolith.law\/es\/wp-json\/wp\/v2\/media?parent=71098"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/monolith.law\/es\/wp-json\/wp\/v2\/categories?post=71098"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/monolith.law\/es\/wp-json\/wp\/v2\/tags?post=71098"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}