{"id":74455,"date":"2025-07-29T18:36:23","date_gmt":"2025-07-29T09:36:23","guid":{"rendered":"https:\/\/monolith.law\/no\/?p=74455"},"modified":"2025-08-19T00:32:13","modified_gmt":"2025-08-18T15:32:13","slug":"eu-ai-act","status":"publish","type":"post","link":"https:\/\/monolith.law\/no\/it\/eu-ai-act","title":{"rendered":"EUs AI-reguleringslov og n\u00f8dvendige tiltak for japanske selskaper"},"content":{"rendered":"\n<p>Den 12. juli 2024 ble &#8220;AI-reguleringsloven (EU AI Act)&#8221; kunngjort i EU, og tr\u00e5dte i kraft 1. august samme \u00e5r.<br>Denne loven regulerer bruken og tilbydingen av AI-systemer innenfor EU, og fra 2025 vil den ogs\u00e5 kreve visse tiltak fra japanske selskaper.<\/p>\n\n\n\n<p>Spesifikt, p\u00e5 samme m\u00e5te som japanske e-handelsnettsteder m\u00e5 overholde EUs &#8220;General Data Protection Regulation (GDPR)&#8221;, kan japanske selskaper som tilbyr AI-relaterte produkter eller tjenester til kunder innenfor EU, bli underlagt EU AI-reguleringsloven.<\/p>\n\n\n\n<p>Her vil vi forklare hvordan ber\u00f8rte virksomheter m\u00e5 h\u00e5ndtere risikoklassifisering av AI-systemer og konformitetsvurderinger, blant annet, som et resultat av implementeringen av denne loven.<\/p>\n\n\n\n<div id=\"ez-toc-container\" class=\"ez-toc-v2_0_53 counter-hierarchy ez-toc-counter ez-toc-grey ez-toc-container-direction\">\n<div class=\"ez-toc-title-container\">\n<span class=\"ez-toc-title-toggle\"><\/span><\/div>\n<nav><ul class='ez-toc-list ez-toc-list-level-1 ' ><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-1\" href=\"https:\/\/monolith.law\/no\/it\/eu-ai-act\/#Forutsetninger_Forskjellen_mellom_%E2%80%9Cforordninger%E2%80%9D_og_%E2%80%9Cdirektiver%E2%80%9D_i_EU\" title=\"Forutsetninger: Forskjellen mellom &#8220;forordninger&#8221; og &#8220;direktiver&#8221; i EU\">Forutsetninger: Forskjellen mellom &#8220;forordninger&#8221; og &#8220;direktiver&#8221; i EU<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-2\" href=\"https:\/\/monolith.law\/no\/it\/eu-ai-act\/#AI-regulering_og_ekstraterritoriell_anvendelse_under_japansk_lov\" title=\"AI-regulering og ekstraterritoriell anvendelse under japansk lov\">AI-regulering og ekstraterritoriell anvendelse under japansk lov<\/a><ul class='ez-toc-list-level-3'><li class='ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-3\" href=\"https:\/\/monolith.law\/no\/it\/eu-ai-act\/#Hva_er_ekstraterritoriell_anvendelse\" title=\"Hva er ekstraterritoriell anvendelse?\">Hva er ekstraterritoriell anvendelse?<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-4\" href=\"https:\/\/monolith.law\/no\/it\/eu-ai-act\/#Ekstraterritoriell_anvendelse_av_EU%E2%80%99s_AI-regulering\" title=\"Ekstraterritoriell anvendelse av EU&#8217;s AI-regulering\">Ekstraterritoriell anvendelse av EU&#8217;s AI-regulering<\/a><\/li><\/ul><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-5\" href=\"https:\/\/monolith.law\/no\/it\/eu-ai-act\/#Kjennetegn_ved_EUs_AI-reguleringslov_En_risikobasert_tilnaerming\" title=\"Kjennetegn ved EUs AI-reguleringslov: En risikobasert tiln\u00e6rming\">Kjennetegn ved EUs AI-reguleringslov: En risikobasert tiln\u00e6rming<\/a><ul class='ez-toc-list-level-3'><li class='ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-6\" href=\"https:\/\/monolith.law\/no\/it\/eu-ai-act\/#Hva_er_en_risikobasert_tilnaerming\" title=\"Hva er en risikobasert tiln\u00e6rming?\">Hva er en risikobasert tiln\u00e6rming?<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-7\" href=\"https:\/\/monolith.law\/no\/it\/eu-ai-act\/#AI-systemer_med_uakseptabel_risiko_under_japansk_lov\" title=\"AI-systemer med uakseptabel risiko under japansk lov\">AI-systemer med uakseptabel risiko under japansk lov<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-8\" href=\"https:\/\/monolith.law\/no\/it\/eu-ai-act\/#Hoyrisiko_AI-systemer_under_japansk_lov\" title=\"H\u00f8yrisiko AI-systemer under japansk lov\">H\u00f8yrisiko AI-systemer under japansk lov<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-9\" href=\"https:\/\/monolith.law\/no\/it\/eu-ai-act\/#AI-systemer_med_Begrenset_Risiko\" title=\"AI-systemer med Begrenset Risiko\">AI-systemer med Begrenset Risiko<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-10\" href=\"https:\/\/monolith.law\/no\/it\/eu-ai-act\/#AI-systemer_med_minimal_risiko_i_Japan\" title=\"AI-systemer med minimal risiko i Japan\">AI-systemer med minimal risiko i Japan<\/a><\/li><\/ul><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-11\" href=\"https:\/\/monolith.law\/no\/it\/eu-ai-act\/#Krav_og_forpliktelser_knyttet_til_hoyrisiko_AI-systemer_i_Japan\" title=\"Krav og forpliktelser knyttet til h\u00f8yrisiko AI-systemer i Japan\">Krav og forpliktelser knyttet til h\u00f8yrisiko AI-systemer i Japan<\/a><ul class='ez-toc-list-level-3'><li class='ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-12\" href=\"https:\/\/monolith.law\/no\/it\/eu-ai-act\/#Forpliktelser_for_tilbydere_brukere_importorer_og_forhandlere\" title=\"Forpliktelser for tilbydere, brukere, import\u00f8rer og forhandlere\">Forpliktelser for tilbydere, brukere, import\u00f8rer og forhandlere<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-13\" href=\"https:\/\/monolith.law\/no\/it\/eu-ai-act\/#Tilbyderens_forpliktelser\" title=\"Tilbyderens forpliktelser\">Tilbyderens forpliktelser<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-3'><a class=\"ez-toc-link ez-toc-heading-14\" href=\"https:\/\/monolith.law\/no\/it\/eu-ai-act\/#Brukerens_forpliktelser\" title=\"Brukerens forpliktelser\">Brukerens forpliktelser<\/a><\/li><\/ul><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-15\" href=\"https:\/\/monolith.law\/no\/it\/eu-ai-act\/#Trinnvis_implementeringsplan_for_japansk_AI-reguleringslov\" title=\"Trinnvis implementeringsplan for japansk AI-reguleringslov\">Trinnvis implementeringsplan for japansk AI-reguleringslov<\/a><\/li><li class='ez-toc-page-1 ez-toc-heading-level-2'><a class=\"ez-toc-link ez-toc-heading-16\" href=\"https:\/\/monolith.law\/no\/it\/eu-ai-act\/#Veiledning_i_tiltak_fra_var_advokatfirma\" title=\"Veiledning i tiltak fra v\u00e5r advokatfirma\">Veiledning i tiltak fra v\u00e5r advokatfirma<\/a><\/li><\/ul><\/nav><\/div>\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Forutsetninger_Forskjellen_mellom_%E2%80%9Cforordninger%E2%80%9D_og_%E2%80%9Cdirektiver%E2%80%9D_i_EU\"><\/span>Forutsetninger: Forskjellen mellom &#8220;forordninger&#8221; og &#8220;direktiver&#8221; i EU<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>F\u00f8r vi g\u00e5r inn p\u00e5 selve forklaringen av AI-reguleringsloven, er det n\u00f8dvendig \u00e5 forst\u00e5 forskjellen mellom &#8220;forordninger&#8221; og &#8220;direktiver&#8221; i EU-lovgivningen som en forutsetning.<\/p>\n\n\n\n<p>F\u00f8rst og fremst er &#8220;forordninger&#8221; rettsakter som gjelder direkte for medlemslandene, bedrifter osv. innenfor EU. Dette betyr at de har prioritet over nasjonale lover i medlemslandene og at det blir anvendt et enhetlig sett med regler i hele EU. Derfor, n\u00e5r en forordning trer i kraft, vil det samme reguleringsinnholdet bli anvendt i alle EU-medlemslandene.<\/p>\n\n\n\n<p>P\u00e5 den annen side er &#8220;direktiver&#8221; rettsakter som har som m\u00e5l \u00e5 koordinere og harmonisere reguleringsinnholdet mellom EU-medlemslandene. Imidlertid gjelder direktiver ikke direkte for medlemslandene, og hvert land m\u00e5 erstatte innholdet som er fastsatt i direktivet med nasjonal lovgivning. Vanligvis m\u00e5 medlemslandene vedta eller endre nasjonal lovgivning innen tre \u00e5r etter at direktivet er publisert i EU-tidende.<\/p>\n\n\n\n<p>En s\u00e6regenhet ved &#8220;direktiver&#8221; er at medlemslandene har en viss skj\u00f8nnsmargin n\u00e5r de omdanner dem til nasjonal lovgivning, noe som betyr at det kan oppst\u00e5 forskjeller i lovgivningen mellom landene. Med andre ord, lovgivning basert p\u00e5 &#8220;direktiver&#8221; er ikke fullstendig harmonisert i EU, og det er mulig at det kan oppst\u00e5 noen forskjeller mellom landene.<\/p>\n\n\n\n<p>Med denne distinksjonen i bakhodet er AI-reguleringsloven etablert som en &#8220;forordning&#8221;. Det betyr at AI-reguleringsloven gjelder direkte for virksomheter som er lokalisert innenfor EU.<\/p>\n\n\n\n<p>Relatert artikkel: <a href=\"https:\/\/monolith.law\/corporate\/eu-law\" target=\"_blank\" rel=\"noreferrer noopener\">Essensiell lesning for bedrifter som utvider til Europa: En forklaring p\u00e5 EU-lovgivning og rettssystem[ja]<\/a><\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"AI-regulering_og_ekstraterritoriell_anvendelse_under_japansk_lov\"><\/span>AI-regulering og ekstraterritoriell anvendelse under japansk lov<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Hva_er_ekstraterritoriell_anvendelse\"><\/span>Hva er ekstraterritoriell anvendelse?<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>&#8220;Ekstraterritoriell anvendelse&#8221; refererer til n\u00e5r en lov vedtatt i et land ogs\u00e5 gjelder for handlinger som utf\u00f8res utenfor landets suverene territorium. Bakgrunnen for \u00e5 tillate ekstraterritoriell anvendelse ligger i globaliseringen av \u00f8konomien og internasjonaliseringen av bedriftsaktiviteter, med m\u00e5l om \u00e5 sikre rettferdig og korrekt \u00f8konomisk aktivitet over hele verden.<\/p>\n\n\n\n<p>Et eksempel som har bidratt til bred anerkjennelse av dette konseptet er GDPR (EU&#8217;s generelle databeskyttelsesforordning). Under GDPR kan virksomheter som ikke har etablert seg i EU likevel bli underlagt forordningen (ekstraterritoriell anvendelse) hvis de oppfyller f\u00f8lgende krav:<\/p>\n\n\n\n<ul>\n<li>N\u00e5r de tilbyr tjenester eller varer til personer innenfor EU<\/li>\n\n\n\n<li>N\u00e5r de behandler personopplysninger med det form\u00e5l \u00e5 overv\u00e5ke atferden til personer innenfor EU<\/li>\n<\/ul>\n\n\n\n<p>For eksempel, i tilfeller hvor et selskap utenfor EU sender ansatte p\u00e5 forretningsreise til EU og behandler personopplysninger relatert til denne perioden, ble det i retningslinjene fra 2020 klargjort at dette var &#8220;utenfor anvendelsesomr\u00e5det&#8221;, selv om ekstraterritoriell anvendelse var et diskutert tema i utgangspunktet.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Ekstraterritoriell_anvendelse_av_EU%E2%80%99s_AI-regulering\"><\/span>Ekstraterritoriell anvendelse av EU&#8217;s AI-regulering<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>I EU&#8217;s AI-regulering er det ogs\u00e5 anerkjent ekstraterritoriell anvendelse for virksomheter som befinner seg utenfor EU. F\u00f8lgende virksomheter og aktiviteter er omfattet:<\/p>\n\n\n\n<ul>\n<li>Leverand\u00f8rer (Providers): De som utvikler AI-systemer eller GPAI-modeller, de som f\u00e5r utviklet og introduserer AI-systemer eller GPAI-modeller p\u00e5 markedet, eller de som starter drift av AI-systemer under eget navn eller varemerke<\/li>\n\n\n\n<li>Brukere (Users): De som bruker AI-systemer under egen autoritet (med unntak av de som bruker AI-systemer for personlige og ikke-profesjonelle aktiviteter)<\/li>\n\n\n\n<li>Import\u00f8rer (Importers): Import\u00f8rer som er etablert eller befinner seg innenfor EU, og som introduserer AI-systemer merket med navn eller varemerke til personer eller selskaper etablert utenfor EU, p\u00e5 EU-markedet<\/li>\n\n\n\n<li>Distribut\u00f8rer (Distributers): Naturlige eller juridiske personer som tilh\u00f8rer forsyningskjeden og som tilbyr AI-systemer p\u00e5 EU-markedet, annet enn leverand\u00f8rer og import\u00f8rer<\/li>\n<\/ul>\n\n\n\n<p>Som det fremg\u00e5r, selv for virksomheter som befinner seg utenfor EU, vil EU&#8217;s AI-regulering direkte gjelde dersom de tilbyr, driver, importerer eller bruker AI-systemer eller GPAI-modeller innenfor EU.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Kjennetegn_ved_EUs_AI-reguleringslov_En_risikobasert_tilnaerming\"><\/span>Kjennetegn ved EUs AI-reguleringslov: En risikobasert tiln\u00e6rming<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/monolith.law\/wp-content\/uploads\/2024\/12\/6d7d772661bd64b7a72439ddce73b941.jpg\" alt=\"Kjennetegn ved EUs AI-reguleringslov: En risikobasert tiln\u00e6rming\" class=\"wp-image-119449\" \/><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Hva_er_en_risikobasert_tilnaerming\"><\/span>Hva er en risikobasert tiln\u00e6rming?<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>Et av de mest fremtredende trekkene ved EU sin AI-reguleringslov er dens &#8220;regulering basert p\u00e5 innholdet og graden av risiko&#8221; (risikobasert tiln\u00e6rming).<\/p>\n\n\n\n<p>En &#8220;risikobasert tiln\u00e6rming&#8221; refererer til en metode hvor styrken av reguleringen justeres basert p\u00e5 innholdet og graden av risikoen. Med denne tiln\u00e6rmingen bestemmes strengheten av reguleringene som p\u00e5legges et AI-system i henhold til alvorlighetsgraden av risikoen systemet potensielt kan for\u00e5rsake.<\/p>\n\n\n\n<p>Spesifikt vil AI-systemer med h\u00f8y risiko v\u00e6re underlagt strengere reguleringer, mens systemer med lavere risiko vil ha mer lempelige reguleringer. Dette tillater for unng\u00e5else av overdreven regulering p\u00e5 systemer med lav risiko, og p\u00e5 den andre siden, sikrer det passende overv\u00e5kning og styring av systemer med h\u00f8y risiko.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"AI-systemer_med_uakseptabel_risiko_under_japansk_lov\"><\/span>AI-systemer med uakseptabel risiko under japansk lov<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>F\u00f8rst og fremst anses AI-systemer med uakseptabel risiko som en trussel mot mennesker og er i prinsippet forbudt.<\/p>\n\n\n\n<p>For eksempel, AI-systemer som manipulerer kognisjonen eller atferden til spesifikke s\u00e5rbare brukergrupper, slik som stemmeaktiverte leker som oppmuntrer til farlig oppf\u00f8rsel blant barn, faller inn under denne kategorien. Sosial scoring som klassifiserer mennesker basert p\u00e5 deres atferd, sosio\u00f8konomisk status eller personlige egenskaper er ogs\u00e5 forbudt. Videre er systemer som bruker ansiktsgjenkjenningsteknologi for \u00e5 identifisere individer p\u00e5 avstand ved \u00e5 sammenligne deres biometriske data med en referansedatabase, kjent som &#8220;realtids og fjern biometrisk autentiseringssystemer&#8221;, ogs\u00e5 i prinsippet forbudt.<\/p>\n\n\n\n<p>Det er imidlertid fastsatt unntak der bruk av disse systemene kan tillates. Spesifikt er bruk av realtids fjern biometrisk autentiseringssystemer kun tillatt i begrensede tilfeller av alvorlige hendelser. P\u00e5 den annen side kan fjern biometrisk autentisering etter hendelsen tillates for \u00e5 tiltale alvorlige forbrytelser, men kun med rettens godkjennelse.<\/p>\n\n\n\n<p>I tillegg er det tilfeller der det eksepsjonelt kan tillates \u00e5 implementere slike systemer, for eksempel i s\u00f8ket etter savnede barn eller potensielle ofre for kriminalitet, for \u00e5 forhindre konkrete og umiddelbare trusler mot menneskers liv eller fysisk sikkerhet, eller for \u00e5 forhindre terrorangrep, og for \u00e5 oppdage og lokalisere gjerningsmenn eller mistenkte for alvorlige forbrytelser. Disse unntakene er underlagt strenge restriksjoner som i utgangspunktet krever forh\u00e5ndsgodkjennelse fra en domstol, og det kreves forsiktig h\u00e5ndtering av bruken av AI-systemer.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Hoyrisiko_AI-systemer_under_japansk_lov\"><\/span>H\u00f8yrisiko AI-systemer under japansk lov<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>Neste, AI-systemer som klassifiseres som h\u00f8yrisiko, er de som potensielt kan ha en negativ innvirkning p\u00e5 sikkerhet eller grunnleggende menneskerettigheter. Disse systemene er tillatt for bruk s\u00e5 lenge de oppfyller visse krav og forpliktelser (konformitetsvurdering).<\/p>\n\n\n\n<p>H\u00f8yrisiko AI-systemer kan deles inn i to hovedkategorier. For det f\u00f8rste, AI-systemer som brukes i produkter som faller under EUs produktsikkerhetslovgivning, inkludert, men ikke begrenset til, leker, luftfart, biler, medisinsk utstyr og heiser. For det andre, AI-systemer som er klassifisert i spesifikke omr\u00e5der som krever registrering i EUs databaser. Disse omr\u00e5dene inkluderer forvaltning og drift av kritisk infrastruktur, utdanning og yrkesoppl\u00e6ring, ansettelse og arbeidsstyrkeforvaltning, tilgang til essensielle offentlige tjenester og fordeler, rettsh\u00e5ndhevelse, innvandring og asyl, grensekontroll, samt st\u00f8tte til tolkning og anvendelse av loven.<\/p>\n\n\n\n<p>H\u00f8yrisiko AI-systemer krever evaluering f\u00f8r de lanseres p\u00e5 markedet og gjennom hele livssyklusen. I tillegg er det anerkjent en rett til \u00e5 fremme klager over AI-systemer til de utpekte nasjonale myndighetene.<\/p>\n\n\n\n<p>Generelt kan det sies at maskiner og kj\u00f8ret\u00f8y som har som forutsetning \u00e5 sikre menneskers liv og fysisk sikkerhet, faller inn under kategorien h\u00f8yrisiko AI. For eksempel kan AI for autonom kj\u00f8ring ogs\u00e5 v\u00e6re relevant her, s\u00e5 n\u00e5r japanske selskaper utvikler AI for autonom kj\u00f8ring og planlegger \u00e5 ekspandere internasjonalt, m\u00e5 de n\u00f8ye vurdere om de oppfyller kravene for h\u00f8yrisiko AI og respondere tilsvarende.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"AI-systemer_med_Begrenset_Risiko\"><\/span>AI-systemer med Begrenset Risiko<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>AI-systemer med begrenset risiko antas \u00e5 inneb\u00e6re risikoer knyttet til transparens, samt risiko for identitetstyveri, manipulasjon og svindel. Dette inkluderer spesifikt chatbots, deepfakes og generative AI-systemer, som if\u00f8lge EU-parlamentets synspunkt, utgj\u00f8r majoriteten av AI-systemene som er i bruk i dag. Eksempler p\u00e5 dette er automatiske oversettelsessystemer, spillkonsoller, roboter som utf\u00f8rer repetitive produksjonsprosesser, og til og med AI-systemer som &#8220;Eureka-maskinen&#8221;.<\/p>\n\n\n\n<p>N\u00e5r det gjelder generative AI-systemer, klassifiseres de ikke som h\u00f8yrisiko, men det kreves at de oppfyller krav til transparens og overholdelse av EU&#8217;s opphavsrettslovgivning. Dette inneb\u00e6rer spesifikt f\u00f8lgende tiltak:<\/p>\n\n\n\n<ul>\n<li>\u00c5 tydelig avsl\u00f8re at innholdet er generert av AI<\/li>\n\n\n\n<li>\u00c5 designe modeller slik at de ikke genererer ulovlig innhold<\/li>\n\n\n\n<li>\u00c5 offentliggj\u00f8re en oversikt over opphavsrettsbeskyttede data som er brukt i treningen av AI<\/li>\n<\/ul>\n\n\n\n<p>I tillegg m\u00e5 avanserte og innflytelsesrike generelle AI-modeller (GPAI-modeller), som &#8220;GPT-4&#8221;, gjennomg\u00e5 grundige vurderinger p\u00e5 grunn av potensialet for \u00e5 medf\u00f8re systemiske risikoer. Videre, i tilfelle av alvorlige hendelser, p\u00e5legges det en rapporteringsplikt til Europakommisjonen. Dessuten m\u00e5 innhold som er generert eller modifisert av AI (bilder, lyd, videofiler, deepfakes osv.) tydelig merkes som generert av AI, slik at brukerne kan gjenkjenne innholdet som s\u00e5dan.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"AI-systemer_med_minimal_risiko_i_Japan\"><\/span>AI-systemer med minimal risiko i Japan<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>Til slutt, n\u00e5r det gjelder AI-systemer med minimal risiko, er det ikke fastsatt spesielle reguleringer i Japan. Eksempler p\u00e5 slike systemer inkluderer spamfiltre og anbefalingssystemer. Innenfor denne kategorien oppfordres det heller til utvikling og etterlevelse av atferdskodekser enn til regulering.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Krav_og_forpliktelser_knyttet_til_hoyrisiko_AI-systemer_i_Japan\"><\/span>Krav og forpliktelser knyttet til h\u00f8yrisiko AI-systemer i Japan<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/monolith.law\/wp-content\/uploads\/2024\/12\/10ec3c14ec8f0f35adbe1bfb295b40f8.jpg\" alt=\"Krav og forpliktelser knyttet til h\u00f8yrisiko AI-systemer i Japan\" class=\"wp-image-119447\" \/><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Forpliktelser_for_tilbydere_brukere_importorer_og_forhandlere\"><\/span>Forpliktelser for tilbydere, brukere, import\u00f8rer og forhandlere<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>I lys av slike distinksjoner, er det spesielt for h\u00f8yrisiko AI-systemer p\u00e5lagt strenge reguleringer p\u00e5 grunn av risikoenes alvorlighetsgrad, og det kreves konkrete forpliktelser fra b\u00e5de tilbydere og brukere.<\/p>\n\n\n\n<p>F\u00f8rst og fremst kreves det at tilbydere, brukere, import\u00f8rer og forhandlere etablerer et risikostyringssystem (Artikkel 9). Dette inneb\u00e6rer \u00e5 identifisere risikoer som er iboende i h\u00f8yrisiko AI-systemer, \u00e5 implementere et system for \u00e5 h\u00e5ndtere disse risikoene p\u00e5 en passende m\u00e5te, og videre \u00e5 dokumentere og opprettholde dette systemet. N\u00e5r det gjelder datastyring (Artikkel 10), kreves det bruk av datasett for trening, validering og testing som m\u00f8ter kvalitetsstandarder. Dette er fordi kvaliteten og p\u00e5liteligheten av data m\u00e5 h\u00e5ndteres strengt selv i utviklingsfasen av AI-systemet.<\/p>\n\n\n\n<p>I tillegg er det p\u00e5lagt \u00e5 utarbeide teknisk dokumentasjon (Artikkel 11). Denne tekniske dokumentasjonen skal inneholde informasjon som er n\u00f8dvendig for \u00e5 bevise at h\u00f8yrisiko AI-systemet overholder regulatoriske krav, og den skal v\u00e6re klar til \u00e5 leveres til relevante myndigheter i medlemslandene eller tredjeparts sertifiseringsorganer. Videre er det n\u00f8dvendig \u00e5 designe og utvikle en loggf\u00f8ringsfunksjon som automatisk registrerer hendelser mens AI-systemet er i drift (Artikkel 12). H\u00f8yrisiko AI-systemer er ogs\u00e5 p\u00e5lagt \u00e5 registreres i en database under EU-kontroll f\u00f8r de lanseres p\u00e5 markedet, og tilbydere har ansvar for \u00e5 etablere og dokumentere et kvalitetsstyringssystem og opprettholde det.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Tilbyderens_forpliktelser\"><\/span>Tilbyderens forpliktelser<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>Tilbydere er forpliktet til \u00e5 oppbevare teknisk dokumentasjon, dokumenter relatert til kvalitetsstyringssystemet, godkjennelser og beslutninger fra tredjeparts sertifiseringsorganer og andre relevante dokumenter i 10 \u00e5r etter at produktet er lansert p\u00e5 markedet eller tatt i bruk. P\u00e5 denne m\u00e5ten har tilbydere et ansvar for \u00e5 opprettholde kvaliteten og sikkerheten til AI-systemet over tid og sikre transparens.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Brukerens_forpliktelser\"><\/span>Brukerens forpliktelser<span class=\"ez-toc-section-end\"><\/span><\/h3>\n\n\n\n<p>P\u00e5 den annen side er det ogs\u00e5 p\u00e5lagt spesifikke forpliktelser for brukere av h\u00f8yrisiko AI-systemer. Brukere m\u00e5 oppbevare logger som automatisk genereres av h\u00f8yrisiko AI-systemet for en passende periode i lys av systemets tiltenkte form\u00e5l, med mindre EU-lovgivningen eller nasjonal lovgivning i medlemslandene spesifiserer noe annet. Spesifikt er det p\u00e5lagt \u00e5 oppbevare loggene i minst seks m\u00e5neder.<\/p>\n\n\n\n<p>Videre, n\u00e5r h\u00f8yrisiko AI-systemer tas i bruk eller brukes p\u00e5 arbeidsplassen, er det en forpliktelse for arbeidsgiveren, som er brukeren, \u00e5 informere ansattes representanter og ber\u00f8rte ansatte p\u00e5 forh\u00e5nd om at systemet vil bli brukt. Dette er fastsatt fra et perspektiv om \u00e5 beskytte arbeidstakernes rettigheter og sikre transparens.<\/p>\n\n\n\n<p>Slik sett er det etablert strenge krav og forpliktelser for b\u00e5de tilbydere og brukere av h\u00f8yrisiko AI-systemer. Spesielt i tilfeller der avansert AI-teknologi som medisinsk utstyr eller autonome kj\u00f8resystemer h\u00e5ndteres, kan det ogs\u00e5 v\u00e6re n\u00f8dvendig \u00e5 gjennomf\u00f8re en samsvarsvurdering og gjennomgang av tredjeparts sertifiseringsorganer, med tanke p\u00e5 \u00e5 sikre overensstemmelse med eksisterende regulatoriske rammeverk. Derfor m\u00e5 virksomheter handle forsiktig og planmessig.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Trinnvis_implementeringsplan_for_japansk_AI-reguleringslov\"><\/span>Trinnvis implementeringsplan for japansk AI-reguleringslov<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" src=\"https:\/\/monolith.law\/wp-content\/uploads\/2024\/12\/9c31a8e538e2882c3aec3b1e4ebdc45f.jpg\" alt=\"Trinnvis implementeringsplan for japansk AI-reguleringslov\" class=\"wp-image-119448\" \/><\/figure>\n\n\n\n<p>EU sin AI-reguleringslov har en trinnvis implementeringsplan fra kunngj\u00f8ring til anvendelse. Dette krever at virksomheter forbereder og responderer i henhold til hvert trinn.<\/p>\n\n\n\n<p>Den japanske AI-reguleringsloven ble offentliggjort i statsgazetten 12. juli 2024, og tr\u00e5dte i kraft 1. august samme \u00e5r. P\u00e5 dette stadiet kreves det at virksomheter f\u00f8rst bekrefter og vurderer innholdet i reguleringene.<\/p>\n\n\n\n<p>Den 2. februar 2025 vil bestemmelsene om &#8216;Generelle prinsipper&#8217; og &#8216;AI-systemer med uakseptabel risiko&#8217; bli anvendt. Hvis en virksomhet h\u00e5ndterer AI-systemer med uakseptabel risiko, m\u00e5 de umiddelbart stoppe slik h\u00e5ndtering.<\/p>\n\n\n\n<p>Deretter, den 2. mai 2025, vil praksiskodene (Codes of Practice) for leverand\u00f8rer av generelle AI-modeller (GPAI) bli publisert. Virksomheter m\u00e5 handle i samsvar med disse praksiskodene.<\/p>\n\n\n\n<p>Etter dette, den 2. august 2025, vil bestemmelsene om &#8216;GPAI-modeller&#8217; og &#8216;straffebestemmelser&#8217; bli anvendt, og medlemslandene vil utnevne tilsynsmyndigheter. P\u00e5 dette stadiet m\u00e5 leverand\u00f8rer av GPAI-modeller overholde de relevante reglene.<\/p>\n\n\n\n<p>Den 2. februar 2026 vil retningslinjer for implementering av AI-systemer i henhold til AI-reguleringsloven bli publisert. Samtidig blir det obligatorisk med overv\u00e5king etter markedsf\u00f8ring for h\u00f8yrisiko AI-systemer, og virksomheter m\u00e5 etablere systemer for \u00e5 h\u00e5ndtere dette.<\/p>\n\n\n\n<p>I tillegg, den 2. august 2026, vil bestemmelsene om &#8216;H\u00f8yrisiko AI-systemer&#8217; som er oppf\u00f8rt i Vedlegg III bli anvendt. P\u00e5 dette tidspunktet m\u00e5 medlemslandene etablere AI-reguleringssandkasser, og det blir essensielt \u00e5 overholde reglene for de aktuelle h\u00f8yrisiko AI-systemene.<\/p>\n\n\n\n<p>Til slutt, den 2. august 2027, vil bestemmelsene om &#8216;H\u00f8yrisiko AI-systemer&#8217; som er oppf\u00f8rt i Vedlegg I bli anvendt. Dette gj\u00f8r det obligatorisk for de AI-systemene som er definert i Vedlegg I \u00e5 overholde reglene.<\/p>\n\n\n\n<p>Slik blir den japanske AI-reguleringsloven trinnvis implementert over flere \u00e5r, og reguleringer som svarer til risikoniv\u00e5et blir gradvis anvendt. Virksomheter m\u00e5 n\u00f8yaktig forst\u00e5 hver anvendelsestidspunkt og fremme tiltak som svarer til de aktuelle AI-systemene.<\/p>\n\n\n\n<p>Relatert artikkel: <a href=\"https:\/\/monolith.law\/corporate\/ai-act\" target=\"_blank\" rel=\"noreferrer noopener\">Hva er statusen og utsiktene for AI-regulering i EU? Forklaring av p\u00e5virkningen p\u00e5 japanske selskaper[ja]<\/a><\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Veiledning_i_tiltak_fra_var_advokatfirma\"><\/span>Veiledning i tiltak fra v\u00e5r advokatfirma<span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n\n\n<p>Monolith Advokatfirma kombinerer dyptg\u00e5ende erfaring innen IT, spesielt internett, og juridiske tjenester i Japan.<\/p>\n\n\n\n<p>AI-virksomheter inneb\u00e6rer mange juridiske risikoer, og st\u00f8tte fra advokater som er eksperter p\u00e5 juridiske sp\u00f8rsm\u00e5l relatert til AI er avgj\u00f8rende. V\u00e5rt firma tilbyr avansert juridisk st\u00f8tte for AI-virksomheter, inkludert ChatGPT, gjennom et team av AI-kyndige advokater og ingeni\u00f8rer. Vi tilbyr tjenester som utarbeidelse av kontrakter, vurdering av forretningsmodellers lovlighet, beskyttelse av immaterielle rettigheter og personvern. Du kan lese mer om dette i artikkelen nedenfor.<\/p>\n\n\n\n<p>Tjenesteomr\u00e5der hos Monolith Advokatfirma: <a href=\"https:\/\/monolith.law\/artificial-intelligence\" target=\"_blank\" rel=\"noreferrer noopener\">AI (ChatGPT etc.) juridiske tjenester[ja]<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Den 12. juli 2024 ble &#8220;AI-reguleringsloven (EU AI Act)&#8221; kunngjort i EU, og tr\u00e5dte i kraft 1. august samme \u00e5r.Denne loven regulerer bruken og tilbydingen av AI-systemer innenfor EU, og fra  [&hellip;]<\/p>\n","protected":false},"author":32,"featured_media":74660,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[16],"tags":[132,42,19],"acf":[],"_links":{"self":[{"href":"https:\/\/monolith.law\/no\/wp-json\/wp\/v2\/posts\/74455"}],"collection":[{"href":"https:\/\/monolith.law\/no\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/monolith.law\/no\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/monolith.law\/no\/wp-json\/wp\/v2\/users\/32"}],"replies":[{"embeddable":true,"href":"https:\/\/monolith.law\/no\/wp-json\/wp\/v2\/comments?post=74455"}],"version-history":[{"count":2,"href":"https:\/\/monolith.law\/no\/wp-json\/wp\/v2\/posts\/74455\/revisions"}],"predecessor-version":[{"id":74661,"href":"https:\/\/monolith.law\/no\/wp-json\/wp\/v2\/posts\/74455\/revisions\/74661"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/monolith.law\/no\/wp-json\/wp\/v2\/media\/74660"}],"wp:attachment":[{"href":"https:\/\/monolith.law\/no\/wp-json\/wp\/v2\/media?parent=74455"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/monolith.law\/no\/wp-json\/wp\/v2\/categories?post=74455"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/monolith.law\/no\/wp-json\/wp\/v2\/tags?post=74455"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}