Qual è lo stato attuale delle leggi che regolano l'IA? Confronto e punti chiave delle strategie tra Giappone e UE

Le IA generative come ChatGPT stanno diventando un grande trend. Queste tecnologie, ora integrate anche nel mondo degli affari, sono considerate le pioniere della “quarta ondata del boom dell’IA”. Di conseguenza, si sta avanzando a livello globale nello sviluppo di un quadro legale per regolamentare l’IA.
In questo articolo, esamineremo le leggi relative all’IA, affrontando temi come la gestione appropriata dei diritti di proprietà intellettuale e delle informazioni riservate, tra cui i dati personali.
Definizione e storia dell’AI (Intelligenza Artificiale)
L’AI (artificial intelligence), o intelligenza artificiale, non ha una definizione legale precisa e viene definita in vari modi. Di seguito, alcuni esempi.
Fonte | Definizione / Spiegazione |
“Kōjien” | Un sistema informatico dotato di funzioni intellettuali come il ragionamento e il giudizio. |
“Enciclopedia Britannica” | Scienza e tecnologia > Computer e AI. La capacità di computer digitali o robot di eseguire compiti relativi all’intelligenza. |
Articolo dell’Associazione Giapponese di Intelligenza Artificiale “L’AI come conoscenza culturale” | La risposta alla domanda “Cos’è l’AI?” non è semplice. Anche tra gli esperti di AI, ci sono grandi dibattiti e questo da solo potrebbe riempire un intero libro, tanto sono diverse le opinioni. Tuttavia, un punto in comune può essere riassunto come “la tecnologia che realizza meccanicamente il lavoro intellettuale umano”. |
Articolo accademico “Apprendimento profondo e intelligenza artificiale” | L’AI è un campo di studio che cerca di spiegare meccanicamente il funzionamento dell’intelligenza umana. |
Articolo accademico “Alla ricerca di una società ideale con l’intelligenza artificiale” | L’AI e altre tecnologie informatiche sono pur sempre strumenti. |
L’AI è definita come un insieme di tecnologie, software, sistemi informatici e algoritmi che riproducono le capacità intellettuali umane su un computer.
Le principali AI specializzate includono:
- Elaborazione del linguaggio naturale (traduzione automatica, analisi sintattica, analisi morfologica, RNN, ecc.)
- Sistemi esperti che imitano il ragionamento e il giudizio degli esperti
- Riconoscimento di immagini e suoni attraverso l’identificazione ed estrazione di specifici pattern dai dati
Il campo dell’AI, fin dall’alba dell’era informatica negli anni ’50, ha continuato a essere oggetto di ricerca e sviluppo. Il primo boom dell’AI si è verificato fino agli anni ’70 con studi su “ricerca e ragionamento”, il secondo boom negli anni ’80 con la ricerca su “rappresentazione della conoscenza” che ha portato alla nascita dei sistemi esperti, segnando due importanti paradigmi.
Dagli anni 2000, con l’avvento dei big data e, dal 2012 in poi, con l’emergere di Alexnet che ha dimostrato l’utilità dell’apprendimento profondo (deep learning) nel trattamento delle immagini, la ricerca sull’AI è diventata rapidamente più attiva, portando al terzo boom dell’AI.
Tra il 2016 e il 2017, sono emerse AI che incorporano apprendimento profondo e apprendimento per rinforzo (Q-learning, metodi di gradiente della politica).
Il principale rivoluzionario del terzo boom dell’AI è stato evidente nell’elaborazione del linguaggio naturale e nel trattamento delle immagini tramite sensori, ma ha anche avuto un impatto significativo su campi come lo sviluppo tecnologico, la sociologia, l’etica e l’economia.
Il 30 novembre 2022, il lancio di ChatGPT da parte di OpenAI, un AI generativa per l’elaborazione del linguaggio naturale, ha attirato l’attenzione come strumento versatile, dando vita al business dell’AI generativa e segnando l’inizio di quello che alcuni chiamano il quarto boom dell’AI.
Scene aziendali in cui verificare le leggi sull’AI

L’intelligenza artificiale generativa, una tipologia di AI, è uno strumento utile ma comporta anche rischi quali la diffusione di informazioni errate, la promozione di attività criminali e, in alcuni casi, minacce alla democrazia.
Questi rischi associati all’AI sono diventati sfide inevitabili. Pertanto, spiegheremo le scene aziendali in cui è necessario verificare le regolamentazioni legali, sia dal punto di vista degli utenti che dei fornitori.
Utilizzo dell’AI generativa di testo
Dal lancio di ChatGPT nel novembre 2022, l’AI generativa di testo ha guadagnato attenzione globale come strumento versatile per l’efficienza lavorativa e un’elevata performance di costo, grazie alla sua capacità di gestire complesse richieste.
D’altra parte, sono diventati noti anche i rischi associati all’utilizzo dell’AI generativa di testo. È essenziale essere consapevoli di tali rischi e delle leggi da rispettare per evitarli.
ChatGPT, rappresentante dell’AI generativa di testo, presenta il rischio di fuga di informazioni (prompt) inserite dagli utenti se non si adottano misure preventive. ChatGPT ha la capacità di raccogliere, salvare e utilizzare i prompt, il che comporta il rischio di fuga di informazioni riservate personali, aziendali o ottenute tramite accordi di non divulgazione (NDA).
Inoltre, esistono rischi specifici di ChatGPT, come la generazione e diffusione di informazioni errate (allucinazioni) e violazioni del diritto d’autore. Pertanto, è indispensabile verificare i fatti di ciò che viene prodotto.
Utilizzo dell’AI generativa di immagini
Quando si utilizza l’AI generativa di immagini in ambito aziendale, è necessario tenere in considerazione il rischio di violazione del diritto d’autore.
Secondo OpenAI, i diritti d’autore delle immagini o dei testi generati da ChatGPT appartengono in linea di principio all’utente che li ha creati. Gli utenti possono utilizzare ChatGPT per qualsiasi scopo, inclusi usi commerciali.
Tuttavia, è importante prestare attenzione ai seguenti punti:
I dati di addestramento di ChatGPT includono una vasta quantità di contenuti disponibili su Internet, la maggior parte dei quali sono opere protette da diritto d’autore (testi, immagini, musica, video, ecc.). Pertanto, i contenuti generati potrebbero violare i diritti d’autore di terzi.
Sviluppo di AI e fornitura di servizi AI generativi
L’attività di business legata all’AI è soggetta a varie leggi, e a livello globale si sta lavorando alla creazione di quadri legali. Pertanto, è richiesta un’attitudine flessibile nel rispettare le leggi esistenti e adattarsi alle nuove leggi.
Nel prossimo capitolo, spiegheremo le leggi giapponesi relative all’AI e il “Regolamento sull’AI” dell’UE, la prima legge internazionale sull’AI, adottata nel dicembre 2023.
Le leggi giapponesi sull’AI
Attualmente in Giappone, l’AI non è regolata da leggi con forza coercitiva, ma si adotta un approccio basato sull’autoregolamentazione. Qui spieghiamo le leggi attuali che è necessario considerare quando si utilizza l’AI.
Riferimento: Ministero dell’Economia, del Commercio e dell’Industria | “Linee guida per la governance per la pratica dei principi dell’AI ver. 1.1″[ja]
Legge sul diritto d’autore
Nel gennaio 2019 (Era Reiwa 1), è stata promulgata la “Legge di revisione sul diritto d’autore”, che ha introdotto una nuova disposizione relativa alla limitazione dei diritti (un’eccezione che non richiede l’autorizzazione) per “l’analisi delle informazioni” (articolo 30-4, paragrafo 1, punto 2 della stessa legge). L’utilizzo di opere protette da diritto d’autore per analisi di informazioni, sviluppo di AI e fasi di apprendimento, che non mira al godimento delle idee o dei sentimenti espressi nelle opere, può essere effettuato senza il permesso dell’autore.
Questa revisione ha chiarito che anche l’apprendimento profondo e l’apprendimento automatico dell’AI sono inclusi nell'”analisi delle informazioni” grazie alla definizione di “analisi delle informazioni” stabilita.
Quando si utilizza per l’analisi delle informazioni (estrazione di informazioni relative a lingua, suono, immagini e altri elementi da un gran numero di opere e altre informazioni di massa, e l’esecuzione di confronti, classificazioni e altre analisi)
Articolo 30-4, paragrafo 1, punto 2 della Legge sul diritto d’autore
D’altra parte, è necessario prestare attenzione al fatto che le opere create utilizzando l’AI possono essere considerate una violazione del diritto d’autore se presentano somiglianze o dipendenze da altre opere.
Inoltre, inserire opere d’autore come prompt in ChatGPT potrebbe violare i diritti di riproduzione, tra gli altri. Modificare le opere di altri utilizzando AI generativa potrebbe anche portare a violazioni del diritto di adattamento e altri diritti.
Secondo i termini di servizio di OpenAI, i diritti sui contenuti creati con ChatGPT appartengono agli utenti e il loro uso commerciale è possibile, ma in caso di dubbi sulla violazione del diritto d’autore, si consiglia di consultare un esperto.
Se un autore dovesse accusare una violazione del diritto d’autore, si potrebbe essere soggetti a responsabilità civile (cessazione dell’uso, risarcimento danni, compensazione morale, ripristino della reputazione, ecc.) e penale.
Legge sulla prevenzione della concorrenza sleale
Il 1° luglio 2019 (Era Reiwa 1), è stata promulgata la “Legge di revisione sulla prevenzione della concorrenza sleale”. In precedenza, era difficile prevenire la concorrenza sleale per oggetti che non erano protetti dalla legge sui brevetti o dalla legge sul diritto d’autore, o che non rientravano nella definizione di “segreti commerciali” secondo la legge sulla prevenzione della concorrenza sleale.
Con questa revisione, sono state stabilite misure civili (diritto di richiesta di cessazione, stima del risarcimento danni, ecc.) contro atti maliziosi come l’acquisizione o l’uso improprio di dati di valore limitato.
Le leggi sull’utilizzo dell’IA nell’UE

Il sistema giuridico dell’UE è costituito da tre parti: il diritto primario (i trattati), il diritto secondario (la legislazione dell’UE) e la giurisprudenza. Il diritto secondario, basato sui trattati, comprende le leggi che vincolano direttamente o indirettamente gli Stati membri all’interno dell’UE e viene denominato diritto derivato dell’UE. Esistono cinque tipi principali di diritto secondario, ma la “Legge sull’IA” dell’UE rientra nella categoria dei regolamenti, che sono regole unificate che vincolano direttamente tutti gli Stati membri dell’UE.
D’altra parte, le direttive sono atti che impongono agli Stati membri dell’UE l’obbligo indiretto di adottare nuove leggi nazionali o modificare quelle esistenti per attuare il contenuto delle direttive stesse. Il termine per farlo è generalmente entro tre anni dalla pubblicazione nella Gazzetta Ufficiale dell’UE.
Articoli correlati: Un must per le imprese che si espandono in Europa: punti chiave sul diritto e sul sistema giuridico dell’UE[ja]
In questo capitolo, spiegheremo le ultime tendenze relative alle regolamentazioni legali sull’utilizzo dell’IA nell’UE, concentrandoci su “direttive” e “regolamenti”.
Proposta di Direttiva sulla Responsabilità dell’IA
Il 28 settembre 2022, la Commissione Europea ha pubblicato la “Proposta di Direttiva sulla Responsabilità dell’IA” insieme alla proposta di revisione della “Direttiva sulla Responsabilità del Prodotto”. Questa stabilisce le regole sulla responsabilità legale per le attività di business legate all’IA nell’UE (Unione Europea), conformemente alla “Legge sulla Regolamentazione dell’IA”, diventando un importante quadro legale. Sarà soggetta alla “Direttiva sulle Azioni Collettive” dell’UE, applicabile da giugno 2023, quindi le aziende giapponesi correlate dovrebbero familiarizzare con il suo contenuto.
Modifica significativamente le regole legali sulla responsabilità civile per il software, inclusi i sistemi IA, nell’UE, adattandole all’economia circolare dell’era digitale e alle catene di valore globali.
Articoli correlati: Qual è lo stato attuale e le prospettive della Legge sulla Regolamentazione dell’IA nell’UE? Impatto sulle aziende giapponesi spiegato[ja]
L’obiettivo della “Proposta di Direttiva sulla Responsabilità dell’IA” è stabilire regole per la responsabilità civile basata su cause extracontrattuali per danni causati da sistemi IA, al fine di migliorare il funzionamento del mercato interno dell’UE.
In altre parole, non si limita alla responsabilità contrattuale (responsabilità per inadempimento contrattuale e responsabilità per difformità contrattuale) ma include danni derivanti da responsabilità per colpa (ad esempio, responsabilità per atti illeciti), che non sono limitati solo a quelli derivanti da prodotti difettosi coperti dalla “Direttiva sulla Responsabilità del Prodotto”.
Ad esempio, si prevede che danni come la discriminazione causata da sistemi di selezione basati sull’IA rientrino nell’ambito di applicazione.
Questa proposta di direttiva mira a ridurre l’onere della prova per gli sviluppatori di “sistemi IA ad alto rischio” definiti nella “Legge sulla Regolamentazione dell’IA”, affrontando il problema della scatola nera dell’IA, introducendo “la presunzione di causalità” e un “sistema di divulgazione delle prove”.
In caso di mancata conformità agli ordini di divulgazione delle prove, la “Proposta di Direttiva sulla Responsabilità dell’IA” impone l’obbligo di presumere la violazione del dovere di diligenza e la causalità, mentre la proposta di revisione della “Direttiva sulla Responsabilità del Prodotto” impone la presunzione di difetto e causalità, applicando sanzioni più severe rispetto al diritto processuale civile giapponese per garantire la conformità.
La proposta di direttiva è limitata, come Prima Fase, alla riduzione dell’onere della prova legata alla scatola nera dell’IA, introducendo nuove disposizioni per l’idoneità a ricorrere in giudizio, la divulgazione delle prove, la conservazione delle prove e la presunzione di causalità, con specifiche per ciascun requisito.
La Seconda Fase prevede la revisione e la valutazione. La Commissione Europea istituirà un programma di monitoraggio per rivedere le informazioni sugli incidenti, valutare l’adeguatezza e la necessità di ulteriori misure come l’imposizione della responsabilità senza colpa (responsabilità rigorosa) agli operatori di sistemi IA ad alto rischio e l’introduzione di assicurazioni obbligatorie, riportando al Consiglio Europeo e al Parlamento Europeo.
La proposta di revisione della Direttiva sulla responsabilità del produttore
La “Direttiva sulla responsabilità del produttore” è una legge dell’UE, adottata nel 1985, volta a proteggere i consumatori, stabilendo la responsabilità dei produttori in caso di danni causati da prodotti difettosi.
Nella proposta di revisione, il campo di applicazione della responsabilità del produttore viene esteso per includere il “software” come “prodotto”, applicando la responsabilità senza colpa agli operatori di sistemi AI in caso di difetti nei sistemi AI stessi. Inoltre, come criteri per determinare la presenza di difetti, vengono aggiunti la capacità di apprendimento continuo dopo l’installazione e gli aggiornamenti software.
Nella legislazione giapponese attuale, la “Legge sulla responsabilità del produttore giapponese”, il software generalmente non è considerato un bene mobile e quindi non rientra nella categoria dei “prodotti” soggetti alla legge. Tuttavia, la proposta di revisione modifica questo approccio, estendendo il concetto di “prodotto”. La proposta introduce anche “misure per alleggerire l’onere della prova”, potenzialmente esercitando un grande impatto sul software, inclusi i sistemi AI e i prodotti di tecnologia avanzata.
Legge sulla Regolamentazione dell’IA
La “Legge sulla Regolamentazione dell’IA (AI Act)” rappresenta un insieme comprensivo di regole unificate dell’UE (legislazione secondaria) dedicato al business dell’IA, costituito da 85 articoli. Si tratta della prima legge internazionale a regolamentare l’IA, adottata il 9 dicembre 2023 (2023) in seguito a un accordo provvisorio tra la Commissione Europea, il Parlamento Europeo e il Consiglio Europeo. Si prevede che entrerà in vigore e sarà completamente applicata nel 2024.
Questa legge è al cuore della strategia digitale dell’UE nota come “A Europe fit for the Digital Age” e mira a rispondere alle nuove sfide e rischi dell’era digitale in evoluzione. Garantisce la sicurezza dell’IA e i diritti fondamentali, ed è parte di un ampio pacchetto sull’IA che mira a rafforzare l’impegno, gli investimenti e l’innovazione nell’IA in tutta l’UE.
La “Legge sulla Regolamentazione dell’IA” dell’UE si applica direttamente agli stati membri dell’UE e ha applicazione extraterritoriale per le imprese che operano all’interno dell’UE, estendendosi anche agli operatori commerciali esteri.
In caso di violazione, sono previste pesanti sanzioni pecuniarie basate sul fatturato globale (fino a 30 milioni di euro o il 6% del fatturato globale, a seconda di quale sia maggiore), con il rischio di non poter più operare nel business dell’IA all’interno dell’UE.
Di conseguenza, le aziende che hanno già introdotto l’IA nei mercati dell’UE, inclusa l’Italia, così come quelle che stanno considerando di entrare nei mercati dell’UE, devono adeguarsi alle nuove regolamentazioni sull’IA dell’UE.
I pilastri fondamentali della “Legge sulla Regolamentazione dell’IA” si basano su tre caratteristiche principali: “classificazione dell’IA basata sul rischio”, “requisiti e obblighi” e “supporto all’innovazione”.
Gli obiettivi regolamentari includono gli operatori commerciali che mirano al mercato europeo con sistemi e servizi di IA, coprendo sviluppatori, distributori, fornitori, importatori, venditori e utenti di IA.
I livelli di rischio dell’IA sono categorizzati in quattro fasi, con regolamenti applicabili in base a tali livelli. Per raggiungere i principi dell’IA, è essenziale anche adottare misure per garantire l’alfabetizzazione in IA tra sviluppatori, utenti e fornitori. Per maggiori dettagli, si prega di consultare l’articolo correlato.
Articolo correlato: Stato attuale e prospettive della Legge sulla Regolamentazione dell’IA nell’UE? Impatti sulle imprese giapponesi spiegati[ja]
Punti da considerare nelle leggi relative all’IA

In questo capitolo, spiegheremo principalmente i punti da considerare sotto l’aspetto legale quando un’azienda intende utilizzare l’IA generativa.
Sui diritti d’autore delle opere create dall’IA
Quando si tratta di opere generate dall’IA generativa, i seguenti punti legali sono da considerare:
- Se l’opera viola i diritti d’autore
- Se le opere generate dall’IA possono essere riconosciute come aventi diritti d’autore
Come menzionato in precedenza, le opere generate da ChatGPT possono violare i diritti d’autore se presentano somiglianze o dipendenze da opere protette. D’altra parte, è possibile riconoscere i diritti d’autore per le opere create dall’IA generativa?
Secondo la legge giapponese sui diritti d’autore, un’opera è definita come “un’espressione creativa di idee o sentimenti”. Poiché l’IA non possiede idee o sentimenti, esiste l’opinione che i contenuti creati dall’IA generativa non possano essere protetti dai diritti d’autore.
Tuttavia, il processo di generazione di contenuti da parte dell’IA può essere considerato una “scatola nera” per l’utente, rendendo estremamente difficile ottenere l’output desiderato dall’IA. Pertanto, se si può riconoscere che l’utente ha apportato un’ingegnosità nella fase di prompt, si potrebbe dire che le “idee o sentimenti” dell’utente sono stati “espressi creativamente” attraverso l’IA generativa, e in tali casi, i diritti d’autore potrebbero essere riconosciuti.
Sul trattamento delle informazioni personali quando si utilizza l’IA
Quando si utilizza l’IA, è necessario prestare attenzione alla possibilità di violare la legge giapponese sulla protezione delle informazioni personali. Saranno necessarie misure, come evitare di inserire informazioni personali o relative alla privacy.
Se le informazioni personali vengono inserite nel prompt, ciò potrebbe costituire una fornitura di informazioni personali a terzi da parte del fornitore di servizi. In linea di principio, è necessario il consenso dell’interessato per fornire informazioni personali a terzi, quindi, in assenza di tale consenso, potrebbe esserci una violazione della legge sulla protezione delle informazioni personali.
Con ChatGPT, anche se si inseriscono accidentalmente informazioni personali, il sistema è progettato per non poterle visualizzare in chat. Questo è conforme alla politica di OpenAI, che non salva né traccia le informazioni personali, ma è importante notare che altri servizi o piattaforme potrebbero comportarsi diversamente.
Misure di gestione del rischio per le aziende coinvolte con l’IA
Le misure di gestione del rischio variano a seconda della strategia aziendale, degli obiettivi di utilizzo dell’IA e delle normative correlate, rendendo cruciale adottare le misure di gestione del rischio appropriate in base alla situazione e agli obiettivi.
Per minimizzare i rischi nell’utilizzo dell’IA generativa, le aziende dovrebbero considerare i seguenti punti:
- Sviluppo delle competenze: L’uso appropriato dell’IA generativa richiede conoscenze e competenze specialistiche. È importante far comprendere ai dipendenti il modo corretto di utilizzo attraverso l’educazione e la formazione.
- Creazione, implementazione e gestione di linee guida interne: Ridurre i rischi attraverso l’elaborazione di linee guida interne sull’uso dell’IA generativa e assicurandone il rispetto da parte dei dipendenti.
- Costituzione di un’organizzazione per la promozione e la gestione dei rischi: È efficace stabilire un’organizzazione che promuova l’uso dell’IA generativa e posizionare all’interno un team incaricato della gestione dei rischi.
- Implementazione del sistema: Per un’adeguata implementazione dell’IA generativa, è necessario selezionare e progettare con cura il sistema.
Inoltre, i rischi associati all’uso dell’IA generativa sono diversificati e includono la fuga di informazioni, la violazione dei diritti e della privacy, preoccupazioni riguardanti l’accuratezza e la sicurezza delle informazioni, e il rischio di bias. Per evitare questi rischi, è essenziale introdurre un adeguato quadro di governance e di gestione dei rischi.
Articoli correlati: “I rischi dell’adozione aziendale di ChatGPT. Analisi di casi di fuga di informazioni riservate e misure di prevenzione”[ja]
Riassunto: È necessario tenersi aggiornati sulle leggi sull’IA, in quanto sono ancora in fase di sviluppo
Le leggi relative agli affari IA, compresa la prima legge internazionale sull’IA dell’UE, la “Legge sulla Regolamentazione dell’IA” (entrata in vigore il 9 dicembre 2023), sono in fase di sviluppo. Pertanto, si richiede alle aziende di aderire alle leggi esistenti mentre si adattano flessibilmente alle nuove normative.
In Giappone, non esistono ancora leggi che regolamentano direttamente l’IA, ma è essenziale comprendere e rispettare le leggi correlate come la Legge Giapponese sul Diritto d’Autore, la Legge Giapponese sulla Protezione dei Dati Personali e la Legge Giapponese sulla Prevenzione della Concorrenza Sleale. Inoltre, è necessario monitorare attentamente le future revisioni di queste leggi e rispondere prontamente.
Presentazione delle misure adottate dal nostro studio
Lo Studio Legale Monolith possiede una vasta esperienza sia nel settore IT, in particolare nell’internet, sia nel campo legale. Il business legato all’AI comporta numerosi rischi legali, rendendo indispensabile il supporto di avvocati esperti nelle questioni legali relative all’AI.
Il nostro studio offre un supporto legale avanzato per il business AI, inclusa la ChatGPT, attraverso un team di avvocati esperti in AI e ingegneri, occupandosi della redazione di contratti, della valutazione della legalità dei modelli di business, della protezione dei diritti di proprietà intellettuale e della gestione della privacy. Troverete maggiori dettagli negli articoli sottostanti.
Settori di competenza dello Studio Legale Monolith: Diritto dell’AI (inclusa ChatGPT e simili)[ja]
Category: IT