MONOLITH LAW OFFICE+81-3-6262-3248Feriali 10:00-18:00 JST [English Only]

MONOLITH LAW MAGAZINE

IT

Quali sono i rischi nell'adozione di ChatGPT nelle aziende? Spiegazione di casi di perdita di informazioni riservate e relative contromisure

IT

Quali sono i rischi nell'adozione di ChatGPT nelle aziende? Spiegazione di casi di perdita di informazioni riservate e relative contromisure

L’introduzione di ChatGPT all’interno delle aziende sta avanzando progressivamente. Sebbene la sua utilità stia attirando l’attenzione, ci sono alcuni aspetti ai quali bisogna prestare attenzione. Uno di questi è che non si dovrebbero mai inserire informazioni confidenziali in ChatGPT. Infatti, ci sono stati casi all’estero in cui l’inserimento di informazioni riservate ha portato a gravi perdite di segreti aziendali.

In questo articolo, un avvocato spiegherà, concentrandosi sul rischio di perdita di informazioni confidenziali, gli scenari e le misure preventive da adottare nell’utilizzo di ChatGPT in ambito business, che si evolve giorno dopo giorno.

Perché non bisogna inserire informazioni riservate in ChatGPT

Sebbene ChatGPT sia uno strumento conveniente, essendo un chatbot AI generato attraverso l’apprendimento di big data e dati di utilizzo presenti in rete, se non si adottano misure adeguate, esiste il rischio che le informazioni riservate inserite possano essere divulgate.

Approfondiremo le misure di rischio per la fuga di informazioni riservate in seguito, ma prima spiegheremo i rischi legati alla divulgazione di informazioni riservate che non sono direttamente collegati a ChatGPT.

I rischi per le aziende nell’utilizzo di ChatGPT oltre alla perdita di informazioni riservate

ChatGPT è attualmente in fase di valutazione per l’implementazione in molte aziende. Pertanto, è necessario valutare attentamente i rischi prima di decidere se utilizzarlo per attività commerciali.

Oltre al rischio di perdita di informazioni riservate (inclusi i dati personali), l’utilizzo di ChatGPT può esporre le aziende a due principali rischi di sicurezza:

  • Rischio di affidabilità delle informazioni generate
  • Rischio di violazione dei diritti d’autore delle informazioni in input e output

Di seguito, forniremo una spiegazione dettagliata di ciascuno di questi rischi.

Affidabilità delle informazioni generate

Il GPT-4, rilasciato il 14 marzo 2023, è dotato di una funzione di ricerca che gli permette di fornire informazioni aggiornate. Tuttavia, quando ChatGPT fornisce risposte, le presenta come se fossero veritiere, ma la loro affidabilità non è garantita. Le risposte generate da ChatGPT non sono basate sull’accuratezza delle informazioni contenute nei dati di apprendimento, ma sono piuttosto costruite su ciò che viene considerato il testo più probabile. Pertanto, è essenziale effettuare un controllo dei fatti prima di utilizzare i risultati generati. Se un’azienda diffonde informazioni false, ciò potrebbe danneggiare la sua reputazione.

Rischi legali come la violazione dei diritti d’autore

Rischi legali come la violazione dei diritti d'autore

La valutazione della violazione dei diritti d’autore in ChatGPT si differenzia tra la “fase di sviluppo e apprendimento dell’AI” e la “fase di generazione e utilizzo”. Poiché le attività di utilizzo delle opere protette da copyright variano in ciascuna fase, anche le disposizioni della legge sul diritto d’autore sono diverse. Pertanto, è necessario considerare separatamente queste due fasi.

Riferimento: Agenzia per gli Affari Culturali | Seminario sul diritto d’autore dell’anno Reiwa 5 (2023) “AI e diritto d’autore”[ja]

La legge sul diritto d’autore modificata, entrata in vigore nel gennaio 2019, ha introdotto una nuova disposizione nella sezione 30-4, che riguarda le limitazioni dei diritti per la “fase di sviluppo e apprendimento dell’AI”. Le attività che non hanno lo scopo di godere delle idee o dei sentimenti espressi in un’opera, come l’analisi delle informazioni per lo sviluppo dell’AI, possono essere svolte senza il permesso dell’autore, secondo il principio.

D’altra parte, se il materiale generato da ChatGPT presenta somiglianze o dipendenze (modifiche) rispetto a un’opera protetta da copyright, ciò può costituire una violazione dei diritti d’autore. Pertanto, prima di pubblicare, è importante verificare i diritti dei proprietari delle informazioni a cui ChatGPT ha fatto riferimento e controllare che non ci siano contenuti simili a quelli creati da ChatGPT. Inoltre, quando si cita un’opera, è necessario indicare chiaramente la fonte (limitazioni dei diritti) o, se si riproduce un’opera, ottenere il permesso dell’autore per l’uso, trattando la questione in modo appropriato.

In caso di reclami per violazione dei diritti d’autore da parte dei titolari, si può incorrere in responsabilità civili (risarcimento danni, compensazione morale, divieto di utilizzo, ripristino della reputazione, ecc.) o penali (reati perseguibili su denuncia).

Casi di inserimento di informazioni riservate in ChatGPT

Il 30 marzo 2023 (Reiwa 5), i media coreani “EConomist” hanno riportato che, dopo aver autorizzato l’uso di ChatGPT nella divisione semiconduttori di Samsung Electronics, si sono verificati tre casi di inserimento di informazioni riservate.

Nonostante Samsung Electronics avesse sollecitato la consapevolezza sulla sicurezza delle informazioni all’interno dell’azienda, ci sono stati dipendenti che hanno inviato codice sorgente per richiedere modifiche al programma (due casi) o che hanno trasmesso i contenuti di una riunione per la creazione di verbali.

In seguito a questi incidenti, l’azienda ha adottato misure d’emergenza limitando la capacità di upload per ogni domanda posta a ChatGPT. Ha inoltre affermato che, in caso di ulteriori incidenti simili, potrebbe considerare di interrompere la connessione.

Walmart e Amazon hanno anche avvertito i loro dipendenti di non condividere informazioni riservate tramite chatbot. Un avvocato di Amazon ha rivelato che sono già stati osservati casi in cui le risposte di ChatGPT somigliano ai dati interni di Amazon, suggerendo la possibilità che tali dati siano stati utilizzati per l’apprendimento del sistema.

Misure per prevenire la perdita di informazioni confidenziali durante l’uso di ChatGPT

OpenAI, nei suoi termini di servizio e altre comunicazioni, ha spiegato che i dati inseriti possono essere utilizzati per migliorare il sistema e per l’apprendimento, pertanto raccomanda di non inviare informazioni sensibili.

In questo capitolo, presenteremo quattro misure, sia hardware che software, per prevenire la perdita di informazioni confidenziali durante l’uso di ChatGPT.

Sviluppo di Linee Guida per l’Uso Interno

Sviluppo di Linee Guida per l'Uso Interno

Con l’introduzione aziendale di ChatGPT, è fondamentale non solo migliorare la letteratura sulla sicurezza delle informazioni personali e promuovere il reskilling interno, ma è anche consigliabile sviluppare linee guida specifiche per l’uso di ChatGPT all’interno della propria azienda.

Il 1° maggio 2023, l’Associazione Giapponese per l’Apprendimento Profondo (JDLA) ha raccolto i punti di discussione etici, legali e sociali (ELSI) relativi a ChatGPT e ha pubblicato le “Linee Guida per l’Uso di AI Generative”. Anche nei vari settori accademici, governativi e industriali si sta iniziando a considerare lo sviluppo di linee guida.

Prendendo spunto da queste, formulando linee guida chiare per l’uso di ChatGPT nella propria azienda, si può aspettare di mitigare certi rischi.

Riferimento: Associazione Giapponese per l’Apprendimento Profondo (JDLA)|Linee Guida per l’Uso di AI Generative[ja]

Adottare tecnologie per prevenire la fuga di informazioni riservate

Per prevenire gli errori umani che possono causare la fuga di informazioni riservate, è possibile implementare un sistema chiamato DLP (Data Loss Prevention), che previene la divulgazione di dati specifici e impedisce l’invio e la copia di informazioni riservate.

Il DLP è una funzione che monitora costantemente i dati inseriti, identifica e protegge automaticamente le informazioni riservate e i dati importanti. Utilizzando il DLP, se vengono rilevate informazioni confidenziali, è possibile ricevere notifiche di allerta o bloccare le operazioni. Questo permette di prevenire in modo sicuro le fughe di informazioni dall’interno dell’azienda, mantenendo bassi i costi di gestione. Tuttavia, è necessaria una comprensione avanzata dei sistemi di sicurezza e l’implementazione potrebbe essere difficile per le aziende senza un reparto tecnico dedicato.

Valutazione dell’introduzione di strumenti dedicati

Da marzo 2023, ChatGPT ha implementato l’utilizzo delle API (acronimo di “Application Programming Interface”, un’interfaccia che collega software, programmi e servizi web) che permettono di prevenire la divulgazione dei dati inviati a ChatGPT.

I dati trasmessi tramite API non vengono utilizzati per l’apprendimento o il miglioramento, ma sono soggetti a “monitoraggio per prevenire usi impropri o abusi” e vengono conservati per 30 giorni prima di essere eliminati, secondo i nuovi termini di conservazione. Tuttavia, in caso di “richieste legali”, il periodo di conservazione dei dati potrebbe essere esteso.

Anche impostando ChatGPT per non utilizzare i dati per l’apprendimento o il miglioramento, essi vengono comunque conservati per un certo periodo sui server, il che teoricamente comporta un rischio di fuga di informazioni. Pertanto, è necessario prestare la massima attenzione quando si inseriscono informazioni confidenziali o dati personali.

OpenAI, tuttavia, pone grande enfasi sulla privacy degli utenti e sulla sicurezza dei dati, adottando misure di sicurezza rigorose. Per un utilizzo ancora più sicuro, si raccomanda l’introduzione di “Azure OpenAI Service”, uno strumento che consente di implementare misure di sicurezza avanzate.

Gli strumenti specializzati per le aziende come “Azure OpenAI Service” non raccolgono i dati inseriti tramite API su ChatGPT. Inoltre, se si effettua una richiesta di opt-out e questa viene approvata, è possibile rifiutare il mantenimento e il monitoraggio dei dati inseriti per 30 giorni, evitando così il rischio di perdite di informazioni.

Come impostare ChatGPT per non apprendere le informazioni confidenziali inserite

Come precedentemente menzionato, ChatGPT è progettato per apprendere tutto il contenuto opt-in, pertanto, a partire dal 25 aprile 2023, è stata introdotta la funzionalità che permette di impostare preventivamente l’opt-out.

Come misura preventiva diretta, per rifiutare l’utilizzo dei dati inseriti in ChatGPT a scopo di apprendimento o miglioramento, è necessario effettuare una richiesta di ‘opt-out’. ChatGPT dispone di un modulo Google per l’opt-out, quindi è consigliabile procedere con questa operazione. (Inserire e inviare l’indirizzo email, l’ID dell’organizzazione e il nome dell’organizzazione)

Tuttavia, anche in questo caso, i dati inseriti saranno monitorati da OpenAI per un periodo di tempo determinato (in linea di principio 30 giorni) e saranno conservati sui server.

Termini di utilizzo di ChatGPT

3. Contenuti

(c) Utilizzo dei contenuti per migliorare il servizio

Non utilizziamo i Contenuti che fornite o ricevete dalla nostra API (“Contenuti API”) per sviluppare o migliorare i nostri Servizi.

Possiamo utilizzare i Contenuti provenienti da Servizi diversi dalla nostra API (“Contenuti Non-API”) per aiutare a sviluppare e migliorare i nostri Servizi.

Se non desiderate che i vostri Contenuti Non-API siano utilizzati per migliorare i Servizi, potete scegliere l’opt-out compilando questo modulo. Si prega di notare che in alcuni casi ciò potrebbe limitare la capacità dei nostri Servizi di affrontare meglio il vostro caso d’uso specifico.

Fonte: Sito ufficiale di OpenAI | Termini di utilizzo di ChatGPT https://openai.com/policies/terms-of-use

Riassunto: L’uso aziendale di ChatGPT richiede misure essenziali per la gestione delle informazioni confidenziali

In conclusione, abbiamo esaminato i rischi di divulgazione delle informazioni confidenziali e le relative misure di protezione nell’uso aziendale di ChatGPT, basandoci su casi concreti.

Per l’impiego in azienda di AI in rapida evoluzione come ChatGPT, è indispensabile adottare misure specialistiche che vanno dalla creazione di linee guida interne, alla valutazione della legalità dei modelli di business, alla redazione di contratti e termini di servizio, alla protezione dei diritti di proprietà intellettuale e alla gestione della privacy.

Articolo correlato: Che cos’è la legge su Web3? Spiegazione anche dei punti chiave per le imprese che entrano in questo campo[ja]

Guida alle misure adottate dal nostro studio legale

Lo studio legale Monolith è specializzato in IT, con particolare esperienza nel settore di Internet e del diritto. Il business legato all’intelligenza artificiale comporta numerosi rischi legali, rendendo indispensabile il supporto di avvocati esperti nelle questioni legali relative all’AI.

Il nostro studio offre un supporto legale avanzato per il business legato all’AI, incluso ChatGPT, attraverso un team di avvocati esperti in AI e ingegneri. Forniamo servizi quali la redazione di contratti, la valutazione della legalità dei modelli di business, la protezione dei diritti di proprietà intellettuale e la gestione della privacy. Troverete maggiori dettagli nell’articolo sottostante.

Aree di competenza dello studio legale Monolith: Diritto dell’AI (incluso ChatGPT e simili)[ja]

Managing Attorney: Toki Kawase

The Editor in Chief: Managing Attorney: Toki Kawase

An expert in IT-related legal affairs in Japan who established MONOLITH LAW OFFICE and serves as its managing attorney. Formerly an IT engineer, he has been involved in the management of IT companies. Served as legal counsel to more than 100 companies, ranging from top-tier organizations to seed-stage Startups.

Category: IT

Tag:

Ritorna su