Quali sono i rischi nell'utilizzo di ChatGPT per scopi aziendali? Spiegazione anche dei problemi legali

Da quando è stato rilasciato, ChatGPT ha attirato grande attenzione in tutto il mondo per la sua utilità. Tuttavia, è diventato noto che l’uso di ChatGPT comporta vari rischi. La legislazione è ancora in fase di sviluppo, e molti dirigenti si sentono insicuri riguardo ai rischi associati all’utilizzo di ChatGPT nel business e ai metodi per mitigare tali rischi.
In questo articolo, spiegheremo i rischi legali legati all’uso di ChatGPT in ambito aziendale e le strategie per affrontarli.
I 4 rischi nell’utilizzo di ChatGPT in ambito aziendale
Anche nelle imprese, l’utilizzo di ChatGPT, un’intelligenza artificiale per la generazione di linguaggio naturale, sta avanzando. Nel 2022 (Reiwa 4), il tasso di adozione aziendale di ChatGPT è stato del 13,5%, che sale al 24,0% includendo le aziende che prevedono di adottarlo. (Fonte: Ministero degli Affari Interni e delle Comunicazioni del Giappone | Libro Bianco sull’Informazione e le Comunicazioni dell’anno Reiwa 5 (2023), Indagine sull’uso delle comunicazioni “Stato dell’adozione di sistemi e servizi come IoT e AI nelle aziende” Immagine[ja])
Senza dubbio, la tecnologia AI, inclusa ChatGPT, è efficace per migliorare l’efficienza operativa delle aziende e si prevede che porterà a molte più opportunità di business. Tuttavia, comporta anche numerosi rischi legali. Pertanto, è necessario comprendere appieno questi rischi prima di decidere se utilizzare ChatGPT in ambito aziendale.
Ad esempio, gli esperti stanno suonando l’allarme sui rischi potenziali dell’AI, come problemi di diritto d’autore, diffusione di informazioni errate, perdite di informazioni riservate, questioni di privacy e abuso nell’ambito di attacchi informatici.
In questo capitolo, spiegheremo i quattro rischi associati all’utilizzo di ChatGPT in ambito aziendale.
Il rischio di perdita di dati attraverso la funzione di apprendimento
Sebbene ChatGPT sia conveniente, essendo un chatbot AI generato attraverso l’apprendimento di vari dati presenti online, se non si adottano misure preventive, esiste il rischio che le informazioni inserite possano essere utilizzate nell’apprendimento e quindi fuoriuscire.
Secondo la politica di utilizzo dei dati di OpenAI, a meno che non si passi attraverso l’API di ChatGPT o si faccia richiesta di “opt-out”, i dati inseriti dagli utenti in ChatGPT saranno raccolti e utilizzati (appresi) da OpenAI.
È essenziale prestare attenzione a non inserire informazioni personali o dati confidenziali di alta sensibilità senza aver adottato misure di sicurezza. Anche se si inseriscono accidentalmente informazioni personali in ChatGPT, verrà visualizzato un messaggio di avviso e ChatGPT è progettato per non salvare né tracciare informazioni personali e non può divulgarle nelle chat.
D’altra parte, in passato ci sono stati incidenti in cui le informazioni personali degli utenti sono state esposte a causa di bug nel sistema di OpenAI, l’azienda che gestisce ChatGPT.
Articolo correlato: Qual è il rischio di perdita di informazioni di ChatGPT? Introduzione a 4 misure preventive da adottare[ja]
Il rischio di mancanza di affidabilità delle informazioni

Dal maggio 2023, grazie all’implementazione della funzione di navigazione web di ChatGPT, il sistema ha acquisito la capacità di raccogliere le informazioni più recenti e di fornire risposte basate su tali risultati.
Tuttavia, quando ChatGPT fornisce risposte, le presenta come se fossero veritiere, ma la loro affidabilità non è garantita. Le risposte generate da ChatGPT non sono basate sull’accuratezza delle informazioni contenute nei dati di apprendimento, ma sono piuttosto costruzioni di frasi ritenute probabilisticamente più plausibili. Di conseguenza, è indispensabile effettuare un fact-checking delle risposte di ChatGPT. Se si diffondessero informazioni false basandosi sulle risposte di ChatGPT, ciò potrebbe danneggiare la credibilità stessa dell’azienda.
Il 3 aprile 2023, l’Università di Tokyo ha espresso preoccupazione per le implicazioni future di questa tecnologia nella società e ha rilasciato la seguente dichiarazione:
“Il principio di ChatGPT si basa sull’apprendimento automatico e il potenziamento dell’apprendimento di una grande quantità di testi e contenuti esistenti per creare frasi che sembrano probabilisticamente plausibili. Pertanto, il contenuto scritto potrebbe includere menzogne. È come parlare con una persona che finge di sapere, molto eloquente. (Tuttavia, con l’ultima versione GPT-4, l’accuratezza è notevolmente migliorata e rappresenta un interlocutore piuttosto competente.) Per utilizzare efficacemente ChatGPT, è necessaria una conoscenza specialistica, una verifica critica delle risposte e le relative correzioni quando necessario. Inoltre, non può analizzare o descrivere nuove conoscenze che non sono presenti nelle informazioni esistenti. In altre parole, l’emergere di ChatGPT non significa che gli esseri umani possano trascurare lo studio o la ricerca. Tuttavia, se una persona colta e con conoscenze specialistiche analizza criticamente i contenuti delle risposte e li utilizza abilmente, è possibile migliorare notevolmente l’efficienza delle attività routinarie.”
Fonte: Università di Tokyo | “Riguardo all’Intelligenza Artificiale generativa (ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion, ecc.)[ja]“
Rischi legali quali violazioni del diritto d’autore e della privacy
La valutazione delle violazioni del diritto d’autore su ChatGPT si distingue tra la “fase di sviluppo e apprendimento dell’AI” e la “fase di generazione e utilizzo”. Poiché le azioni di utilizzo delle opere protette da copyright variano in ciascuna fase, anche gli articoli della legge sul diritto d’autore differiscono. Pertanto, è necessario considerare separatamente queste due fasi.
Nel gennaio 2019 è stata introdotta una revisione della legge sul diritto d’autore, che ha aggiunto una nuova sezione, l’articolo 30-4, relativa alle “limitazioni dei diritti” (eccezioni che non richiedono autorizzazione) per la “fase di sviluppo e apprendimento dell’AI”. Le azioni di utilizzo di opere protette da copyright che non hanno lo scopo di godere delle idee o dei sentimenti espressi, come l’analisi delle informazioni per lo sviluppo dell’AI, possono essere effettuate senza il permesso dell’autore, come regola generale.
D’altra parte, se i prodotti generati da ChatGPT presentano somiglianze o dipendenze (modifiche) da opere protette da copyright, ciò può costituire una violazione del diritto d’autore. Pertanto, prima di pubblicare, è importante verificare i diritti dei proprietari delle informazioni a cui ChatGPT ha fatto riferimento e controllare che non ci siano contenuti simili a quelli creati da ChatGPT. Inoltre, quando si cita un’opera protetta da copyright, è necessario indicare la fonte (limitazioni dei diritti), e se si riproduce un’opera, è necessario ottenere il permesso dell’autore per un trattamento appropriato.
Secondo i termini di servizio di OpenAI, i contenuti creati da ChatGPT possono essere utilizzati a scopo commerciale, ma se è difficile determinare se il contenuto creato utilizzando ChatGPT viola il diritto d’autore, si consiglia di consultare un esperto.
In caso di reclami di violazione del diritto d’autore da parte degli autori, si può incorrere in responsabilità civili (risarcimento danni, compensazione morale, divieto di utilizzo, ripristino della reputazione, ecc.) o penali (reati perseguibili su denuncia). Nel caso delle aziende, possono essere applicate sanzioni sia a persone fisiche che giuridiche a causa delle disposizioni penali, il che può portare a danni significativi.
Per quanto riguarda le informazioni personali e la privacy, è necessario prestare attenzione a non inserirle in ChatGPT. Come menzionato sopra, anche se si inseriscono accidentalmente informazioni personali in ChatGPT, il sistema è progettato per non salvare né tracciare tali informazioni e non è in grado di produrle nelle chat. Tuttavia, questa è la politica di OpenAI e potrebbe differire su altre piattaforme o servizi.
Per i rischi associati alla perdita di informazioni personali, si prega di leggere l’articolo seguente.
Articolo correlato: Il rischio di perdita di informazioni personali aziendali e il risarcimento dei danni[ja]
Il rischio di creare involontariamente contenuti dannosi

A seconda del contenuto dei dati appresi da ChatGPT e del contenuto dei prompt, esiste la possibilità di creare involontariamente contenuti dannosi. Se i contenuti generati da ChatGPT vengono pubblicati senza una verifica, ciò può danneggiare la reputazione e il valore del marchio dell’azienda e può anche portare a problemi legali.
Sebbene sia impostato per non permettere l’input e l’output di contenuti dannosi su ChatGPT, codici di programmi nocivi o servizi fraudolenti possono essere difficili da identificare e quindi potrebbero essere generati. Tenendo presente tale rischio, è fondamentale avere un sistema che controlli costantemente i contenuti prodotti.
Comprendere i Termini di Servizio per Evitare Rischi nell’Uso di ChatGPT
Quando si utilizza ChatGPT per scopi commerciali, è essenziale utilizzarlo in conformità con i Termini di Servizio e la Privacy Policy di OpenAI per prevenire rischi. Poiché i Termini di Servizio vengono frequentemente aggiornati, è necessario verificare le modifiche e comprendere l’ultima versione dei termini quando si utilizza ChatGPT in ambito business.
Articoli correlati: Spiegazione dei Termini di Servizio di OpenAI e punti di attenzione per l’uso commerciale[ja]
Cosa è necessario per evitare i rischi nell’utilizzo aziendale di ChatGPT

Per evitare i rischi associati a ChatGPT e utilizzarlo correttamente in ambito business, le aziende devono adottare il seguente sistema di governance.
Creare regole interne
Il 1° maggio 2023 (Reiwa 5), l’Associazione Giapponese per l’Apprendimento Profondo (JDLA) ha raccolto i punti su questioni etiche, legali e sociali (ELSI) legate a ChatGPT e ha pubblicato le “Linee guida per l’utilizzo dell’AI generativa”. Anche nei vari settori accademici e governativi, si sta procedendo con l’elaborazione di linee guida.
Per l’introduzione di ChatGPT in azienda, è essenziale migliorare la letteracy sulla sicurezza delle informazioni personali e fornire formazione interna, ma è consigliabile anche sviluppare linee guida specifiche per l’utilizzo di ChatGPT nella propria azienda. Stabilendo e diffondendo linee guida chiare sull’utilizzo di ChatGPT, si può aspettare di evitare alcuni rischi.
Riferimento: Associazione Giapponese per l’Apprendimento Profondo (JDLA) | “Linee guida per l’utilizzo dell’AI generativa[ja]“
Designare un supervisore per l’utilizzo di ChatGPT
È efficace anche nominare un supervisore interno per l’utilizzo di ChatGPT, che monitori costantemente l’attuazione delle linee guida e gestisca i rischi.
Monitorare il comportamento di ChatGPT, correggere i risultati generati e gestire i dati è un’attività di audit che si avvicina a quella di un audit dei sistemi. L’audit dei sistemi valuta in modo oggettivo l’efficienza, la sicurezza e l’affidabilità dei sistemi informativi, con l’obiettivo di ottimizzare le operazioni e supportare la trasformazione organizzativa. Designando un supervisore per l’audit, è possibile anche rafforzare la trasparenza e la responsabilità operativa.
Riassunto: Misure di prevenzione dei rischi sono essenziali per l’utilizzo aziendale di ChatGPT
In questo articolo, abbiamo esaminato in dettaglio i rischi associati all’utilizzo aziendale di ChatGPT e le relative misure di prevenzione.
L’impiego di intelligenze artificiali in rapida evoluzione come ChatGPT nel contesto aziendale richiede l’adozione di una serie di misure precauzionali, che vanno dalla creazione di linee guida per l’uso interno, alla valutazione della legalità del modello di business, alla redazione di contratti e termini di servizio, alla protezione dei diritti di proprietà intellettuale e alla gestione della privacy. Tutto ciò richiede l’intervento di esperti specializzati in rischi legali e tecnologie AI.
Guida alle misure adottate dal nostro studio legale
Lo studio legale Monolith vanta una vasta esperienza nel settore IT, in particolare in relazione a Internet e al diritto. Il business legato all’intelligenza artificiale (AI) comporta numerosi rischi legali, rendendo indispensabile il supporto di avvocati esperti nelle questioni legali relative all’AI.
Il nostro studio offre un supporto legale diversificato per il business dell’AI, incluso ChatGPT, attraverso un team di avvocati esperti in AI e ingegneri. Troverete maggiori dettagli nell’articolo sottostante.
Aree di competenza dello studio legale Monolith: Diritto dell’AI (incluso ChatGPT)[ja]
Category: IT
Tag: ITTerms of Use