ChatGPT e Copyright: implicazioni e rischi

Recentemente si è sentito parlare molto di Chat GPT, acronimo di Chat Generative Pre-trained Transformer, un particolare chatbot sviluppato da OpenAI, società di ricerca impegnata nello sviluppo e nell’evoluzione dell’intelligenza artificiale.

Chat GPT è stata presentata al pubblico come un “friendly Ai o Fai” (un tipo di intelligenza artificiale “amichevole”), vale a dire un’intelligenza capace di contribuire al bene dell’umanità. Nonostante ciò, il suo utilizzo ha destato non poche preoccupazioni e critiche da parte di molti, con delle implicazioni importanti soprattutto sotto il profilo della proprietà intellettuale.

Infatti, grazie alla sua avanzata tecnologia di apprendimento automatico, denominata Deep Learning, Chat GPT è capace di generare il testo in maniera autonoma, imitando il linguaggio umano. In tal modo, esso può essere impiegato non solo per rispondere brevemente alle domande, ma anche per la scrittura automatica di un testo.

Specificatamente, Chat GPT è in grado di creare testi ex novo su richiesta dell’utente, ma anche di elaborare riassunti o documenti partendo da opere già esistenti e quindi di proprietà altrui.

Tuttavia, l’attuale assenza di una specifica regolamentazione circa il suo utilizzo rischia di mettere a repentaglio il copyright dei contenuti “creati” da Chat GPT: da un lato incrementando significativamente i casi di copiatura e plagio e, dall’altro lato, rendendo più complessa per il titolare del diritto d’autore la difesa dei propri diritti.

Per comprendere appieno la problematica poc’anzi esposta, bisogna innanzitutto considerare che, ai sensi della legge sul diritto d’autore, l’idea in quanto tale non può essere protetta, bensì solo la sua forma di espressione (quindi, nel caso di Chat GPT, il testo creato).

Bisogna altresì considerare che una volta riconosciuta la paternità di un testo o opera, ne è vietata qualsiasi riproduzione impropria, compresa la copiatura integrale, la sua parafrasi e a volte anche la sua rielaborazione mediante l’impiego di altre e diverse parole, quando le differenze appaiano minime e di lieve rilevanza. In buona sostanza, il plagio sussiste in caso di riproduzione parziale dell’opera nonché, sulla base di una recente giurisprudenza della Cassazione, anche in caso di “plagio evolutivo”, vale a dire quando l’opera “nuova” non può essere semplicemente considerata ispirata all’originale poiché le differenze, meramente formali, la rendono un’abusiva ed una rielaborazione non autorizzata di quest’ultima.

È utile inoltre precisare che, per costante giurisprudenza, affinché possa ravvisarsi una violazione del diritto di autore, gli elementi ritenuti essenziali di un’opera originale non devono essere ripresi e quindi essere coincidenti con quelli dell’opera frutto di trasposizione.

Pur in assenza di specifica regolamentazione sul punto, è ragionevole sostenere che i suddetti principi trovino applicazione anche con riguardo ai testi generati da Chat GPT, perché il suo o l’utilizzo di qualsiasi altra forma di intelligenza artificiale non può di certo derogare alle norme della legge sul diritto d’autore. Di conseguenza bisogna prestare molta attenzione laddove si richieda a Chat GPT di riassumere o parafrasare un testo altrui, in quanto, se questi sono diffusi senza il permesso dell’autore originario, quest’ultimo potrebbe richiedere il pagamento dei diritti di riproduzione, oltre il risarcimento del danno eventualmente causato. Sotto questo profilo, è lecito domandarsi se non sia il caso che sia lo stesso sistema di intelligenza artificiale a rifiutare una tale richiesta qualora rischi di violare diritti altrui.

Va poi considerata un’altra ipotesi che potrebbe configurarsi e cioè qualora il testo predisposto ex novo da Chat GPT sia meritevole di tutela ai sensi del diritto d’autore. In questo caso, la domanda da porsi è se possano essere riconosciuti diritti d’autore in capo a Chat GPT.

Per rispondere a tale quesito, bisogna innanzitutto considerare che ai sensi della legge italiana i sistemi di intelligenza artificiale sono privi di personalità giuridica, motivo per cui essi non possono essere titolari di alcun diritto, incluso quelli d’autore. Questo sembra essere altresì confermato dalla legge sul diritto d’autore che, nell’elencare i soggetti nei cui confronti essa può essere trovare applicazione, non cita alcun prodotto di intelligenza artificiale, tantomeno Chat GPT. E non potrebbe essere altrimenti atteso che si tratta di una legge del lontano 1941.

Di conseguenza, perché un’opera di Chat GPT sia ritenuta meritevole di protezione ai sensi della legge sul diritto d’autore deve necessariamente ravvisarsi un contributo creativo di una persona fisica che, allo stato, pare tuttavia mancare.

In conclusione, l’assenza di una normativa ad hoc che disciplini l’utilizzo di Chat GPT espone a seri rischi di violazione di opere altrui e mette così a repentaglio i diritti degli autori. Questo anche in quanto non pare che Chat GPT allo stato abbia adottato sistemi di verifica e controllo idonei ad evitare violazione dei diritti altrui.

Visto l’utilizzo sempre più massiccio di questa nuova tecnologia e i dubbi poc’anzi discussi, chi scrive auspica che il legislatore disciplini al più presto tale fenomeno in modo da definirne in maniera chiara il perimetro e gli eventuali diritti (diritti che non sembra possano essere riconosciuti in favore di Chat GPT).

Si confida inoltre che Chat GPT riesca presto ad implementare sistemi efficaci di controllo e segnalazione per la protezione dei diritti di proprietà intellettuale, i quali con ogni probabilità necessiteranno dell’aiuto e dell’assistenza proprio dei titolari dei diritti (al pari di quanto accade per la piattaforma Amazon), ma che potrebbero concretamente salvaguardare le opere creative altrui.


Il “Magic Avatar” e il mondo dell’intelligenza artificiale: luci e ombre di un fenomeno che “rivoluziona” privacy e copyright

Il 7 dicembre 2022 “Lensa” è risultata l’app più popolare per iPhone sull’Apple store. Il motivo? Sebbene “Lensa” sia presente sul mercato dal 2018, lo scorso novembre ha lanciato una nuova funzionalità denominata “Magic Avatar”: sfruttando l’intelligenza artificiale, tale funzionalità consente all’utente – dietro pagamento di un corrispettivo – di trasformare i propri selfie in avatar virtuali.

A primo impatto, non si coglie il problema derivante dalla circostanza che l’avatar in questione mostra il viso (seppur migliorato) del soggetto del selfie; tuttavia, ad una più attenta analisi, sono diverse le questioni giuridiche sottese all’utilizzo di tale funzionalità dell’applicazione “Lensa”.

Difatti, l’applicazione in esame opera grazie all’intelligenza artificiale e sulla base di un insieme di dati (cd. “dataset”) che vengono immagazzinati ed utilizzati per migliorare le prestazioni della suddetta applicazione. Nella stragrande maggioranza dei casi, tali dataset non sono altro che immagini raccolte a caso nel web e sulle quali manca ovviamente un vero controllo a monte sull’esistenza di eventuali diritti. Ed ecco svelata la prima problematica: la circolazione e raccolta di illustrazioni senza il preventivo consenso degli artisti che le hanno in precedenza create, con conseguente violazione dei diritti di copyright. Gli autori non solo restano privi di qualsiasi contribuito o riconoscimento per tali opere – che, invece, ai sensi della cd. Legge sul diritto d’autore (L. 633/1941 e successive modifiche) andrebbe loro garantito – ma si ritrovano a competere con sistemi artificiali che sono in grado di “emulare” il loro stile in pochi minuti.

Il problema – si ripete – non riguarda l’avatar che è generato dall’applicazione “Lensa”, ma il numero massiccio di immagini estrapolate da internet, su cui il sistema si allena e dal quale deve “imparare” per poi riprodurre l’avatar. Le conseguenze di tale fenomeno non devono sottovalutarsi poiché è lecito domandarsi se tali intelligenze artificiali non possano un giorno sostituire in toto l’attività dell’uomo. Tale poco auspicabile scenario non è poi così inverosimile se si considera che, per la prima volta, il trattamento delle opere visive create mediante l’impiego di intelligenza artificiale è attualmente allo studio presso l’US Copyright Office.

Per fronteggiare (parzialmente) tale problematica, è stato creato il sito “Have I Been Trained” che aiuta i content creator ad effettuare ricerche al fine di comprendere se i dataset usati dalle intelligenze artificiali impieghino illecitamente le loro creazioni.

Vi è poi un secondo e più preoccupante aspetto che riguarda il trattamento dei dati personali da parte dell’applicazione “Lensa”. A fronte del pagamento di un corrispettivo irrisorio al fine di generare l’avatar, le persone forniscono all’applicazione dati e informazioni personali che possono essere utilizzati anche per scopi profondamente diversi rispetto al mero generare “immagini filtrate” e che hanno perciò un valore economico rilevante. Questa è una delle accuse principali che sono state rivolte all’app in questione e cioè che, una volta installata, “Lensa” raccoglie più dati rispetto a quelli necessari al suo funzionamento, trasferendoli in server situati negli USA (ove ha sede l’azienda che ha sviluppato l’applicazione). Il che è sufficiente per affermare che il trattamento dei dati non risulta conforme rispetto a quanto previsto dal GDPR.

In realtà, in base all’informativa sulla privacy dell’applicazione “Lensa” si afferma che i dati biometrici degli utenti (definiti all'art. 4, par. 1, n. 14 GDPR come quelli “relativi alle caratteristiche fisiche, fisiologiche o comportamentali di una persona fisica e che ne consentono o confermano l’identificazione univoca, quali l’immagine facciale o i dati dattiloscopici”) verrebbero cancellati dai server una volta che l’app li ha impiegati per generare il Magic Avatar.

Il punto è che, come spesso accade, la privacy policy di “Lensa” è lunga e complessa, cioè impiega un linguaggio giuridico di difficile comprensione per l’utente; ad esempio, si legge che “Lensa” non utilizza i “dati facciali” per motivi diversi dall’applicazione di filtri, salvo che l’utente non presti il consenso per utilizzare le foto e i video per uno scopo diverso. Ciò potrebbe apparire confortante, peccato che, ad una lettura più approfondita dei termini e delle condizioni, emerge che “Lensa” si riserva poteri ben più ampi – di distribuzione, utilizzazione, riproduzione, creazione – sull’opera derivata dai contenuti degli utenti, soggetti al “consenso esplicito” eventualmente aggiuntivo richiesto dalla legge applicabile (cioè, dalle varie leggi nazionali).

Ma da dove si evince tale “consenso esplicito”? La risposta è semplice: condividendo l’avatar pubblicamente o taggando “Lensa” sui social, anche tramite hashtag per esempio, l’utente presta il consenso ad utilizzare quel contenuto e autorizza quindi la società alla riproduzione, distribuzione e modifiche dello stesso. Tale licenza d’uso – che si esaurisce con la cancellazione dell’account – viene giustificata nella privacy policy di “Lensa” sulla base del cd. “legitimate interest” (i.e. “It is our legitimate interest to make analytics of our audience as it helps us understand our business metrics and improve our product”). Tuttavia, tale dichiarazione desta non poche perplessità, specie alla luce della decisione emessa dal Garante della Privacy italiano in relazione al social “Clubhouse”, secondo cui il “legittimo interesse” della società non è la base giuridica corretta per trattare tali dati e dunque non è corretta né per svolgere analisi dei dati, né per il processo di “training” dei sistemi.

In conclusione, se da una parte l’intelligenza artificiale rappresenta senza dubbio un’evoluzione tecnologica epocale, dall’altra il suo utilizzo può comportare una serie di rischi che si traducono nella compressione dei diritti dei singoli utenti; del resto, è da tempo allo studio un Regolamento Europeo sull’intelligenza artificiale volto a definire il perimetro e le condizioni del suo utilizzo.

Sotto questo profilo, si auspica quindi che l’applicazione “Lensa” poc’anzi esaminata si adoperi al più presto per proteggere i diritti dei creatori delle illustrazioni utilizzate dalla stessa app mediante il riconoscimento agli stessi di un compenso, sia affinché i dati degli utenti vengano raccolti e trattati in maniera corretta secondo le normative privacy applicabili.


L’intelligenza artificiale viaggia veloce con il pilota automatico

Guida autonoma, profilazione, social scoring, bias, chatbot e riconoscimento biometrico sono alcuni dei termini entrati nella nostra quotidianità. Essi si riferiscono alle tecnologie di intelligenza artificiale (“IA”), vale a dire le abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività[1]. Oggi più che mai l’IA ha un forte impatto sulle persone e la loro sicurezza. Si pensi solamente al caso che ha coinvolto in Australia il conducente della vettura Tesla “Model 3” che ha investito un’infermiera di 26 anni[2] con il pilota automatico attivo.

In relazione al tragico episodio poc’anzi descritto viene spontaneo domandarsi chi debba rispondere delle gravi condizioni della povera infermiera. Il conducente, nonostante non fosse tecnicamente al volante al momento dell’incidente? Il produttore dell’autovettura che concretamente ha investito l’infermiera? O ancora il produttore / sviluppatore del software che fornisce le istruzioni all’autovettura su come comportarsi quando sul proprio tragitto compare un essere umano?

Per il momento il conducente dell’autovettura – pur essendo stato rilasciato dalle autorità mediante versamento di una cauzione – è stato accusato di aver causato il sinistro stradale. Ciò non toglie che – qualora tale accusa verrà confermata all’esito del processo che è ancora pendente – il conducente avrà poi il diritto di rivalersi per gli eventuali danni sul produttore / sviluppatore di IA.

Il caso poc’anzi descritto merita certamente un approfondimento, specialmente per quanto concerne il panorama europeo in tema di intelligenza artificiale.

È bene da subito evidenziare che, malgrado il progressivo aumento dell’IA nei più disparati ambiti della nostra vita quotidiana[3], ad oggi manca una legge, direttiva o regolamento relativa alla responsabilità civile derivante dall’utilizzo dell’IA.

A livello UE, la Commissione Europea sembra aver per prima affrontato seriamente il tema della responsabilità civile derivante da sistemi di intelligenza artificiale ed averne evidenziato la lacunosità della relativa disciplina, pubblicando, tra le altre cose, una proposta di Regolamento che stabilisce regole armonizzate sull’IA[4].

Da tale proposta di Regolamento si ricavano, anche per analogia, tre diverse definizioni di responsabilità civile: responsabilità da prodotto difettoso, responsabilità del produttore e responsabilità vicaria.

Nel caso in esame rileva la responsabilità da prodotto difettoso, che muove dall’assunto secondo cui la macchina è priva di personalità giuridica[5].

Dunque, com’è ovvio, qualora un sistema di IA cagioni un danno a terzi, la responsabilità dello stesso dovrà essere imputata al produttore della stessa e non invece al dispositivo / sistema che la utilizza.

Tornando al caso in esame, spetterebbe dunque allo sviluppatore del sistema di IA (i.e. l’azienda americana Tesla) risarcire l’infermiera ferita, qualora quest’ultima sia in grado di provare il nesso fra danno / lesioni causate e il difetto del sistema di IA. Dal canto suo, lo sviluppatore del sistema di IA potrebbe escludere il danno solo qualora sia in grado di provare il c.d. “rischio da sviluppo”, vale a dire fornire la prova che il difetto riscontrato era totalmente imprevedibile sulla base delle circostanze e modalità in cui è avvenuto l’incidente.

Taluni hanno osservato sul punto che il produttore sarebbe in realtà in grado di controllare il sistema di IA a distanza e prevedere, grazie agli algoritmi, condotte non programmate al momento della sua commercializzazione[6]. Peraltro, come sappiamo, gli algoritmi presenti nei sistemi di IA installati nelle autovetture sono in grado di raccogliere nel tempo informazioni e quindi auto apprendere e studiare particolari condotte e/o movimenti degli esseri umani, riducendo sempre più il rischio di incidenti.

Sotto questo profilo, il produttore avrebbe quindi un onere ancora più stringente per escludere ogni ipotesi di responsabilità e cioè quello di dimostrare di aver adottato tutte le misure di sicurezza idonee ad evitare il danno.

A tal proposito, il Parlamento europeo ha peraltro elaborato la “Risoluzione recante raccomandazioni alla Commissione su un regime di responsabilità civile per l'intelligenza artificiale” che introduce la categoria delle cd. “IA ad alto rischio”, ossia quei sistemi di intelligenza artificiale operanti in contesti sociali particolari quali, ad esempio, l’educazione, ovvero quelle tecnologie che raccolgono dati particolari (come avviene nel caso del riconoscimento biometrico), la selezione del personale (che rischierebbe di ricadere nel social scoring o in altri atti discriminatori) o, ancora, le tecnologie usate nell’ambito della sicurezza e della giustizia (attraverso le quali potrebbe verificarsi il rischio di bias: pregiudizi della macchina sul soggetto giudicato). È stato osservato che per tali sistemi di “IA ad alto rischio” sussiste in caso di evento dannoso una responsabilità oggettiva del produttore, salvo che quest’ultimo sia in grado di dimostrare la sussistenza di un caso di forza maggiore.

In conclusione, malgrado i primi sforzi profusi da parte prima della Commissione e poi dal Parlamento Europeo in merito alla disciplina dei sistemi di IA, restano numerosi interrogativi ancora da risolvere in merito ai profili di responsabilità ad essi connessi.

Ad esempio, bisognerebbe meglio comprendere come vadano inquadrati e disciplinati i sistemi di IA non ritenuti ad “alto rischio”, quali appunto quelli di guida autonoma di cui si è discusso nel presente articolo. O ancora, quale soglia di responsabilità applicare se in un futuro non lontano un dispositivo di IA potrà essere equiparato, quanto a capacità di ragionamento, ad un essere umano (come di recente rivendicato da un dipendente di Google in riferimento al suo sistema di IA[7]).

Certo è che, come spesso capita per qualsiasi innovazione tecnologica, solo una significativa integrazione e adozione nella nostra società dei sistemi di intelligenza artificiale riuscirà a delineare ipotesi concrete di responsabilità e applicabili in contesti di ordinaria operatività.

Si auspica in ogni caso che il citato Regolamento – la cui data di entrata in vigore non è ancora nota – riuscirà a fornire una disciplina che sia più completa possibile e che riduca soprattutto i rischi e le responsabilità degli utilizzatori dei sistemi di IA ed aumenti, dall’altra parte, gli oneri a carico dei costruttori degli stessi per garantirne la sicurezza.

[1] https://www.europarl.europa.eu/news/it/headlines/society/20200827STO85804/che-cos-e-l-intelligenza-artificiale-e-come-viene-usata
[2] https://www.drive.com.au/news/melbourne-hit-and-run-blamed-on-tesla-autopilot-could-set-legal-precedent-for-new-tech/
[3] Considerando (2), Proposta di Regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull'intelligenza artificiale (legge sull'intelligenza artificiale) e modifica alcuni atti legislativi dell'unione, 2021/0106, del 21 aprile, 2021
[4] Proposta di Regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull'intelligenza artificiale (legge sull'intelligenza artificiale) e modifica alcuni atti legislativi dell'unione, 2021/0106, del 21 aprile, 2021
[5] Barbara Barbarino, Intelligenza artificiale e responsabilità civile. Tocca all’Ue, Formiche.net, 15/05/2022
[6] Ut supra nota 5
[7] https://www.theguardian.com/technology/2022/jun/12/google-engineer-ai-bot-sentient-blake-lemoine