Le problematiche di diritto d’autore che pone l’AI generativa
Come noto, negli ultimi anni l'uso dell'intelligenza artificiale (AI) nella creazione di contenuti ha segnato una svolta epocale, tanto è vero che essa è in grado adesso di generare e realizzare opere di diverso genere, tra cui composizioni musicali, testi letterari, opere d'arte visiva e progetti di design.
Ad esempio, grazie all’uso dell’intelligenza artificiale nel settore musicale, partendo da basi musicali generate da algoritmi e rifinite da musicisti, è stato possibile comporre brani di vari generi, dalla musica classica al pop moderno. Tali piattaforme di AI possono essere utilizzate gratuitamente da chiunque voglia generare nuove composizioni musicali; è sufficiente, infatti, scaricare l’apposito programma da un qualsiasi motore di ricerca e descrivere brevemente il contenuto che si vuole ascoltare perché venga riprodotto il testo musicale desiderato.
Non solo. L’AI risulta particolarmente utilizzata anche nel campo dell’arte visiva ed infatti ha consentito di ricreare opere d’arte esposte e vendute in aste come pezzi unici, tra cui vale la pena di menzionare alcune collezioni realizzate con l’ausilio dell’AI esposte nel noto museo MoMA (Museum of Modern Art) di New York.
Ed anche nel campo della letteratura, l’intelligenza artificiale viene utilizzata per creare poesie, racconti ed interi romanzi semplicemente chiedendo alla “macchina” di analizzare e studiare raccolte letterarie esistenti.
Tali sistemi di intelligenza artificiale sono meglio conosciuti come “Intelligenza artificiale Generativa”, in quanto i contenuti vengono creati e generati utilizzando algoritmi complessi e modelli di apprendimento automatico. Si tratta di sistemi progettati per apprendere da grandi quantità di dati già esistenti grazie ai quali sono in grado poi di generare nuovi contenuti.
Inutile dire che tale straordinaria abilità dell’AI stupisce ma preoccupa non poco in quanto mette in discussione la concezione tradizionale di autore e pone una serie di interrogativi sulla titolarità dei diritti su tali creazioni e opere.
Una delle principali difficoltà legate a questo processo di creazione di contenuti, è infatti stabilire se l'opera generata dall’AI generativa possa essere considerata “originale” secondo la tradizionale nozione di diritto d'autore e se il processo di creazione dell'IA rappresenti una “rielaborazione / trasformazione”, legittima o meno, dell'opera originale.
Dal momento che l’algoritmo utilizza materiale di terzi, protetto dal diritto d’autore, si potrebbe argomentare che l’AI generativa sia in grado di generare un’opera derivata che, come noto, è una nuova creazione che incorpora o modifica un'opera preesistente già protetta dalla legge. In questo contesto, se un algoritmo di AI generativa viene addestrato, ad esempio, con brani musicali protetti dal diritto d’autore, è lecito domandarsi se il risultato ottenuto violi i diritti d'autore delle opere originali, nella misura in cui ne costituisce una rielaborazione non autorizzata.
Qualora sempre per ipotesi si intendesse classificare l’opera realizzata dall’AI generativa quale opera autonoma e originale, bisognerebbe a quel punto domandarsi a quale soggetto spetterebbero i relativi diritti di proprietà intellettuale su tale creazione.
Le attuali norme sul diritto d’autore non sono tuttavia in grado di fornire alcuna indicazione in merito a tali quesiti, considerato che sono state pensate in un periodo in cui era difficilmente ipotizzabile che un qualsivoglia contenuto potesse essere creato da un soggetto diverso da un essere umano.
Di conseguenza, individuare nel sistema di intelligenza artificiale l’autore dell’opera, e dunque il detentore dei relativi diritti d’autore, solleverebbe una serie di questioni giuridiche complesse, tra cui certamente quella relativa alla capacità giuridica che, come noto, è la capacità di un soggetto di essere titolare di situazioni giuridiche soggettive e quindi di diritti e doveri. Tale requisito viene inevitabilmente a mancare quando si discute di sistemi di intelligenza artificiale.
Per le ragioni sopra esposte, ci si è quindi domandato se la paternità dell’opera dovesse essere riconosciuta allo sviluppatore del sistema di intelligenza artificiale generativa.
Tale affermazione pone tuttavia un’ulteriore problematica e cioè non necessariamente la creatività e l’originalità dell’opera è da attribuirsi all’intervento dello sviluppatore, piuttosto che al sistema stesso di intelligenza artificiale, o comunque risulta particolarmente difficile individuare l’apporto creativo di uno o dell’altro.
Lo stesso vale anche per il proprietario dei dati utilizzati nella fase di training / apprendimento del sistema artificiale; difatti, anche volendo identificare tale soggetto come titolare dei diritti d’autore, il dataset da lui messo a disposizione, in assenza di un modello di apprendimento, non sarebbe comunque in grado di generare l’opera e quindi nuovamente si rischierebbe di attribuire e riconoscere dei diritti che non spettano in via esclusiva ad un essere umano.
La giurisprudenza ha tentato di fornire una risposta in merito a tali numerosi interrogativi. Ed infatti, una prima decisione dell’Ufficio Copyright, negli Stati Uniti d’America, ha negato qualsiasi riconoscimento legato al diritto d’autore alle opere create interamente da un sistema di AI generativa affermando con chiarezza che, affinché un'opera possa essere protetta da copyright, deve esserci un autore umano coinvolto nella sua creazione.
Questo orientamento è stato poi confermato anche da sentenze più recenti delle Corti statunitensi e, segnatamente, nel 2023 da un tribunale federale di Washington D.C.
Anche in Europa, si è arrivati ad un’analoga conclusione ed infatti la Corte di cassazione si è recentemente espressa in merito con sentenza n. 16346 del 2023 in relazione alla definizione dell’autorialità per opere create tramite sistemi di AI e il grado di integrazione della creatività dell'artista nell’uso del software. Ad opinione dei Giudici della Corte, è necessario valutare caso per caso se, durante il processo generativo dell’opera, il software in utilizzo si sia integrato con la creatività dell’utente umano.
Di fondamentale importanza diventa quindi la distinzione tra semplice generazione automatica di contenuti da parte dei sistemi di AI generativa e l’opera che è espressione della creatività dell’artista attraverso mezzi digitali di intelligenza artificiale. Solo in questo secondo caso, dimostrando quindi che vi è stato un significativo apporto creativo umano, possono essere individuate forme di tutela proteggibili ai sensi della legge sul diritto d’autore.
In tale contesto, è indubbia la necessità di un intervento del legislatore che ridefinisca i concetti chiave e predisponga nuove regolamentazioni del diritto d’autore per il fenomeno AI, destinato a crescere in maniera esponenziale.
Una soluzione che merita attenzione potrebbe essere la predisposizione di nuove forme di licenze e diritti d’autore che meglio si adeguino alla realtà odierna e che rappresentino un punto di incontro tra innovazioni tecnologiche e la protezione del diritto d’autore. Ad esempio, si potrebbe pensare di introdurre specifiche licenze per le opere generate da AI o elaborare forme di tutela in cui venga riconosciuta chiaramente la collaborazione tra ingegno umano e ausilio dell’AI.
È auspicabile, infine, una maggiore cooperazione a livello europeo e internazionale, considerando la dimensione globale dell’innovazione tecnologica e della distribuzione delle opere creative. Difatti, le tecnologie digitali, come internet e le piattaforme di distribuzione dei contenuti, sono per loro natura globali, e quindi richiedono una risposta coordinata da parte delle autorità di vari Paesi.
Sarà perciò fondamentale collaborare per stabilire standard e normative che funzionino a livello mondiale, assicurando al contempo il rispetto dei diritti d’autore delle varie giurisdizioni.
L’intelligenza artificiale viaggia veloce con il pilota automatico
Guida autonoma, profilazione, social scoring, bias, chatbot e riconoscimento biometrico sono alcuni dei termini entrati nella nostra quotidianità. Essi si riferiscono alle tecnologie di intelligenza artificiale (“IA”), vale a dire le abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività[1]. Oggi più che mai l’IA ha un forte impatto sulle persone e la loro sicurezza. Si pensi solamente al caso che ha coinvolto in Australia il conducente della vettura Tesla “Model 3” che ha investito un’infermiera di 26 anni[2] con il pilota automatico attivo.
In relazione al tragico episodio poc’anzi descritto viene spontaneo domandarsi chi debba rispondere delle gravi condizioni della povera infermiera. Il conducente, nonostante non fosse tecnicamente al volante al momento dell’incidente? Il produttore dell’autovettura che concretamente ha investito l’infermiera? O ancora il produttore / sviluppatore del software che fornisce le istruzioni all’autovettura su come comportarsi quando sul proprio tragitto compare un essere umano?
Per il momento il conducente dell’autovettura – pur essendo stato rilasciato dalle autorità mediante versamento di una cauzione – è stato accusato di aver causato il sinistro stradale. Ciò non toglie che – qualora tale accusa verrà confermata all’esito del processo che è ancora pendente – il conducente avrà poi il diritto di rivalersi per gli eventuali danni sul produttore / sviluppatore di IA.
Il caso poc’anzi descritto merita certamente un approfondimento, specialmente per quanto concerne il panorama europeo in tema di intelligenza artificiale.
È bene da subito evidenziare che, malgrado il progressivo aumento dell’IA nei più disparati ambiti della nostra vita quotidiana[3], ad oggi manca una legge, direttiva o regolamento relativa alla responsabilità civile derivante dall’utilizzo dell’IA.
A livello UE, la Commissione Europea sembra aver per prima affrontato seriamente il tema della responsabilità civile derivante da sistemi di intelligenza artificiale ed averne evidenziato la lacunosità della relativa disciplina, pubblicando, tra le altre cose, una proposta di Regolamento che stabilisce regole armonizzate sull’IA[4].
Da tale proposta di Regolamento si ricavano, anche per analogia, tre diverse definizioni di responsabilità civile: responsabilità da prodotto difettoso, responsabilità del produttore e responsabilità vicaria.
Nel caso in esame rileva la responsabilità da prodotto difettoso, che muove dall’assunto secondo cui la macchina è priva di personalità giuridica[5].
Dunque, com’è ovvio, qualora un sistema di IA cagioni un danno a terzi, la responsabilità dello stesso dovrà essere imputata al produttore della stessa e non invece al dispositivo / sistema che la utilizza.
Tornando al caso in esame, spetterebbe dunque allo sviluppatore del sistema di IA (i.e. l’azienda americana Tesla) risarcire l’infermiera ferita, qualora quest’ultima sia in grado di provare il nesso fra danno / lesioni causate e il difetto del sistema di IA. Dal canto suo, lo sviluppatore del sistema di IA potrebbe escludere il danno solo qualora sia in grado di provare il c.d. “rischio da sviluppo”, vale a dire fornire la prova che il difetto riscontrato era totalmente imprevedibile sulla base delle circostanze e modalità in cui è avvenuto l’incidente.
Taluni hanno osservato sul punto che il produttore sarebbe in realtà in grado di controllare il sistema di IA a distanza e prevedere, grazie agli algoritmi, condotte non programmate al momento della sua commercializzazione[6]. Peraltro, come sappiamo, gli algoritmi presenti nei sistemi di IA installati nelle autovetture sono in grado di raccogliere nel tempo informazioni e quindi auto apprendere e studiare particolari condotte e/o movimenti degli esseri umani, riducendo sempre più il rischio di incidenti.
Sotto questo profilo, il produttore avrebbe quindi un onere ancora più stringente per escludere ogni ipotesi di responsabilità e cioè quello di dimostrare di aver adottato tutte le misure di sicurezza idonee ad evitare il danno.
A tal proposito, il Parlamento europeo ha peraltro elaborato la “Risoluzione recante raccomandazioni alla Commissione su un regime di responsabilità civile per l'intelligenza artificiale” che introduce la categoria delle cd. “IA ad alto rischio”, ossia quei sistemi di intelligenza artificiale operanti in contesti sociali particolari quali, ad esempio, l’educazione, ovvero quelle tecnologie che raccolgono dati particolari (come avviene nel caso del riconoscimento biometrico), la selezione del personale (che rischierebbe di ricadere nel social scoring o in altri atti discriminatori) o, ancora, le tecnologie usate nell’ambito della sicurezza e della giustizia (attraverso le quali potrebbe verificarsi il rischio di bias: pregiudizi della macchina sul soggetto giudicato). È stato osservato che per tali sistemi di “IA ad alto rischio” sussiste in caso di evento dannoso una responsabilità oggettiva del produttore, salvo che quest’ultimo sia in grado di dimostrare la sussistenza di un caso di forza maggiore.
In conclusione, malgrado i primi sforzi profusi da parte prima della Commissione e poi dal Parlamento Europeo in merito alla disciplina dei sistemi di IA, restano numerosi interrogativi ancora da risolvere in merito ai profili di responsabilità ad essi connessi.
Ad esempio, bisognerebbe meglio comprendere come vadano inquadrati e disciplinati i sistemi di IA non ritenuti ad “alto rischio”, quali appunto quelli di guida autonoma di cui si è discusso nel presente articolo. O ancora, quale soglia di responsabilità applicare se in un futuro non lontano un dispositivo di IA potrà essere equiparato, quanto a capacità di ragionamento, ad un essere umano (come di recente rivendicato da un dipendente di Google in riferimento al suo sistema di IA[7]).
Certo è che, come spesso capita per qualsiasi innovazione tecnologica, solo una significativa integrazione e adozione nella nostra società dei sistemi di intelligenza artificiale riuscirà a delineare ipotesi concrete di responsabilità e applicabili in contesti di ordinaria operatività.
Si auspica in ogni caso che il citato Regolamento – la cui data di entrata in vigore non è ancora nota – riuscirà a fornire una disciplina che sia più completa possibile e che riduca soprattutto i rischi e le responsabilità degli utilizzatori dei sistemi di IA ed aumenti, dall’altra parte, gli oneri a carico dei costruttori degli stessi per garantirne la sicurezza.
[1] https://www.europarl.europa.eu/news/it/headlines/society/20200827STO85804/che-cos-e-l-intelligenza-artificiale-e-come-viene-usata
[2] https://www.drive.com.au/news/melbourne-hit-and-run-blamed-on-tesla-autopilot-could-set-legal-precedent-for-new-tech/
[3] Considerando (2), Proposta di Regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull'intelligenza artificiale (legge sull'intelligenza artificiale) e modifica alcuni atti legislativi dell'unione, 2021/0106, del 21 aprile, 2021
[4] Proposta di Regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull'intelligenza artificiale (legge sull'intelligenza artificiale) e modifica alcuni atti legislativi dell'unione, 2021/0106, del 21 aprile, 2021
[5] Barbara Barbarino, Intelligenza artificiale e responsabilità civile. Tocca all’Ue, Formiche.net, 15/05/2022
[6] Ut supra nota 5
[7] https://www.theguardian.com/technology/2022/jun/12/google-engineer-ai-bot-sentient-blake-lemoine