Regolamentazione e rischi collegati all’utilizzo dei sistemi di intelligenza artificiale

Come noto, il 21 aprile 2021 la Commissione Europea finalizzava una proposta di regolamento (di seguito per comodità “Regolamento”) al fine di introdurre un sistema di norme armonizzate per lo sviluppo, immissione e utilizzo di sistemi di intelligenza artificiale “IA” all'interno dell'Unione Europea. In quell’occasione, veniva previsto un “periodo di grazia”, vale a dire un periodo di due anni in cui tutti gli operatori del settore avrebbero avuto il tempo di conformarsi al Regolamento, nonché di adottare decisioni in base alle regole in esso contenute.

Visto il proliferarsi di sistemi di intelligenza artificiale, è lecito domandarsi se durante il citato periodo di grazia gli stessi si siano effettivamente conformati alle norme del Regolamento.

Per rispondere a tale quesito, è necessario anzitutto elencare di seguito i sistemi di intelligenza artificiale specificamente vietati dal Regolamento:

  • quelli che utilizzano tecniche subliminali capaci di distorcere il comportamento di un soggetto;
  • quelli che sfruttano la vulnerabilità di un gruppo specifico di persone;
  • quelli che permettono alle autorità pubbliche di creare una classificazione delle persone basata su un punteggio sociale;
  • quelli che utilizzano sistemi di identificazione biometrica in tempo reale, salvo nei casi previsti dalla legge.

In aggiunta a quanto sopra, la Commissione Europea ha altresì individuato tre tipologie di rischio in relazione al tipo di sistema di intelligenza artificiale in uso che vengono riportate di seguito:

  • “rischio inaccettabile” qualora il sistema di IA sia da considerarsi una minaccia per la sicurezza, i mezzi di sostegno e i diritti individuali; un tale sistema è da ritenersi proibito in base al Regolamento;
  • "alto rischio” qualora i sistemi di IA siano utilizzati in settori che coinvolgono diritti fondamentali dell’uomo; un tale sistema può essere utilizzato e implementato solo adottando una serie precauzioni di cui si parlerà di seguito;
  • “rischio limitato” qualora i sistemi di IA comportino rischi considerati minori, come ad esempio nel campo dei videogiochi, dove vengono imposti unicamente obblighi di trasparenza.

Sulla base di queste dovute premesse, proviamo ad analizzare una fattispecie concreta di intelligenza artificiale – vale a dire la guida autonoma della nota casa automobilistica “Tesla” in relazione alla quale lo Studio ha già pubblicato un articolo - per comprendere se essa sia o meno conforme al Regolamento e, soprattutto, che tipo di rischio potrebbe derivare dal suo utilizzo.

È ragionevole considerare come elevato il rischio che tale sistema di IA potrebbe comportare per il pubblico e ne sono prova gli oltre 700 incidenti provocati dalla stessa al di fuori dell’Unione Europea, con danni sia a persone che a veicoli di terzi.

È altrettanto ragionevole affermare che un sistema di guida autonoma come quello in questione necessiterebbe di una doppia regolamentazione, vale a dire sia le norme del citato Regolamento in relazione all’uso / implementazione del sistema di intelligenza artificiale, sia nuove e precipue regole del codice della strada necessitate dalla circolazione di veicoli senza conducente che comunicano tra di loro attraverso segnali e suoni non comprensibili per l’essere umano (risulta che tale ultima regolamentazione sia già a buon punto in Francia, Germania e Stati Uniti).

Ora, pare ragionevole inquadrare tale sistema di IA c.d. “self-driving car” all’interno della seconda tipologia di rischio, ossia quello ritenuto “alto”; sulla base del Regolamento, questo livello di rischio richiede al produttore di tale sistema di intelligenza artificiale (“Tesla”) di svolgere una preliminare valutazione di conformità del sistema nonché di fornire una dettagliata analisi dei relativi rischi, il tutto mediante una serie di test che dovranno dimostrare la totale assenza di errori di tali sistemi. In aggiunta, l’art. 10 del Regolamento prevede un ulteriore obbligo a carico dell’azienda utilizzatrice del sistema di IA riguardante la corretta conservazione e governance dei dati degli utenti trattati dai sistemi in questione.

Il Regolamento in esame prevede dunque una serie di requisiti e obblighi piuttosto rigidi che, ad opinione di chi scrive, saranno difficilmente soddisfatti da parte dei sistemi di intelligenza artificiale oggi in circolazione e, difatti, non sono mancate le critiche da parte di coloro che auspicano l’introduzione di criteri meno stringenti in modo da facilitare un maggior utilizzo di tali sistemi.

Un altro esempio concreto di intelligenza artificiale, di cui abbiamo già parlato nell’articolo dello scorso mese, è ChatGPT che in Italia è stata bloccata dal Garante della Privacy per inosservanza delle norme europee sui dati personali.

Proprio ChatGPT dimostra come sia alquanto complesso inquadrare e classificare i diversi dispositivi di intelligenza artificiale pur applicando i criteri e principi definiti dal Regolamento. Difatti, ad una prima e superficiale analisi, ChatGPT potrebbe rientrare nei sistemi di IA con un rischio minore (terzo livello) in quanto non sembra coinvolgere diritti fondamentali.

C’è tuttavia da domandarsi se questo sia valido anche qualora si chiedesse all’applicazione ChatGPT di rintracciare e divulgare i dati di una persona ovvero di predisporre un saggio ovvero ancora di rielaborare un’opera protetta dal diritto d’autore.

La risposta a tale quesito non potrà che essere negativa, atteso che tale utilizzo dell’applicazione in esame rischierebbe di violare non solo i diritti fondamentali relativi alla protezione dei dati personali di ciascun individuo ma anche quelli appartenenti agli autori delle opere protette dal diritto d’autore. Tutto questo ci impone di classificare ChatGPT nella categoria dei sistemi IA ad “alto rischio”, con tutte le conseguenze che ne derivano.

Sotto questo profilo, bisogna inoltre evidenziare che il Regolamento prevede severi controlli in relazione ai sistemi di IA ad “alto rischio”, nonché l’applicazione di sanzioni amministrative che possono arrivare fino a 30 milioni di euro ovvero al 6% di fatturato dell’azienda interessata. Non è tuttavia chiaro, o comunque non è stato ancora individuato, quale sarà l’organo deputato a svolgere i controlli circa il rispetto delle norme del Regolamento.

In conclusione e sulla base delle considerazioni svolte sopra, chi scrive ritiene opportuno che in fase di approvazione definitiva del Regolamento vengano meglio definiti i principi e criteri per la classificazione dei vari sistemi di intelligenza artificiale in quanto attualmente troppo generici e spesso insufficienti a classificare correttamente i sistemi di IA più complessi (tra i quali “ChatGPT”).

È inoltre auspicabile che venga creata ed istituita un’autorità indipendente ed imparziale per ciascuno stato membro capace di svolgere la funzione di controllo e verifica di corretta applicazione delle norme del Regolamento al fine di una migliore tutela dei diritti fondamentali dei singoli individui.


Internet of Things e Intelligenza Artificiale: la fine o l’inizio dei brevetti essenziali?

La pandemia COVID-19 ha imposto a tutti una quarantena forzata e quindi di riorganizzare la vita personale e lavorativa direttamente dalla propria dimora.

Tutto ciò non ha fatto altro che dimostrare e aumentare la nostra preoccupante dipendenza da strumenti informatici e nuove tecnologie, il cui utilizzo nel 2020 è aumentato in maniera esponenziale in ogni settore, anche in quelli dove si faticava ad immaginarne l’utilizzo (si pensi ad esempio alle udienze giudiziali svolte in teleconferenza ovvero la didattica a distanza, ecc.).

In maniera analoga stiamo inoltre assistendo ad una sempre maggiore integrazione digitale di oggetti, dispositivi, sensori e beni di uso quotidiano che oramai fanno parte integrante della nostra vita quotidiana.

Svolta questa dovuta premessa, c’è a questo punto da domandarsi quale impatto avrà l’attuale rivoluzione tecnologica nel settore della proprietà intellettuale e, segnatamente, nell’ambito dei brevetti.

A nostro avviso gli attuali cambiamenti porteranno certamente giovamento al settore delle invenzioni; infatti, per quanto qui d’interesse, grazie al ruolo decisivo dell’intelligenza artificiale e internet of things, è lecito attendersi un considerevole incremento di depositi di brevetti cd. essenziali.

Come noto, i brevetti essenziali – vale a dire “Standard Essential Patent” (SEP) – sono brevetti che proteggono tecnologie appunto essenziali per l’implementazione di standard riconosciuti da organismi di normazione.

Tali brevetti sono già presenti nella nostra vita più di quanto noi immaginiamo, ed infatti li usiamo per chiamare o inviare messaggi con il nostro smartphone, per inviare file tramite e-mail, per ascoltare i brani della nostra playlist o semplicemente mentre guardiamo le serie TV preferite, seduti sul divano di casa.

Gli standard più noti ad oggi sono forse “Bluetooth”, “WiFi” e “5G”, ma come detto il compimento di una delle azioni di cui sopra coinvolge decine di standard a loro volta già protetti dai citati brevetti.

La Commissione Europea in una recente comunicazione dello scorso novembre rivolta al Parlamento Europeo ha evidenziato il ruolo cruciale dei brevetti essenziali nello sviluppo della tecnologia 5G e dell’Internet of Things, rilevando, ad esempio, che solo per gli standard di connettività mobile sono state dichiarate all'ETSI (l'Istituto Europeo delle norme di telecomunicazione) più di 25.000 famiglie di brevetti.

Nella medesima comunicazione la Commissione rilevava tuttavia le difficoltà che alcune imprese continuano ad incontrare nel trovare con i titolari dei brevetti essenziali un accordo sulla concessione di licenze e il conseguente crescente numero di controversie tra titolare e utilizzatore.

Come noto, infatti, un brevetto viene definito essenziale a seguito di una sorta di autodichiarazione del titolare che dichiara che il suo brevetto è appunto necessario ed essenziale per l’applicazione di uno standard e quindi, mediante tale dichiarazione, si rende disponibile a concederlo in licenza a chi intende utilizzare lo standard in questione a condizioni cd. “FRAND” (“Fair, Reasonable And Non-Discriminatory”), vale a dire a condizioni di licenza eque, ragionevoli e non discriminatorie.

Nella pratica accade quindi che il titolare di un brevetto essenziale, una volta accertata la presenza sul mercato di un prodotto che utilizza un certo standard, si rivolge al suo produttore o distributore per chiedere di sottoscrivere un contratto di licenza a condizioni “FRAND”.

Il soggetto utilizzatore a quel punto non ha altra scelta se non quella di accettare la licenza alle condizioni proposte dal titolare del brevetto; infatti, a differenza dei brevetti non essenziali dove evidentemente l’utilizzatore può ricercare soluzioni alternative che non violino il brevetto in questione, per i brevetti essenziali ciò non è possibile in quanto si tratta di standard utilizzati per conformarsi a norme tecniche su cui si basano milioni di prodotti e che consentono quindi l’interoperabilità degli stessi.

Inoltre, investire nello sviluppo di uno standard alternativo è assai oneroso (si pensi ad esempio allo sviluppo di un’alternativa allo standard “Bluetooth”), ma – anche assumendo lo sviluppo di uno standard alternativo - bisognerebbe poi convincere i consumatori a “passare” al nuovo standard, sostituendo i vecchi dispositivi con i nuovi.

Il rischio che una tale situazione possa provocare distorsioni del mercato e soprattutto abusi da parte dei titolari dei brevetti essenziali è quindi molto alto; i titolari dei brevetti essenziali possono infatti decidere le sorti di un prodotto di un determinato mercato in quanto vincolano tutti gli operatori dello stesso ad utilizzarlo a fronte del pagamento di una royalty.

Proprio al fine di contemperare gli interessi in gioco, la nota sentenza della Corte di Giustizia nel caso “Huawei v. ZTE” (C-170/13 del 16.07.2015) era intervenuta già nel 2015 per prevedere in capo al titolare dei brevetti essenziali una serie di obblighi, vale a dire, tra gli altri, a) l’obbligo di garantire sempre condizioni cd. FRAND in favore del potenziale licenziatario; b) l’obbligo del titolare del brevetto SEP di avvisare preventivamente l’utilizzatore dello standard protetto indicando il brevetto che sarebbe stato violato e specificando in quale modo sarebbe stato contraffatto e, in caso l’utilizzatore si rifiuti di collaborare, adire le autorità giudiziali.

In presenza di tali condizioni, ad opinione dei Giudici della Corte, non sussisterebbe da parte del titolare del brevetto essenziale alcun abuso di posizione dominante sul mercato sanzionabile ai sensi dell’art. 101 TFUE.

La realtà è però ben diversa in quanto i titolari dei brevetti essenziali continuano ad avere un eccessivo potere negoziale nei confronti dell’utilizzatore dello standard protetto. Infatti, come detto, l’essenzialità o meno di un brevetto dipende da un’autodichiarazione resa dallo stesso titolare del brevetto che peraltro fonda “de facto” una presunzione di essenzialità del brevetto; tale circostanza agevola ulteriormente i titolari nei giudizi in quanto l’onere della prova viene posto a carico del presunto contraffattore che dovrà dimostrare la non interferenza o la non essenzialità.

Aggiungasi che ad oggi non esistono norme a protezione della parte debole, vale a dire l’utilizzatore del brevetto essenziale, ed infatti non vi sono ad esempio parametri di riferimento che definiscano con chiarezza le condizioni eque, ragionevoli e non discriminatorie. In altri termini, l’utilizzatore non è quindi in grado di verificare se le condizioni proposte dal titolare siano effettivamente “FRAND” e quindi ha due opzioni: accettare tali condizioni o ribellarsi e intraprendere un contenzioso nei confronti del titolare.

Malgrado la questione dei brevetti essenziali sia stata oggetto di diverse pronunce negli anni e di specifici richiami da parte della Commissione Europea, diverse questioni restano ancora aperte e necessitano di un immediato intervento da parte del legislatore sia per rafforzare la certezza giuridica sia per ridurre il crescente numero di controversie in materia.

Ad avviso di chi scrive appare ad esempio necessario creare ed istituire un organo indipendente in grado di verificare a priori il carattere essenziale di un brevetto prima che esso venga protetto, nonché prevedere norme specifiche, efficaci ed eque che regolino la concessione di licenze per brevetti essenziali.

Peraltro, in ragione della rivoluzione tecnologica in atto e del conseguente crescente utilizzo di tali brevetti, è auspicabile che tali riforme siano portate a compimento in tempi rapidi.