Proseguono gli approfondimenti di Licensync sui temi legati allo sviluppo, alla diffusione e all’impatto dell’Intelligenza Artificiale (IA) sulla tutela del diritto di proprietà intellettuale e d’autore. Dopo aver pubblicato le linee guida del Copyright Office di Washington sul deposito dell’opera realizzata con il contributo dell’Intelligenza Artificiale, oggi Licensync affronta gli sviluppi della normativa nel panorama europeo.
La prima strategia sull’Intelligenza Artificiale della Commissione europea per rendere l’UE un hub di livello mondiale per l’IA e garantire un’IA affidabile, incentrata sull’uomo, risale a dicembre 2018, segue il Libro Bianco della Commissione Europea sull’intelligenza artificiale, il 19 febbraio 2020, ovvero un approccio europeo all’eccellenza e alla fiducia. Il Libro Bianco vuole definire le opzioni strategiche per promuovere l’adozione dell’Intelligenza Artificiale, affrontandone i rischi correlati in un quadro unico europeo.
La proposta di regolamento europeo Artificial Intelligence Act arriva nell’aprile 2021, vuole garantire la diffusione dell’utilizzo dell’IA insieme ad un elevato livello di protezione dei dati, diritti digitali e norme etiche. La normativa mira a istituire un quadro giuridico europeo uniforme per regolare sviluppo, commercializzazione e uso dei sistemi di intelligenza artificiale in conformità con i valori e i diritti costituzionali dell’UE.
L’Europa lavora per una definizione uniforme per l’IA, secondo quanto riportato nel documento, “Con il termine intelligenza artificiale (IA) si indica una famiglia di tecnologie in rapida evoluzione in grado di apportare una vasta gamma di benefici economici e sociali in tutto lo spettro delle attività industriali e sociali.”(art. 2 AI Act) E per “sistema di intelligenza artificiale si intende un sistema progettato per funzionare con elementi di autonomia e che, sulla base di dati e input forniti da macchine e/o dall’uomo, deduce come raggiungere una determinata serie di obiettivi avvalendosi di approcci di apprendimento automatico e/o basati sulla logica e sulla conoscenza, e produce output generati dal sistema quali contenuti (sistemi di IA generativi), previsioni, raccomandazioni o decisioni, che influenzano gli ambienti con cui il sistema di IA interagisce”(art. 6, AI Act).
Obiettivo principale dell’AI Act è assicurare il buon funzionamento del mercato interno armonizzato, in particolare per lo sviluppo, l’immissione sul mercato dell’Unione e l’utilizzo di prodotti e servizi che ricorrono a tecnologie di intelligenza artificiale o forniti come sistemi di IA indipendenti (“stand-alone”).
Obiettivi specifici sono:
- assicurare che i sistemi di IA immessi sul mercato dell’Unione e utilizzati siano sicuri e rispettino la normativa vigente in materia di diritti fondamentali e i valori dell’Unione;
- assicurare la certezza del diritto per facilitare gli investimenti e l’innovazione nell’intelligenza artificiale;
- migliorare la governance e l’applicazione effettiva della normativa esistente in materia di diritti fondamentali e requisiti di sicurezza applicabili ai sistemi di IA;
- facilitare lo sviluppo di un mercato unico per applicazioni di IA lecite, sicure e affidabili nonché prevenire la frammentazione del mercato.
Il regolamento definisce alcuni requisiti obbligatori comuni applicabili alla progettazione e allo sviluppo dei sistemi di IA prima della loro immissione sul mercato, che saranno resi ulteriormente operativi attraverso norme tecniche armonizzate.
La normativa prevede il divieto applicazione di determinate pratiche di intelligenza artificiale. Sono definiti i requisiti specifici per i sistemi di IA ad alto rischio e gli obblighi per gli operatori di tali sistemi. Sono contenute le regole di trasparenza armonizzate per i sistemi di IA destinati a interagire con le persone fisiche, i sistemi di riconoscimento delle emozioni, i sistemi di categorizzazione biometrica e i sistemi di IA utilizzati per generare o manipolare immagini o contenuti audio o video e le regole in materia di monitoraggio e vigilanza del mercato.
Destinatari della normativa sono
- i fornitori di sistemi di IA indipendentemente dal fatto che siano stabiliti nell’Unione o in un paese terzo,
- gli utenti dei sistemi di IA stabiliti nell’Unione
- i fornitori e utenti dei sistemi di IA stabiliti in un paese terzo al di fuori dell’Unione, nella misura in cui i sistemi di IA interessano le persone situate nell’Unione.
La normativa non si applica ai sistemi di IA sviluppati o utilizzati esclusivamente per finalità militari.
Per garantire uno sviluppo etico dell’Intelligenza Artificiale (AI) in Europa che abbia al centro l’uomo, i deputati del Parlamento Europeo a maggio 2023 hanno approvato nuove regole di trasparenza e gestione del rischio per i sistemi di IA.
L’11 maggio 2023 la Commissione per il Mercato Interno e la Commissione per le Libertà Civili del Parlamento UE hanno adottato una proposta di regole armonizzate per l’intelligenza artificiale con 84 voti a favore, 7 contrari e 12 astensioni. Gli emendamenti proposti dal Parlamento alla proposta di regolamento della Commissione mirano a garantire che i sistemi di IA siano supervisionati dalle persone, sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente.
L’AI Act regola l’IA attraverso il risk-based approach che distingue più o meno elevati obblighi di conformità a seconda del rischio (basso, medio o elevato) che software e applicazioni intelligenti possono causare a danno dei diritti fondamentali. Più alto è il rischio e maggiori sono gli oneri di compliance e le responsabilità degli autori delle applicazioni intelligenti. Si esclude poi che l’intelligenza artificiale possa essere impiegata per alcune finalità individuate dalla stessa normativa considerate contrarie ai valori dell’UE (ad es. il social scoring). Tale sistema di compliance sarà facilitato dall’adozione di appositi standard di riferimento (per categorie di sistemi di IA) da parte degli enti di normazione quali ISO e CEN.
Il team del professor Luciano Floridi, dell’Università di Oxford, ha sviluppato CapAI, procedura di valutazione della conformità per i sistemi di IA, per fornire una valutazione indipendente, comparabile, quantificabile e responsabile dei sistemi di IA conforme alla proposta di regolamento AI Act. Basandosi sull’AI Act, capAI fornisce alle organizzazioni una guida pratica su come i principi etici di alto livello possono essere tradotti in criteri verificabili che aiutano a plasmare la progettazione, lo sviluppo, l’implementazione e l’uso dell’IA etica. Lo scopo principale di capAI è quello di fungere da strumento di governance che garantisca e dimostri che lo sviluppo e il funzionamento di un sistema di intelligenza artificiale sono affidabili, ovvero legalmente conformi, eticamente validi e tecnicamente solidi, e quindi conformi all’AI Act.
Secondo la normativa proposta, i sistemi di IA ad alto rischio che completino le procedure di valutazione della conformità saranno marcati CE. Alcuni sistemi dovranno inoltre essere inseriti in un apposito registro pubblico. Senza l’adempimento di tali procedure, i sistemi di IA non potranno essere immessi sul mercato.
In caso di violazioni, le autorità preposte potranno comminare sanzioni fino a 30mln di euro o al 6% del fatturato mondiale annuo (per le PMI, comprese le start-up, tali sanzioni arrivano al 3 % del loro fatturato mondiale).
Per quanto attiene il diritto di proprietà intellettuale e il diritto d’autore il Parlamento europeo con Risoluzione del 20 ottobre 2020 sui diritti di proprietà intellettuale per lo sviluppo di tecnologie di intelligenza artificiale ai punti 13-14-15 dei principi generali:
- 13. Osserva che l’autonomizzazione del processo creativo di generazione di contenuti di carattere artistico può sollevare interrogativi riguardo alla titolarità dei DPI relativi a tali contenuti; ritiene, a tale proposito, che non sarebbe opportuno dotare di personalità giuridica le tecnologie di IA e ricorda le ripercussioni negative di una siffatta possibilità sugli incentivi per i creatori umani;
- 14. sottolinea la differenza tra le creazioni umane ottenute con l’assistenza dell’IA e quelle generate autonomamente dall’IA, indicando che sono queste ultime a porre nuove sfide normative in termini di protezione dei DPI, quali ad esempio le questioni della titolarità e della paternità dell’inventore e della remunerazione adeguata, nonché questioni relative alla potenziale concentrazione del mercato; ritiene altresì che i DPI per lo sviluppo delle tecnologie di IA dovrebbero essere distinti dai DPI potenzialmente riconosciuti alle creazioni generate dall’IA; evidenzia che, nei casi in cui l’IA è impiegata solo come strumento per assistere un autore nel processo creativo, il quadro vigente in materia di diritti d’autore rimane applicabile;
- 15. ritiene che le creazioni tecniche generate dalla tecnologia di IA debbano essere tutelate nell’ambito del quadro giuridico dei DPI al fine di incoraggiare gli investimenti in questa forma di creazione e migliorare la certezza del diritto per i cittadini, le imprese e gli inventori, essendo questi ultimi – per il momento – tra i principali utilizzatori delle tecnologie di IA; ritiene che le opere prodotte autonomamente da agenti artificiali e robot potrebbero non essere ammissibili alla protezione del diritto d’autore, al fine di rispettare il principio di originalità, che è legato a una persona fisica, e dal momento che il concetto di “creazione intellettuale” riguarda la personalità dell’autore; invita la Commissione a sostenere un approccio orizzontale, basato su dati concreti e tecnologicamente neutro in merito alle disposizioni comuni e uniformi in materia di diritti d’autore applicabili alle opere generate dall’IA nell’Unione, se si ritiene che tali opere potrebbero essere ritenute ammissibili alla protezione del diritto d’autore; raccomanda che la titolarità di eventuali diritti sia assegnata soltanto alle persone fisiche o giuridiche che hanno creato l’opera in modo lecito e soltanto se il titolare dei diritti d’autore ha concesso l’autorizzazione in caso di utilizzo di materiale protetto dal diritto d’autore, a meno che non si applichino deroghe o limitazioni in materia di diritto d’autore; sottolinea l’importanza di agevolare l’accesso ai dati e la condivisione dei dati, nonché standard aperti e la tecnologia open source, incoraggiando nel contempo gli investimenti e stimolando l’innovazione.
Costruire un’intelligenza artificiale affidabile crea un ambiente sicuro e favorevole all’innovazione per utenti, creatori/autori, sviluppatori e sviluppatori.
Stay tuned!