4.8 C
Milano
lunedì, 13 Gennaio 2025
  • Intesa San Paolo SpazioXnoi

Europa

di Brando Benifei – Eurodeputato PD

L’intelligenza artificiale è già da tempo parte della nostra quotidianità e ha ormai letteralmente invaso il dibattito pubblico: si discute, infatti, dei suoi vantaggi potenziali e dei suoi preoccupanti rischi in relazione a innumerevoli campi, dalla dimensione economico-finanziaria agli ambiti medico-sanitari, dalla qualità della democrazia alle questioni etiche e filosofiche. Se assai spesso è stato formulato un paragone con l’arrivo di internet, la pervasività dei cambiamenti in atto è così radicale che sarebbe più appropriato riflettere con un raffronto su quello che in passato è stato l’impatto dell’elettricità.

Con l’AI Act, il regolamento europeo sull’Intelligenza artificiale, abbiamo realizzato il primo tentativo al mondo di definire una cornice giuridica al fenomeno nel suo complesso, cercando soprattutto di individuare un corretto equilibrio tra un’adeguata protezione dei diritti e delle libertà fondamentali dei cittadini e la promozione dell’innovazione e della competitività delle imprese europee che sviluppano o utilizzano sistemi di intelligenza artificiale.

Per comprendere l’importanza e l’urgenza di questo lavoro di regolazione basta pensare a cosa è accaduto dall’altra parte dell’Oceano alle ultime elezioni negli Stati Uniti d’America: secondo i dati di Clarity, una società di machine learning, il numero di deepfake sarebbe aumentato del 900% in un solo anno; nel periodo precedente al 5 novembre, data del voto, ci sono poi state circa 250.000 richieste respinte di generazione di immagini relative ai due principali candidati alla Presidenza e la celebre OpenAI ha dichiarato di aver interrotto oltre venti operazioni, che hanno tentato di utilizzare i loro modelli.

Grazie all’esito positivo delle lunghe trattative sul regolamento, in Europa abbiamo allontanato lo spettro di scenari distopici dovuti all’uso improprio dei software di intelligenza artificiale, avendo elaborato un impianto, che prevede alcuni principi e regole generali e poi si basa sul livello di rischio con una conseguente graduazione degli obblighi. Due esempi concreti sono la limitazione del riconoscimento biometrico in tempo reale, che potrà avvenire soltanto in ipotesi ben definite, come il perseguimento di determinati reati con l’autorizzazione della magistratura, oppure il divieto di riconoscere le emozioni sul posto di lavoro o di studio. Più in generale, un aspetto centrale del nostro impegno è stato il rifiuto di una società della sorveglianza, del tutto estranea ai valori europei, e non a caso abbiamo impedito la possibilità di pescare a strascico volti umani dalle telecamere a circuito chiuso o dalla rete per alimentare qualche database…

Una sfida enorme è, ad esempio, il ricorso all’intelligenza artificiale nell’opera di contrasto di criminalità e terrorismo. Se, infatti, da una parte, le organizzazioni criminali e i gruppi terroristici a ogni latitudine investono sull’innovazione e cercano di appropriarsi degli strumenti migliori per realizzare i loro disegni, dall’altra, per fortuna le istituzioni sono consapevoli di non poter restare indietro nella valorizzazione delle tecnologie più avanzate per contrastare queste operazioni. Ricorre però sempre la necessità di mantenere un equilibrio tra i diversi valori da tutelare e, quindi, modalità di ricorso ai software di AI più pericolosi devono essere appunto consentite, quando ricorrono precise eccezioni. È il caso della “minaccia terroristica” della quale il regolamento dà una definizione restrittiva, specificando che debba essere considerabile ‘specifica e attuale’, come indicato dalla giurisprudenza della Corte di Giustizia dell’Unione Europea. L’atto terroristico deve pertanto, essere già avvenuto oppure, in una casistica molto ristretta, deve esserci la certezza e l’imminenza dell’attacco: in questo modo si stabilisce che non possano esservi usi impropri in chiave preventiva, cioè, ad esempio, per andare a cercare dei presunti o potenziali terroristi.

Penso poi a un altro campo delicatissimo di applicazione: quello nei luoghi di lavoro e alla difficoltà, anche da un punto di vista concreto, di stabilire delle norme efficaci in materie dove le competenze sono suddivise e rischiano di disperdersi tra i vari livelli di governo. Per cultura politica ritengo che dovrebbero essere stabiliti obblighi più stringenti di coinvolgimento delle parti sociali per la contrattazione e per le scelte che riguardano elementi di sicurezza e formazione obbligatoria, ma voglio evidenziare anche che, oltre al citato divieto dell’uso di sistemi di riconoscimento emotivo, già nel regolamento abbiamo classificato ad alto rischio l’AI nei luoghi di lavoro e nel corso dell’iter parlamentare siamo riusciti a inserire la previsione per cui tutti i lavoratori debbano essere a conoscenza del fatto che un sistema di intelligenza artificiale sia in uso nel proprio luogo di lavoro, con il coinvolgimento delle parti sociali.

Una terza questione che voglio evidenziare è quella relativa alle imprese del settore tech: in estrema sintesi, la critica che ci viene fatta è quella per cui la regolazione mortificherebbe l’innovazione. Al contrario, abbiamo creato delle sandbox apposite per ridurre i costi in entrata per i nuovi attori sul mercato e per consentire loro di non dover rispettare nella fase di avvio tutte le regole, ma soltanto quando saranno completamente pronti. In questo caso la sfida è contenere i costi per le nuove imprese e start-up e portare avanti una politica di sostegno economico: oltre alle norme, sarebbero preziosi degli incentivi per la conformità anticipata prima che diventino pienamente obbligatorie.

Negli ultimi anni gli sviluppi dell’IA sono stati più che dirompenti ed è, dunque, corretto che le grandi aziende abbiano delle responsabilità specifiche e, più in generale, gli sviluppatori di modelli abbiano maggiori obblighi in termini di trasparenza, documentazione tecnica, valutazione dei rischi sistemici e miglioramento dell’efficienza energetica. La rapidità dello sviluppo di queste nuove tecnologie deve, infine, imporre ai decisori pubblici uno sforzo di attenzione e di monitoraggio costante, che personalmente, dopo essere stato relatore dell’AI Act, porto avanti al Parlamento europeo anche nel gruppo di lavoro sulla implementazione di questo provvedimento. Questo lavoro di monitoraggio, realizzato nel confronto con Consiglio, Commissione e singoli Stati membri, si propone di rendere più semplice e rigorosa l’applicazione di queste regole a tutela della libertà delle persone e delle realtà sociali più esposte: per essere davvero efficace ogni regola deve vivere nella società ed essere soggetta a continui aggiornamenti.

ARTICOLI CORRELATI

Articoli più letti

Numero 04-2024

Interviste recenti