fbpx

a cura di Michelangelo Colombo e Francesco Gunelli

Alla luce delle recenti innovazioni nel campo dell’intelligenza artificiale e, di conseguenza, della crescente popolarità acquisita da questa tecnologia, abbiamo affrontato il tema con Brando Benifei. Classe ‘86, parlamentare Europeo, capo della delegazione italiana del Gruppo dei Socialisti e Democratici (S&D) , Benifei è il principale relatore dell’AI Act, la risposta europea a una rivoluzione dirompente che, per le sue implicazioni, sta creando in ogni settore non solo grandi opportunità ma anche seri dubbi e molte incertezze.

GD: Se dovessi spiegare a un giovane l’IA Act, come lo faresti?

BB: Lo spiegherei così: ogni strumento può essere usato bene o male e può avere rischi e pericoli che non percepiamo. Così come si impara a utilizzare il telefono, così anche l’intelligenza artificiale permette di fare determinate cose, per esempio, rispondere a delle domande o produrre delle immagini. Tutto questo però non è né scontato né semplice. La persona che utilizza questi sistemi dovrebbe saperli padroneggiare e conoscere i rischi a cui va incontro. 

A scuola un tuo professore potrebbe inserire in maniera sbagliata i tuoi dati nel sistema di valutazione perché non gli piaci, oppure qualcuno potrebbe utilizzare l’intelligenza artificiale all’interno del tuo videogioco per fini non corretti. 

L’IA è già presente nella nostra vita quotidiana, come nell’amministrazione pubblica. Al momento, per esempio, ci si sta attrezzando per avere un sistema in grado di stabilire se una coppia di genitori possa beneficiare o meno di un eventuale sostegno economico. Non sarebbe giusto se questo sistema erroneamente e senza appello togliesse questi benefici. 

Le applicazioni nella scuola potrebbero avere conseguenze negative, se non regolamentate: atteggiamenti discriminatori nei confronti di bambini di etnie diverse, utilizzo improprio dei dati e possibili pericoli legati alla cybersecurity. 

L’IA Act è lo strumento dei legislatori europei per gestire e contenere i pericoli che esistono legati all’intelligenza artificiale.

GD: Le intelligenze artificiali hanno bias (tendenze pregiudiziali) dovute al fatto che la maggior parte delle informazioni su cui vengono allenate arrivano dall’Europa e dal Nord America. Come possiamo rendere meno discriminatoria l’intelligenza artificiale?

BB : A volte è anche peggio; ci sono sistemi che hanno introiettato pregiudizi assolutamente chiari. Un esempio classico sono i sistemi che devono selezionare un curriculum, escludendo sistematicamente da posizioni apicali persone di etnia non bianca e donne. Questo è il bias più comune, e moltissimi sistemi stanno imparando a discriminare. 

Con l’IA Act questo non sarà più possibile. Se un’intelligenza artificiale dovesse presentare una certa rischiosità, verranno attivate diverse contromisure. In primis, un’indagine per valutare la pertinenza dei dati acquisiti; in secondo luogo, una serie di procedure per individuare e risolvere i bias algoritmici. In caso contrario si sarà in violazione di legge: la pena standard sarà una multa, ma si potrà arrivare anche a essere esclusi dal mercato unico europeo. 

GD: Come S&D e Partito Democratico, cosa vi aspettate da questa nuova regolamentazione?

BB: In questo momento siamo nella fase di negoziazione tra Parlamento, Commissione e Consiglio Europeo. Ci sono alcune questioni molto delicate, con divergenze importanti rispetto agli altri due co-legislatori. Il Parlamento è fortemente contrario all’uso della sorveglianza tramite telecamere biometriche negli spazi pubblici. Limiteremo questo sistema, con l’unica eccezione dei crimini già avvenuti, evitando una ricerca indiscriminata. Ci siamo impegnati per impedire il riconoscimento emotivo di studenti e lavoratori nei luoghi di lavoro, nelle scuole e anche degli immigrati alla frontiera. Soprattutto, abbiamo vietato la polizia predittiva, su cui invece il Ministero degli Interni italiano sta avviando sperimentazioni. Questa attività giudiziaria, oltre a non funzionare, è anche lesiva del principio della presunzione d’innocenza.  Abbiamo anche imposto degli obblighi di trasparenza sulla generazione di contenuti da parte dell’IA, in modo da renderli riconoscibili (e distinguibili da quelli umani), sul riconoscimento dei deep-fakes e sul contrasto alla produzione di contenuti illegali. 

Non è un caso se cito sicurezza e intelligenza generativa; questi due argomenti sono la fonte più significativa di divergenza con il Consiglio.      Nel primo caso, quest’ultimo vorrebbe avere più mano libera, autorizzando l’utilizzo indiscriminato di telecamere biometriche e polizia predittiva secondo una logica di sicurezza nazionale.                                                                                                         

Sull’intelligenza artificiale generativa la lobby fortissima dei giganti tech si fa sentire. La proposta del PE mette una serie di obblighi ai sistemi di intelligenza artificiale negativa ed è stata per questo fortemente contrastata. Un aneddoto in merito. Il 27/10 sono stato a Torino alla Italian Tech Week, una grande manifestazione su temi tecnologici. Avrei dovuto avere la possibilità, almeno su carta, di incontrare e avere un confronto con Sam Altman, CEO di OpenAI (ChatGPT). All’ultimo però il signor Altman si è rifiutato di presentarsi al confronto, preferendo un’intervista di un giornalista dell’Economist, “permettendoci” solo di commentare quanto detto. Ho accettato lo stesso in quanto occasione di discussione, ma non c’è stato un dialogo. Questo è solo un piccolo esempio del grado di tensione tra Big Tech e Parlamento europeo. 

GD: I primi al mondo a scrivere una legislazione sul limitare le IA, peraltro.

BB: Si, siamo i primi, ma non ci stiamo inventando nulla. In tutto il mondo si sta discutendo dei pericoli legati alla sanità e alla democrazia connessi all’uso dell’IA. Se ne parla a livello OCSE, di Nazioni Unite, di G7 e di G20. La differenza è che mentre gli altri Paesi fanno soltanto raccomandazioni e codici di condotta (gli Stati Uniti hanno deciso di optare per un accordo su base volontaria), noi abbiamo proposto una legge. Ogni cittadino, ogni impresa, ogni pubblica amministrazione può far rispettare i propri diritti in maniera immediata attraverso le autorità di supervisione. 

GD: Quando possiamo aspettarci che la legge venga adottata? Prima o dopo le elezioni europee?

BB: Ottima domanda. Il negoziato dovrebbe terminare entro fine anno. Questo vuol dire effettuare a inizio 2024 le votazioni finali che porteranno a un testo unificato. Ad oggi è prevista una tempistica di due anni per la piena entrata in vigore; si sta discutendo se ridurlo a uno per alcune categorie, come quella dell’IA generativa. 

Si vuole evitare quello che è accaduto con il GDPR (la normativa europea sulla protezione dei dati; ndr), un’implementazione tardiva e uno “shock” per le imprese. Per far fronte a questa eventualità lanceremo il Patto per l’intelligenza artificiale, un’iniziativa, in tandem con la Commissione, per far adeguare in maniera graduale pubblico e privato. Nel momento in cui la legge sarà approvata, verrà proposto a tutte le pubbliche amministrazioni e alle imprese di aderire a un sistema di compliance volontaria. In questa maniera saremo in grado di rendere il mercato rispettoso della legge prima ancora che essa entri completamente in vigore.

Un tema importantissimo sono le elezioni europee del 2024. Affinché l’AI Act abbia un impatto positivo sul processo democratico, bisognerà spingere per una graduale adesione volontaria. Fino ad allora, l’Intelligenza Artificiale sarà regolata dal GDPR e dal Digital Services Act, la normativa europea sui servizi digitali che regola il funzionamento delle piattaforme online rispetto a contenuti illegali e fake news.

GD: come possiamo coniugare regolamentazione e innovazione?

BB: Il regolamento si concentra sull’intelligenza artificiale che presenta rischi significativi per salute, sicurezza e diritti fondamentali. L’approccio è proporzionale: dove il rischio è inesistente o minimo, la regolamentazione sarà limitata. Dove invece il rischio è alto, come nell’attribuzione di diritti civili, politici e sociali, nella crescita cognitiva dei bambini e nei luoghi di lavoro, esso sarà fortemente regolato. 

A sostegno dell’innovazione abbiamo creato le cosiddette sandboxes, degli ambienti protetti che permettono alle piccole imprese di sperimentare in presenza di meno regolamentazione prima di entrare nel mercato. Questo è un sistema per favorire l’inserimento di nuovi player, che altrimenti sarebbero troppo svantaggiati rispetto ai grandi sviluppatori. Alla fine dei conti, però, per creare innovazione serve fare altro: dobbiamo investire nel futuro e dobbiamo fornire capitali accessibili a chi vuole innovare. 

 

 

 

 

 

Redazione GD

Redazione GD

La Redazione è lo spazio di approfondimento e confronto pubblico dei Giovani Democratici di Milano Metropolitana!

Leave a Reply

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.