Il 21 aprile 2021, la Commissione Europea ha lanciato una proposta di Regolamento sull’Intelligenza Artificiale (IA) e un piano di coordinamento fra paesi membri su questo tema. Si tratta della prima proposta di regolamento avanzata a livello europeo sull’IA in forma onnicomprensiva. Sul piano discorsivo, la Commissaria competente, Margrethe Vestager, ha posto l’accento sulla ‘fiducia’ come tema centrale nella nuova proposta e nel nuovo piano.
Intelligenza Artificiale: Di cosa parliamo?
Il Parlamento Europeo, sul suo sito, definisce l’IA come “l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività. L’intelligenza artificiale permette ai sistemi di capire il proprio ambiente, mettersi in relazione con quello che percepisce e risolvere problemi, e agire verso un obiettivo specifico. Il computer riceve i dati (già preparati o raccolti tramite sensori, come una videocamera), li processa e risponde. I sistemi di IA sono capaci di adattare il proprio comportamento analizzando gli effetti delle azioni precedenti e lavorando in autonomia.”
Ad oggi, la stragrande maggioranza delle tecnologie di IA in uso ha bisogno di un intervento umano a un certo stadio del processo decisionale. Come riporta la definizione del Parlamento, il computer ‘riceve i dati’ e il sistema di ricezione dei dati (anche i sensori o una videocamera) ha bisogno di essere ‘allenato’ da umani per poter riconoscere adeguatamente l’oggetto e la situazione con cui si sta confrontando.
Nella letteratura pop, la raccolta di racconti ‘I, Robot’ di Isaac Asimov ha fornito alcune iniziali basi filosofiche dell’IA e ne ha previsto alcuni dei vantaggi e dei limiti già negli anni ’40 del Novecento. Il ‘piccolo robot smarrito’ che scompare dopo aver preso alla lettera il comando involontariamente fornito da un umano che ha perso le staffe (“get lost!”) è un esempio piuttosto veritiero delle difficoltà che si possono incontrare tutt’oggi con l’IA. Tuttavia, il robot in grado di leggere il pensiero che compare in un racconto successivo resta alquanto fantascientifico.
Fatto questo distinguo, l’Intelligenza Artificiale è altamente strategica perché è sempre più utilizzata nella gestione delle infrastrutture critiche (dai trasporti all’Internet mobile), in ambito medico (con la chirurgia robot-assistita), nei processi penali (ad esempio, le tecnologie di riconoscimento facciale) e anche nelle procedure di assunzione (con l’analisi automatizzata dei curriculum vitae).
Per funzionare correttamente, l’Intelligenza Artificiale ha bisogno di una quantità enorme di dati (big data). Per esempio, nel riconoscimento facciale, l’IA deve poter ‘mettere assieme’ un numero enorme di particolari caratteristiche facciali per poter affermare con relativa certezza che il volto osservato è quello di Riccardo Nanni (autore di questo articolo). Questo ha implicazioni etiche importanti: non solo per l’utilizzo dei dati biometrici sensibili, ma anche per il corretto funzionamento e utilizzo di queste tecnologie. In un mondo in cui il maschio bianco è ancora una categoria altamente privilegiata e numericamente (ma non solo) dominante nel mondo dell’alta tecnologia, studi comprovano che vi è mancanza di dati riguardo ai tratti somatici di persone (soprattutto donne) con altre origini etniche. Questo comporta errori nell’attribuzione di caratteristiche facciali con pericolose conseguenze. Ad esempio, in più occasioni questi malfunzionamenti da parte dell’algoritmo hanno portato all’arresto di persone di colore innocenti, un pericolo meno diffuso tra la popolazione bianca.
I dati diventano quindi la materia prima (“il nuovo petrolio”) dell’Intelligenza Artificiale e una risorsa il cui controllo è altamente strategico.
Cosa prevede la proposta di regolamento?
Secondo le dichiarazioni ufficiali della Commissione Europea, il nuovo regolamento mira a proibire la raccolta di dati biometrici da remoto (ad esempio, tramite telecamere di videosorveglianza a riconoscimento facciale), garantendo solo poche eccezioni circostanziate ai fini della pubblica sicurezza. Inoltre, si mira a rafforzare l’obbligo di fornire informazioni d’uso corretto (e dei potenziali rischi) dei prodotti e dei servizi con intelligenza artificiale. Un aspetto particolarmente importante alla luce dei precedenti paragrafi è l’inclusione di supervisione umana per la minimizzazione dei rischi.
Tutti questi aspetti saranno potenzialmente soggetti a modifiche nell’arco della procedura legislativa, che vedrà coinvolti il Consiglio dei ministri dell’UE e il Parlamento Europeo.
Implicazioni politiche
In primo luogo, si nota un generale riconoscimento da parte dell’UE dell’importanza strategica ed etica della regolamentazione della raccolta e diffusione dei dati (biometrici o meno). Se da una parte i big data rappresentano un aspetto fondamentale per lo sviluppo dell’IA, dall’altro rappresentano un rischio concreto in termini di tutela dei diritti umani in un’epoca in cui gli individui condividono dati in maniera costante e spesso senza saperlo.
Più in generale, questa questione entra nel più ampio dibattito sulla sovranità digitale e il potere regolatorio dell’UE. In un’epoca in cui sempre più autorità pubbliche cercano di mantenere una forma di controllo sulla sfera digitale (indipendentemente dalle definizioni), un’interpretazione diffusa dell’operato europeo è stato quello dell’UE come potenza regolatoria (‘regulatory power’). Secondo questa interpretazione, in assenza di giganti tecnologici ‘domestici’, l’UE cerca di influenzare il mercato digitale globale tramite regolamenti, spesso con carattere extraterritoriale. Il cosiddetto General Data Protection Regulation (GDPR) è un esempio: applicandosi a tutti i soggetti che raccolgono o gestiscono dati di cittadini UE, il GDPR ha effetto extraterritoriale. Data l’importanza del mercato europeo per molte aziende, queste sono disposte ad adeguare le proprie pratiche alle regole imposte dall’UE.
Indipendentemente dai potenziali limiti di questa interpretazione, resta vero che anche nell’UE è cresciuto il dibattito sulla sovranità digitale e, dal GDPR in poi, si è cercato di incrementare la regolamentazione delle nuove tecnologie.
Riccardo Nanni,
Geopolitica.info – Università di Bologna