rotate-mobile
Martedì, 18 Gennaio 2022
EU4Future

"Nel futuro dell'Europa c'è un'intelligenza artificiale etica e a gestione umana"

L'intervista all'eurodeputato García del Blanco (S&D), relatore di una proposta per un'IA sicura, trasparente e che non intacchi i diritti fondamentali dell'uomo

Missioni spaziali, telecomunicazioni, shipping, ma anche videogiochi e cura della casa: l’intelligenza artificiale fa parte della nostra vita quotidiana, anche se non ce ne accorgiamo, e si sta evolvendo sempre più velocemente. Si tratta di sistemi hardware e software in grado di auto-apprendere, prendendo delle decisioni che li portano a un obiettivo definito. Esistono tantissimi esempi di IA: l’algoritmo che suggerisce cosa guardare su Netflix in base alle scelte precedenti, i veicoli che si guidano da soli, gli assistenti vocali, le telecamere che riconoscono i volti.

Sono tecnologie che rendono la vita quotidiana e i processi produttivi più semplici, oltre a essere dei potenziali alleati per la transizione energetica. È un settore che però al momento non ha padroni, e che porta con sé una certa dose di rischi: pensiamo a cosa potrebbe succedere – e a cosa sta succedendo – se un’IA che riconosce i volti finisse nelle mani di regimi non democratici. Ma esistono anche rischi legati alla discriminazione, alla privacy e all’esclusione delle fasce più povere da queste tecnologie.

Una serie di rischi su cui l’Europa sta avviando una riflessione. Nell’aprile di quest’anno la Commissione ha presentato una prima bozza di regolamento dell’Intelligenza Artificiale e delle tecnologie correlate. La Commissione le divide in quattro livelli di rischio, da inaccettabile a minimo, e in base a questo le sottopone a valutazioni di sicurezza e conformità – ovviamente vietando le Intelligenze Artificiali a rischio inaccettabile. L’IA utilizzata nell’Unione europea deve essere sicura, trasparente, etica e sotto il controllo umano.

Ma prima della Commissione, si era mosso il Parlamento europeo, nell’autunno del 2020, con alcune proposte.

Il lavoro del Parlamento europeo

Nel settembre dello scorso anno, il Parlamento ha istituito una nuova commissione speciale, che si occupa proprio di Intelligenza Artificiale. Nei mesi successivi, gli eurodeputati (non unicamente della nuova commissione) hanno presentato tre proposte per regolamentare l’Intelligenza Artificiale che entra – o viene sviluppata – in Europa. Ruotano tutte intorno all’etica dell’IA.

La prima proposta è stata quasi il seme da cui è nato il regolamento di cui parlavamo prima. Si tratta infatti di una richiesta alla Commissione per presentare un nuovo quadro giuridico sull’Intelligenza Artificiale, che tenga conto di cinque fattori: l’IA deve essere a misura d’uomo e non di macchina, sicura e trasparente, non deve essere uno strumento per operare discriminazioni, deve essere sostenibile sul piano ambientale e della privacy e infine deve essere possibile fare ricorso contro una decisione presa da una IA. Particolarmente importante è il fattore umano: tutte le Intelligenze Artificiali e le tecnologie a esse legate devono essere progettate in modo da poter essere sorvegliate e, in caso di necessità, disattivate dall’uomo.

Ne abbiamo parlato con Iban García del Blanco, eurodeputato spagnolo dell’S&D e relatore di questa prima proposta.

Perché il Parlamento europeo ha sentito la necessità di lavorare sull’Intelligenza artificiale?
"L’IA potenzialmente può influenzare ogni aspetto della nostra vita, e quindi è necessaria una riflessione su come guidare i suoi sviluppi. Vogliamo una tecnologia che sia al servizio dei cittadini: con la mia proposta sugli aspetti etici dell’Intelligenza Artificiale abbiamo definito il ruolo che l’Unione dovrebbe avere nel promuovere queste tecnologie e insieme nel difendere i diritti dei cittadini. Abbiamo voluto mandare un messaggio forte alla Commissione europea, e siamo soddisfatti nel vedere che la Commissione ha incluso le nostre idee nella prima bozza del regolamento sull’IA".

Pensa che le compagnie Big Tech possano essere un rischio, in termini di trasparenza e responsabilità? 
"Le grandi aziende devono essere soggette a obblighi di due diligence più severi in base alla loro influenza e quota di mercato. Nel contesto del Digital Markets Act e del Digital Service Act, che l’UE sta attualmente negoziando, le grandi piattaforme saranno obbligate a una maggiore trasparenza e presa di responsabilità sui loro algoritmi, sulla raccolta dati e sull’influenza che hanno sul mercato interno. Penso sia positivo stabilire regole fisse e certe per mettere fine agli abusi delle Big Tech e alla diffusione online di contenuti illegali. Nella nostra proposta sull’IA teniamo in considerazione il rischio di violazione dei diritti umani, e anche i rischi connessi alla sicurezza e all’autonomia dell’uomo durante il ciclo di vita delle tecnologie che usano un’Intelligenza Artificiale".

Qual è la preoccupazione maggiore della Commissione Giuridica, che ha studiato e approvato la proposta?
"Ci siamo concentrati e ci concentreremo soprattutto sulla trasparenza e sulla vigilanza umana necessarie quando si sviluppa e si usa un’IA. Ma anche tutte le problematiche legate ai diritti fondamentali, alla discriminazione, alla sostenibilità e alla presa di responsabilità sono molto importanti  Personalmente, ritengo che un’Intelligenza Artificiale che garantisca la parità tra generi, la diversità culturale e la protezione dei diritti di proprietà intellettuale sia fondamentale per il futuro dell’Europa. Vorrei che la conoscenza di queste tecnologie si diffondesse tra i cittadini, per coinvolgere gli azionisti del settore, la società civile e i sindacati nei suoi sviluppi futuri".

Come può l’Europa essere leader del settore dell’IA, se molte grandi compagnie del tech sono basate fuori dall’EU?
"L’Europa ha più volte dimostrato di essere pioniera nella ricerca sull’Intelligenza Artificiale. E con l’adozione di strategie giuste e affidabili, saremo in grado di fornire sicurezza legale e salvaguardia tecnologica a chi vorrà sviluppare un’IA etica e democratica, che metta al centro l’essere umano e sia a guarda delle nostre democrazie e dello stato di diritto. L’Ue lavora a stretto contatto con partner internazionali, come l’Unesco e l’Organizzazione per la cooperazione e lo sviluppo economico, per creare linee guida per un’IA etica. Insomma, l’Europa sta aprendo la strada: vogliamo un’Intelligenza Artificiale che garantisca il progresso della società e ne sia al servizio. Sono convinto che potrà dare nuovo valore aggiunto alla fiducia che il mondo ha in un’Intelligenza Artificiale europea".

Come dicevamo esistono altre due proposte del Parlamento europeo: la seconda chiede che gli operatori di Intelligenza Artificiale ad alto rischio vengano ritenuti oggettivamente responsabili degli eventuali danni che possono causare. In questo modo verrebbero scoraggiate le aziende che partono con intenzioni non trasparenti e aumenterebbe la fiducia dei consumatori. Le regole dovrebbero essere applicate alle AI che danneggiano la vita, la salute, l’integrità fisica o il patrimonio dei cittadini.

La terza proposta chiede che venga introdotto un sistema efficace di diritti di proprietà intellettuale (DPI), che renda l’Unione europea davvero leader in materia di Intelligenza Artificiale. In questo modo gli sviluppatori innovativi di IA verrebbero protetti, insieme ai loro brevetti, e si differenzierebbe in modo chiaro tra innovazioni create dall’uomo con l’uso dell’IA e creazioni direttamente dell’IA.

DISCLAIMER-2

In Evidenza

Potrebbe interessarti

"Nel futuro dell'Europa c'è un'intelligenza artificiale etica e a gestione umana"

Today è in caricamento