rotate-mobile
Venerdì, 19 Aprile 2024
AI Act

Il Parlamento Ue vieta il riconoscimento facciale con l'Intelligenza artificiale

Nel primo voto in commissione sul regolamento Ue passano diversi divieti all'utilizzo delle nuove tecnologie, nonostante l'opposizione dei popolari. Il relatore Benifei (Pd): "Legislazione storica"

Divieto di utilizzo di tecnologie per il riconoscimento facciale o delle emozioni, ma anche dei sistemi di predictive policing. Regole precise per stabilire i limiti dei nuovi sistemi di Intelligenza artificiale e diritto universale di presentare reclami contro il loro utilizzo. Nel primo voto ufficiale sul nuovo regolamento della Commissione, i deputati di Strasburgo sono riusciti a introdurre tutta una serie di salvaguardie sulla privacy e i diritti fondamentali dei cittadini. Il testo dell'Aula, frutto di mesi di trattative, è stato approvato questa mattina dalle commissioni Mercato Interno e Libertà civili con un'ampia maggioranza di 84 voti a favore, 7 contrari e 12 astensioni. A giugno si attende il passaggio in Plenaria e poi inizieranno le trattative con il Consiglio Ue.

"Vieteremo il riconoscimento facciale, eviteremo l'incubo securitario"

Quello in discussione a Bruxelles è il primo tentativo a livello mondiale di presentare un quadro normativo sulle nuove tecnologie informatiche che stanno diventando sempre più presenti nelle nostre vite, fornendo grandi opportunità di sviluppo, ma ponendo anche rischi per i nostri diritti fondamentali che potrebbero portare, secondo i critici, a una società del controllo come quella del Grande Fratello. "Siamo in procinto di mettere in atto una legislazione storica che deve resistere alla sfida del tempo. È fondamentale per costruire la fiducia dei cittadini nello sviluppo dell'IA, per definire la strada europea per affrontare gli straordinari cambiamenti che stanno già avvenendo e per orientare il dibattito politico sull'IA a livello globale. Siamo certi che il nostro testo sia in grado di bilanciare la tutela dei diritti fondamentali con la necessità di fornire certezza giuridica alle imprese e di stimolare l'innovazione in Europa", ha dichiarato il relatore del testo, l'italiano del Pd Brando Benifei.

Nei loro emendamenti alla proposta dell'esecutivo comunitario, i deputati puntano a garantire che i sistemi di Ia siano controllati dalle persone, siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell'ambiente. Chiedono una definizione uniforme per l'Ia progettata per essere neutrale dal punto di vista tecnologico. Le norme proposte, spiega una nota del Parlamento Ue, seguono un approccio basato sul rischio e stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio che l'Ia può generare. I sistemi di intelligenza artificiale ritenuti con un "livello di rischio inaccettabile per la sicurezza delle persone" dovranno essere severamente vietati, compresi i sistemi che impiegano tecniche subliminali o intenzionalmente manipolative, sfruttano le vulnerabilità delle persone o sono utilizzati per conferire un punteggio sociale (classificazione delle persone in base al loro comportamento sociale, stato socio-economico, caratteristiche).

I deputati hanno sostanzialmente modificato l'elenco per includere i divieti sugli usi intrusivi e discriminatori dei sistemi di Ia come sistemi di identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico, ma anche quelli retroattivi, con la sola eccezione per le forze di polizia per utilizzarli in determinati casi nel perseguimento di reati gravi, ma solo previa autorizzazione giudiziaria. Sul punto il partito popolare si era battuto per avere una legislazione meno restrittiva, ma non è riuscito a trovare abbastanza consenso in Aula.

Vietati anche sistemi di categorizzazione biometrici che utilizzano caratteristiche sensibili (ad esempio genere, razza, etnia, stato di cittadinanza, religione, orientamento politico), sistemi di polizia predittiva (basati su profilazione, posizione o comportamento criminale passato), sistemi di riconoscimento delle emozioni negli interrogatori, nella gestione delle frontiere, sul posto di lavoro e nelle istituzioni educative e infine la collezione indiscriminata di dati biometrici da social media o filmati a circuito chiuso per creare database di riconoscimento facciale (violando i diritti umani e il diritto alla privacy).

I deputati hanno inoltre ampliato la classificazione delle aree ad alto rischio per includere i danni alla salute, alla sicurezza, ai diritti fondamentali o all'ambiente delle persone. Hanno anche aggiunto i sistemi di intelligenza artificiale per influenzare gli elettori nelle campagne politiche e nei sistemi di raccomandazione utilizzati dalle piattaforme di social media (con oltre 45 milioni di utenti ai sensi del Digital Services Act) all'elenco ad alto rischio.

E ancora: i modelli di base generativi, come Gpt, dovranno rispettare ulteriori requisiti di trasparenza, come rivelare che il contenuto prodotto è stato generato dall'intelligenza artificiale, progettare il modello per impedire che generi contenuto illegale e pubblicare riepiloghi dei dati protetti da copyright utilizzati per la formazione. Per promuovere l'innovazione dell'IA, i deputati hanno aggiunto esenzioni a queste regole per le attività di ricerca e per i componenti forniti con licenze open-source. Infine i deputati vogliono rafforzare il diritto dei cittadini di presentare reclami sull'utilizzo dei sistemi di IA e di ricevere spiegazioni sulle decisioni basate su questi sistemi che potrebbero avere un impatto significativo sui loro diritti.

In Evidenza

Potrebbe interessarti

Il Parlamento Ue vieta il riconoscimento facciale con l'Intelligenza artificiale

Today è in caricamento