rotate-mobile
Sabato, 20 Aprile 2024
Attualità

Bruxelles propone il riconoscimento facciale per i reati gravi. Ma la lista potrebbe essere lunga

Secondo la vicepresidente Vestager i sistemi biometrici si potranno usare solo per proseguire i crimini con pena dai tre anni in su. "Lacuna preoccupante, le persone vanno messe al centro", contestano gli attivisti

L’Unione europea ha deciso di mettere ordine nel far west delle nuove tecnologie di intelligenza artificiale e riconoscimento facciale, ma senza rinunciare a un settore in grande crescita. Questo l’obiettivo del pacchetto di proposte presentato dalla Commissione che, se approvate, dichiareranno fuorilegge le tecnologie “inaccettabili” e restringeranno con forza il campo di applicazione di tanti altri sistema di AI (Artificial Intelligence, ndr). A prendersi la scena è il dibattito sulla tecnologia biometrica che permette il riconoscimento facciale dei singoli individui in tempo reale. Uno strumento con potenziali capacità di controllo di massa e che, proprio per difendere la privacy e la libertà dei cittadini, la Commissione ha deciso di limitare al contrasto dei soli reati più gravi. Una scelta subito contestata dalle associazioni in difesa dei diritti individuali che vorrebbero semplicemente proibire il riconoscimento dei volti. Ma andiamo con ordine.

Le nuove misure

Con il pacchetto presentato alla stampa, Bruxelles si prepara ad applicare il principio di precauzione all’intelligenza artificiale. L’esecutivo Ue ha infatti classificato le nuove tecnologie secondo quattro diversi livelli di rischio: inaccettabile, alto, limitato e minimo. “I sistemi di AI considerati una chiara minaccia alla sicurezza, ai mezzi di sussistenza e ai diritti delle persone saranno vietati”, si legge nel documento della Commissione. Tra questi rientrano le macchine “che manipolano il comportamento umano per eludere il libero arbitrio degli utenti”, come i giocattoli per minori che utilizzano l'assistenza vocale e per questo capaci di incoraggiare comportamenti pericolosi. Verranno vietati anche i programmi che assegnano un punteggio sociale ai cittadini in funzione dei loro comportamenti. Tecnologie che rievocano alcuni episodi della popolare serie Netflix Black Mirror. 

Il riconoscimento facciale 

Il vero nodo da sciogliere, quello dei sistemi di identificazione biometrica, viene affrontato dalla Commissione qualificando tali tecnologie “ad alto rischio”. Ciò significa che, pur non venendo vietati, i sistemi di riconoscimento facciale saranno soggetti a una serie di requisiti a tutela della privacy. Il loro utilizzo in tempo reale in spazi pubblici per il contrasto della criminalità sarà - in linea di principio - vietato. Viene ammesso l’uso dell’identificazione biometrica solo se “strettamente necessario” in casi eccezionali. Tra gli esempi citati dalla Commissione c’è la ricerca di un bambino scomparso, la prevenzione di una minaccia terroristica imminente o l’identificazione di un soggetto sospettato di aver compiuto un reato grave. Già, ma quali sono i reati gravi per Bruxelles?

Le critiche

Per la vicepresidente della Commissione europea, Margrethe Vestager, l'elenco dei reati per il cui contrasto si ammette l’uso del riconoscimento facciale in spazi pubblici “dovrebbe essere limitato ai crimini per cui, se dimostrata la colpevolezza, si possa essere condannati a oltre tre anni di prigione”. Una soglia che rischia di includere molti reati, soprattutto in un Paese come l’Italia dove la forbice tra minimo e massimo della pena è spesso molto ampia. Un margine che “lascia una lacuna preoccupante per le tecnologie discriminatorie e di sorveglianza utilizzate da Governi e aziende”, sostiene Sarah Chander, esperta di intelligenza artificiale presso l’organizzazione EDRi (European Digital Rights). “Il regolamento consente un margine di autoregolamentazione troppo ampio da parte delle aziende che traggono profitto dall’AI” mentre “le persone, e non le aziende, devono essere al centro di questo regolamento”, è la critica di Chander. L’utilizzo dei sistemi di identificazione biometrica, se verrà approvata questa proposta, sarà comunque soggetto all’autorizzazione giudiziaria o di altro organo indipendente. 

Le altre tecnologie

Tra gli altri sistemi di intelligenza artificiale ritenuti ad alto rischio ci sono le tecnologie usate nel settore dei trasporti “che potrebbero mettere a rischio la vita e la salute dei cittadini”, meccanismi di assistenza nella formazione scolastica o professionale “che possono determinare l'accesso all'istruzione e al percorso professionale”, ma anche programmi di gestione dei lavoratori e accesso al lavoro (ad esempio i software di smistamento dei Cv dei candidati a un posto di lavoro). Sono invece tecnologie a rischio limitato i sistemi ‘semplici’ di intelligenza artificiale come i chatbot che rispondono in automatico alle domande. Quando si trovano di fronte a questi strumenti, gli utenti verranno messi al corrente che stanno interagendo con una macchina anziché con un essetumano. Videogiochi abilitati per l’intelligenza artificiale e filtri mail antispam rientrano invece sotto la categoria del rischio minimo, sui quali la Commissione ha scelto di non intervenire con nuove regole poiché “questi sistemi di AI rappresentano solo un rischio minimo o nullo per i diritti o la sicurezza dei cittadini”.

In Evidenza

Potrebbe interessarti

Bruxelles propone il riconoscimento facciale per i reati gravi. Ma la lista potrebbe essere lunga

Today è in caricamento