rotate-mobile
Mercoledì, 24 Aprile 2024
Il caso / Francia

L'intelligenza artificiale che vigilerà su Olimpiadi e concerti: sospetti individuati da un algoritmo

La Francia ha dato l'ok a un sistema di sicurezza basato su Ai e telecamere. E che potrebbe essere presto vietato nell'Ue

Nel bel mezzo della gigantesca mobilitazione sociale contro la riforma delle pensioni, la misura è passata quasi inosservata. Ma non agli occhi delle organizzazioni che si battono per il diritto alla privacy, compresa Amnesty international, che hanno duramente criticato la decisione del governo francese di introdurre un sistema di videosorveglianza algoritmica per i grandi eventi sportivi, come le prossime Olimpiadi di Parigi 2024, ma anche concerti ed eventi culturali. Un sistema che potrebbe presto essere messo fuori legge nell'Unione europea, secondo quanto denunciano una quarantina di eurodeputati.

Il dispositivo di sicurezza si basa da un lato da una fitta rete di telecamere piazzate nei luoghi pubblici, dall'altro da un "cervellone" che in base agli algoritmi aiuterà a individuare comportamenti sospetti, bagagli non sorvegliati e movimenti di folla. Il sistema è stato messo a punto per i Giochi di Parigi e per prevenire eventuali attacchi terroristici in un Paese che ha ancora vivo il ricordo delle stragi targate Isis. Non a caso, il presidente Emmanuel Macron ha sostenuto il progetto di legge, affermano che le telecamere comandate dall'intelligenza artificiale avrebbero potuto prevenire l'attacco terroristico di Nizza del 2016, individuando il camion con cui un terrorista dell'Isis ha ucciso 86 persone prima che il mezzo potesse finire tra la folla.

L'attuazione di questa tecnica, però, non riguarderà solo i Giochi: si applicherà agli "eventi sportivi, ricreativi o culturali" in genere, che "per la loro portata o per le loro circostanze, sono particolarmente esposti al rischio di atti di terrorismo o gravi minacce alla sicurezza delle persone”. Il debutto potrebbe avvenire per i prossimi Mondiali di rugby, considerati da Parigi il più importante banco di prova per testare l'organizzazione e la sicurezza delle Olimpiadi. Per il momento, il governo ha assicurato che il cervellone verrà spento nel dicembre 2024, in modo da verificarne i risultati ed eventuali criticità prima di decidere se proseguire o meno con questo sistema. 

La data limite fissata da Parigi potrebbe essere stata decisa anche per un'altra ragione: l'Artificial intelligence act, il testo con cui Bruxelles potrebbe mettere fuori legge in tutta Europa la sorveglianza biometrica, compreso il sistema usato per le Olimpiadi francesi. Un gruppo di quaranta eurodeputati, la maggior parte di sinistra, aveva nei giorni scorsi invitato i deputati del Parlamento transalpino a non approvare il testo, sostenendo che il sistema di sorveglianza di massa minaccia pericolosamente le libertà civili delle persone, e ricordando il testo in via approvazione a Bruxelles.

L'Artificial intelligence act dovrebbe introdurre tutta una serie di misure per evitare che l'impiego sempre più capillare dell'intelligenza artificiale non comporti rischi per i diritti e le libertà fondamentali. Tra le applicazioni dell'Ai più delicate ci sono i sistemi di riconoscimento delle emozioni e di categorizzazione biometrica, i quali determinano eventuali individui sospetti sulla base di una serie di caratteristiche fisiche e comportamentali. Secondo organizzazioni come Amnesty international, questi sistemi sono propri di regimi autoritari e repressivi, e non di una democrazia. 

Non è chiaro se il testo finale dell'Artificial intelligence act vieterà o meno tali sistemi, o si limiterà a fissare dei paletti. Molto probabilmente, dovrebbe entrare in vigore nel 2025. Giusto il tempo di consentire la "sperimentazione" francese.

In Evidenza

Potrebbe interessarti

L'intelligenza artificiale che vigilerà su Olimpiadi e concerti: sospetti individuati da un algoritmo

Today è in caricamento