Le Olimpiadi di Parigi 2024 stanno attirando gli occhi di tutto il mondo: migliaia di atleti e personale di supporto e centinaia di migliaia di visitatori da tutto il mondo si incontreranno in Francia per l’occasione. Ma non saranno solo gli occhi del mondo a guardare, bensì anche quelli delle telecamere di sicurezza dotate di sistemi di intelligenza artificiale.
Il governo francese, con l’aiuto di aziende private, userà strumenti avanzati di intelligenza artificiale e altre tecnologie per condurre una sorveglianza pervasiva e persistente prima, durante e dopo i Giochi, ha spiegato la docente ed esperta del tema Anne Toomey McKenna. Eventi così grandi comportano un aumento dei rischi per la sicurezza, tanto che negli ultimi anni le autorità e i critici hanno descritto le Olimpiadi come “le più grandi operazioni di sicurezza del mondo al di fuori della guerra”.
Questa esigenza di maggiore sicurezza sarà però sfruttata per dispiegare strumenti di sorveglianza e raccolta dati tecnologicamente avanzati. I piani di sorveglianza per far fronte ai rischi, tra cui il controverso sistema sperimentale di videosorveglianza con intelligenza artificiale, sono così estesi che la Francia ha dovuto modificare le proprie leggi per renderli legali. Sono ora possibili le intercettazioni telefoniche, la raccolta di dati relativi alla geolocalizzazione, alle comunicazioni e ai computer e l’acquisizione di maggiori quantità di dati visivi e audio.
L’aumento dei rischi per la sicurezza può richiedere una maggiore sorveglianza, spiega McKenna. Tuttavia, le misure preventive dovrebbero essere proporzionali ai rischi. A livello globale, i critici sostengono che il governo userà questa giustificazione di sorveglianza “eccezionale” per normalizzare la sorveglianza statale a livello sociale.
Allo stesso tempo, ci sono preoccupazioni riguardo al fatto che la sorveglianza sia adeguata ed efficace per garantire la sicurezza. Il software di intelligenza artificiale in uso è generalmente progettato per segnalare alcuni eventi come cambiamenti nelle dimensioni e nei movimenti della folla, oggetti abbandonati, presenza o uso di armi, corpi a terra, fumo o fiamme e alcune violazioni del traffico. Segnalare questi eventi sembra un uso logico e sensato della tecnologia.
Ma le vere questioni legali e di privacy derivano dal modo in cui questi sistemi funzionano e vengono utilizzati. Quanti e quali tipi di dati saranno raccolti e analizzati per segnalare questi eventi? Quali sono i dati usati per “allenare” i sistemi di AI, i tassi di errore e le prove di parzialità o imprecisione? Che ne sarà dei dati raccolti dopo l’evento e chi vi avrà accesso?
Dando a queste aziende private l’accesso a migliaia di telecamere già posizionate in tutta la Francia, sfruttando e coordinando le capacità di sorveglianza delle compagnie ferroviarie e degli operatori dei trasporti e consentendo l’uso di droni con telecamere, la Francia sta legalmente permettendo e supportando queste aziende a testare e addestrare il software di intelligenza artificiale sui suoi cittadini e visitatori, spiega la docente.
La Francia, tuttavia, è uno Stato membro dell’Unione europea. Il Regolamento generale sulla protezione dei dati dell’UE (GDPR) è una delle leggi più severe al mondo in materia di privacy e l’AI Act dell’UE sta guidando gli sforzi per regolamentare gli usi dannosi delle tecnologie AI. La Francia ha aperto la strada, dal punto di vista legale, all’espansione dell’uso dell’IA nella sorveglianza dei luoghi pubblici, secondo McKenna.
(Foto di Levi Meir Clancy su Unsplash)
Se sei arrivato fin qui
Magari ti interessa iscriverti alla nostra newsletter settimanale. Ricevereai il riepilogo delle cose che pubblichiamo sul blog, e se succede qualcosa di importante che riguarda l’associazione lo saprai prima di tutti.