Immaginate di partecipare a una manifestazione per il clima. Portate un badge o reggete un cartello. Una telecamera “intelligente” individua questi segni, registra il vostro volto e trasmette le immagini alla polizia, che le confronta con un database di persone ricercate per reati ambientali. Non figurate tra i ricercati, ma i vostri dati rimangono archiviati. Oppure immaginate un migrante appena sbarcato a Lampedusa, interrogato con l’ausilio di una telecamera che analizza le emozioni: il sistema rileva nervosismo e incertezza e conclude che la persona mente sulla sua età o sulle sue origini. Risultato? La sua richiesta di asilo viene respinta.
Queste scene, che sembrano uscite da un romanzo distopico, potrebbero presto diventare realtà nell’Unione Europea. Il 2 febbraio, alcune delle disposizioni più controverse del regolamento europeo sull’intelligenza artificiale, l’AI Act, entreranno in vigore. Originariamente concepito per garantire che l’uso dell’IA rispettasse i diritti fondamentali e le libertà pubbliche, il testo è stato però oggetto di lunghe negoziazioni tra gli Stati membri, compromessi che hanno finito per minare i suoi obiettivi iniziali. Tra i protagonisti di queste trattative c’è la Francia, che ha giocato un ruolo chiave per ottenere esenzioni significative, in nome della “sicurezza nazionale”.
L’assalto ai diritti fondamentali
Come rivelano i documenti riservati analizzati da Disclose e Investigate Europe, la Francia ha esercitato un’intensa pressione per far passare il principio secondo cui la sicurezza e la difesa nazionale debbano essere escluse dal regolamento europeo. Durante una riunione a porte chiuse del 18 novembre 2022, il rappresentante francese ha dichiarato chiaramente che “l’esclusione delle questioni di sicurezza e difesa deve essere mantenuta a tutti i costi”. In pratica, Parigi ha chiesto – e ottenuto – di poter utilizzare tecnologie come la sorveglianza biometrica in tempo reale nello spazio pubblico, giustificando la scelta con la necessità di preservare l’ordine pubblico.
La Francia è stata l’unico Paese dell’UE a spingere per questa totale esclusione del mantenimento dell’ordine dal regolamento, come confermato da una fonte coinvolta nelle trattative. Questo significa che manifestanti accusati di “disturbo dell’ordine pubblico” potrebbero essere legalmente monitorati e identificati tramite tecnologie di riconoscimento facciale.

Le Olimpiadi come pretesto
Nel settembre 2022, durante un incontro con uno dei relatori del testo al Parlamento europeo, un diplomatico francese ha sostenuto con forza l’importanza di autorizzare il riconoscimento facciale per il mantenimento dell’ordine, citando come motivo la sicurezza delle Olimpiadi di Parigi del 2024. La pressione si è intensificata fino a novembre 2023, quando il Segretariato generale agli affari europei (SGAE), organo che risponde direttamente a Matignon, ha inviato una lettera al Consiglio dell’UE ribadendo la “linea rossa” della Francia sull’esclusione della sicurezza nazionale dal regolamento. Come risultato, l’AI Act, all’articolo 2.3, sancisce che il regolamento “non pregiudica le competenze degli Stati membri in materia di sicurezza nazionale”. Inoltre, l’articolo 46 consente l’uso di “servizi di IA ad alto rischio” in situazioni di emergenza, senza necessità di previa autorizzazione.
La sorveglianza selettiva
Le implicazioni di queste norme sono profonde. Secondo i documenti analizzati da Investigate Europe, i governi nazionali potranno utilizzare algoritmi per monitorare una persona in base a criteri come razza, opinioni politiche, affiliazione religiosa o sindacale, e persino orientamento sessuale. Un badge di un movimento ecologista classificato come “estremista e violento” potrebbe, per esempio, attivare una telecamera IA che registra e segnala la persona alle autorità. “È agghiacciante vedere l’UE consentire alle polizie di ricorrere a sistemi di sorveglianza biometrica di massa”, ha commentato Félix Tréguer, autore di Technopolice: la sorveglianza poliziesca nell’era dell’IA. Questi strumenti, sostiene, rappresentano il ritorno a teorie pseudoscientifiche, ora potenziate da sistemi automatizzati per perpetrare la violenza dello Stato.
La spinta dell’industria
Dietro la battaglia della Francia per tecnologie così invasive c’è anche un chiaro interesse industriale. Parigi teme che regole troppo restrittive spingano le aziende europee a delocalizzare verso Paesi con normative più permissive. Questo timore è stato espresso dal presidente Emmanuel Macron, che ha criticato la “iper-regolamentazione” europea, affermando che potrebbe danneggiare l’innovazione e frenare la competitività del continente.
Molti hanno interpretato queste dichiarazioni come un sostegno implicito a Mistral AI, una start-up francese specializzata in intelligenza artificiale, i cui investitori includono figure vicine a Macron. Secondo un rappresentante dell’azienda, le disposizioni finali dell’AI Act sarebbero “del tutto gestibili” per i loro obiettivi.
Quello che sta accadendo con l’AI Act non è solo un problema tecnico o regolamentare: è una questione politica e sociale che mette in gioco il futuro delle libertà fondamentali in Europa. In nome della sicurezza, stiamo cedendo a una sorveglianza di massa sempre più pervasiva, che rischia di trasformare l’UE in uno spazio pubblico monitorato e controllato. La Francia, con il suo attivismo, ha aperto una breccia che altri Stati potrebbero sfruttare, legittimando pratiche che minano il diritto alla privacy, alla libertà di espressione e alla democrazia stessa. La domanda è: chi vigilerà sui vigilanti? E a quale costo, in termini di diritti umani, siamo disposti a sacrificare la nostra libertà per un’illusione di sicurezza?

