E-Mail: [email protected]
- Nel 2025, Amnesty International ha pubblicato una ricerca sulla sorveglianza di massa.
- Mappate oltre 25.500 telecamere a circuito chiuso a New York.
- L'AI Act entrerà in vigore il 2 agosto 2026, slittando al 2030 per sistemi già in uso.
- Moratoria sui sistemi di riconoscimento facciale prorogata al 31 dicembre 2025.
- Clearview AI ha raccolto 10 miliardi di selfie, violando leggi sulla privacy.
Un’analisi del riconoscimento facciale e delle sue implicazioni
Riconoscimento facciale: tra innovazione e minaccia alla privacy
Il progresso tecnologico, in particolare nel campo dell’intelligenza artificiale, ha portato a sviluppi significativi nel riconoscimento facciale. Questa tecnologia, che consente di identificare o verificare l’identità di una persona a partire da un’immagine o un video, è diventata sempre più diffusa in diversi settori, dalla sicurezza pubblica al commercio al dettaglio. Tuttavia, la sua adozione su larga scala solleva serie preoccupazioni riguardo alla privacy e alle libertà civili. Nel corso del 2016 il riconoscimento biometrico, nello specifico, ha contribuito ad accendere un dibattito sugli aspetti etici di tale tecnologia.
A puntare il dito contro il riconoscimento facciale non sono solo gli attivisti o i cultori della materia, ma anche le autorità di controllo e le istituzioni, sia nazionali che sovranazionali. Nessuno vuole fermare il progresso tecnologico. L’importante è non ledere gli altri diritti fondamentali. La questione centrale è il bilanciamento tra la necessità di garantire la sicurezza pubblica e il diritto alla privacy dei cittadini. L’implementazione di sistemi di riconoscimento facciale, spesso giustificata con la promessa di ridurre la criminalità e aumentare l’efficienza dei servizi, può portare a una sorveglianza di massa, limitando la libertà di movimento e creando un clima di paura e autocensura. La possibilità di essere identificati e tracciati in ogni momento può inibire l’esercizio dei diritti fondamentali, come la libertà di espressione e di associazione.
Un ulteriore motivo di preoccupazione è legato alla precisione e all’affidabilità dei sistemi di riconoscimento facciale. Studi hanno dimostrato che questi sistemi possono essere meno accurati nell’identificazione di persone di colore, donne e altri gruppi minoritari, portando a errori di identificazione e a potenziali discriminazioni. L’uso di algoritmi distorti può rafforzare pregiudizi esistenti, con conseguenze negative per le persone colpite.
La mancanza di una regolamentazione chiara e completa sull’uso del riconoscimento facciale aggrava ulteriormente la situazione. Mentre alcune giurisdizioni hanno iniziato a introdurre limitazioni e moratorie, in molti paesi la legislazione è ancora insufficiente a proteggere i diritti dei cittadini. L’assenza di norme specifiche consente alle aziende e ai governi di utilizzare questa tecnologia in modo indiscriminato, senza un adeguato controllo e senza garantire la trasparenza necessaria.
Nel febbraio del 2025 Amnesty International ha pubblicato una nuova ricerca nell’ambito della campagna Ban the scan. Quest’ultima iniziativa, avviata circa un anno fa, aveva ed ha come obiettivo il divieto assoluto dell’uso, dello sviluppo, della produzione e della vendita di tecnologia di riconoscimento facciale a scopo di sorveglianza di massa da parte delle forze di polizia e di altre agenzie. La nuova ricerca è stata resa possibile grazie al supporto di moltissimi volontari del progetto Decode Surveillance NYC che hanno mappato oltre 25.500 telecamere a circuito chiuso installate a New York. Successivamente, i dati sono stati incrociati con le statistiche sulle perquisizioni e con informazioni demografiche.
TOREPLACE: Crea un’immagine iconica ispirata all’arte naturalista e impressionista, con una palette di colori caldi e desaturati. L’immagine deve raffigurare in modo metaforico le principali entità coinvolte: una rete di telecamere di sorveglianza stilizzate che si estende su un volto umano, simboleggiando la sorveglianza e la perdita di privacy. Le telecamere devono avere un design elegante e non minaccioso, quasi come fiori che sbocciano sul volto. Sullo sfondo, si intravede la sagoma di una città moderna, anch’essa stilizzata. L’immagine deve trasmettere un senso di inquietudine e di controllo, ma anche di bellezza e complessità. Stile iconico, arte naturalista, arte impressionista, colori caldi e desaturati, metafore.”
- 🚀 Il riconoscimento facciale è un'innovazione incredibile che può portare molti benefici......
- 🚨 Trovo preoccupante la crescente diffusione del riconoscimento facciale, soprattutto per......
- 🤔 Ma se invece di vietare il riconoscimento facciale, ci concentrassimo su come regolarlo in modo efficace......
Il ruolo delle istituzioni e le normative in discussione
Di fronte a queste sfide, le istituzioni e le autorità di controllo stanno iniziando a prendere posizione. L’Unione Europea, con l’AI Act, ha introdotto un quadro normativo per l’uso dell’intelligenza artificiale, compreso il riconoscimento facciale, con un approccio basato sul rischio. Il Regolamento prevede divieti per usi considerati inaccettabili, come l’identificazione biometrica remota in tempo reale in spazi pubblici, salvo eccezioni specifiche e autorizzazioni giudiziarie. Tuttavia, l’implementazione completa del Regolamento è prevista solo a partire dal 2 agosto 2026, con un ulteriore slittamento al 2030 per i sistemi già in uso, lasciando spazio a una fase di transizione in cui le normative settoriali esistenti continuano ad applicarsi.
Anche l’Italia ha adottato misure per limitare l’uso del riconoscimento facciale. Nella legge n. 205/21 è stata inserita una moratoria sui sistemi di riconoscimento facciale nei luoghi pubblici fino al 2023, diventando il primo paese dell’Unione europea ad adoperarsi in tal senso. Questa moratoria è stata poi prorogata fino al 31 dicembre 2025. Tuttavia, la moratoria non si applica ai trattamenti effettuati dalle autorità competenti a fini di prevenzione e repressione dei reati o di esecuzione di sanzioni penali, sollevando i dubbi di alcune associazioni per i diritti umani. La legge precisa infatti che il divieto non si applica “ai trattamenti effettuati dalle autorità competenti a fini di prevenzione e repressione dei reati o di esecuzione di sanzioni penali di cui al decreto legislativo 18 maggio 2018, n. 51, in presenza, salvo che si tratti di trattamenti effettuati dall’autorità giudiziaria nell’esercizio delle funzioni giurisdizionali nonché di quelle giudiziarie del pubblico ministero, di parere favorevole del Garante reso ai sensi dell’articolo 24, comma 1, lettera b), del medesimo decreto legislativo n. 51 del 2018´´.
Nonostante questi interventi, la strada verso una regolamentazione efficace del riconoscimento facciale è ancora lunga e tortuosa. Le normative esistenti spesso presentano lacune e ambiguità, rendendo difficile garantire una protezione adeguata dei diritti dei cittadini. Inoltre, la rapida evoluzione tecnologica rende necessario un aggiornamento costante delle leggi, per far fronte alle nuove sfide poste dall’intelligenza artificiale.
Clearview ai: un caso emblematico
Il caso di Clearview AI, una società statunitense che fornisce software di riconoscimento facciale a migliaia di agenzie e forze dell’ordine in tutto il mondo, è emblematico delle sfide etiche poste dal riconoscimento facciale. La società ha creato un enorme database di immagini facciali estrapolate da internet, consentendo ai suoi clienti di identificare individui a partire da una semplice foto. Il 5 aprile del 2022 sono state pubblicate notizie che parlano di un fenomeno in netta crescita, nonostante le norme tese ad arginarlo.
L’archivio di immagini di Clearview AI è basato sulle foto condivise via social, che verrebbero poi scansionate in massa tramite sistemi automatizzati, una pratica, peraltro, non consentita. Questo ha infatti suscitato le reazioni di alcuni paesi. Pochi mesi fa la Commission Nationale de l’Informatique et des Libertés (CNIL) – il Garante privacy francese – ha ordinato a Clearview AI di cancellare tutti i dati raccolti sui cittadini francesi per violazione delle regole del GDPR. Non è però la prima ingiunzione contro la società, che già due anni fa fece scalpore per aver elaborato un sistema di identificazione rimpinguato tramite la raccolta di 10 miliardi di selfie per venderlo alle forze dell’ordine, attirando l’attenzione di Regno Unito, Canada e Australia, le quali hanno invocato diverse violazioni delle leggi locali sulla privacy.
Tuttavia, Clearview AI ha contestato tutte le ingiunzioni, ribadendo la piena legalità delle sue attività e la nobiltà dei suoi obiettivi, che a detta loro non sono la sorveglianza di massa e la violazione della privacy, bensì la lotta al crimine e la tutela della sicurezza pubblica. Nel frattempo, i sistemi di Clearview AI sono sempre più diffusi tra le forze dell’ordine americane e, come visto, mira ad una grossa espansione. Recentemente, la società ha stipulato un accordo da circa 50mila dollari con l’Aeronautica degli Stati Uniti per la ricerca su occhiali per la realtàaumentata in grado di scansionare i volti delle persone per utilizzarli nella protezione di aeroporti e basi militari.
Il caso di Clearview AI solleva interrogativi inquietanti sulla liceità della raccolta e dell’utilizzo di dati biometrici senza il consenso degli interessati. La società ha costruito un enorme database di immagini facciali estrapolate da internet, senza chiedere il permesso alle persone ritratte. Questo solleva preoccupazioni sulla violazione della privacy e sul potenziale uso improprio di questi dati. L’azienda avrebbe in media 14 immagini per ciascun essere umano sulla Terra. Un altro progetto in cantiere porterebbe invece allo sviluppo di ulteriori tecnologie, come quelle per il riconoscimento delle persone in base a come si muovono o un sistema per rilevare il luogo dove si trovano i soggetti analizzando lo sfondo delle foto. Secondo alcuni, però, i finanziamenti servirebbero anche a espandere il reparto vendite internazionale e influenzare le attività dei legislatori affinché promuovano nuove regole più elastiche in materia di privacy.
Verso un futuro responsabile: bilanciare sicurezza e libertà
Il futuro del riconoscimento facciale dipende dalla nostra capacità di trovare un equilibrio tra la necessità di garantire la sicurezza pubblica e il diritto alla privacy dei cittadini. Non possiamo permettere che la tecnologia diventi uno strumento di sorveglianza di massa, limitando la libertà di movimento e creando un clima di paura e autocensura. Nel febbraio 2025, è stata pubblicata una nuova ricerca da parte di Amnesty International nell’ambito della campagna Ban the scan. Quest’ultima iniziativa, avviata circa un anno fa, ha come obiettivo il divieto assoluto dell’uso, dello sviluppo, della produzione e della vendita di tecnologia di riconoscimento facciale a scopo di sorveglianza di massa da parte delle forze di polizia e di altre agenzie.
È necessario un ripensamento radicale dell’etica digitale, che metta al centro la dignità umana e i diritti fondamentali. Una vera “etica na IA livro” deve guidare lo sviluppo e l’implementazione del riconoscimento facciale, garantendo che questa tecnologia sia utilizzata in modo responsabile e trasparente. Dobbiamo esigere trasparenza, responsabilità e un quadro normativo adeguato, per proteggere i nostri diritti e le nostre libertà. Altrimenti, rischiamo di trasformare l’intelligenza artificiale da strumento di progresso a strumento di oppressione.
La sfida è complessa, ma non insormontabile. Con un impegno congiunto da parte delle istituzioni, delle aziende e dei cittadini, possiamo costruire un futuro in cui la tecnologia sia al servizio dell’umanità, e non viceversa.
Riflessioni finali: intelligenza artificiale, privacy e il futuro della società
Ciao! Ti sei mai chiesto come funziona il riconoscimento facciale? In parole semplici, sfrutta algoritmi di intelligenza artificiale, in particolare il deep learning, per analizzare le caratteristiche uniche del nostro volto e confrontarle con un database. Questa è una nozione base, ma fondamentale per capire le potenzialità (e i rischi) di questa tecnologia.
Andando un po’ più a fondo, un concetto avanzato che si lega a tutto questo è la privacy differenziale. Immagina di voler usare dati sensibili, come quelli biometrici, per migliorare un servizio senza però rivelare informazioni personali su nessuno. La privacy differenziale aggiunge un “rumore” matematico ai dati, rendendo difficile risalire all’individuo ma mantenendo utili le informazioni aggregate. Applicare questa tecnica al riconoscimento facciale potrebbe essere una via per proteggere la nostra privacy, pur sfruttando i vantaggi di questa tecnologia.
Tutto questo ci porta a una riflessione più ampia. In un mondo sempre più digitalizzato, la tecnologia può essere un’alleata o una minaccia. Dipende da come la usiamo. Il riconoscimento facciale, con tutte le sue implicazioni, ci spinge a interrogarci sul tipo di società che vogliamo costruire. Vogliamo una società trasparente, dove la tecnologia è al servizio del bene comune, o una società di sorveglianza, dove la privacy è un lusso e la libertà un ricordo? La risposta è nelle nostre mani.








