L'espansione della biometria nell'investigazione italiana
- Maria Landi
- 11 nov
- Tempo di lettura: 3 min
Aggiornamento: 22 nov
L’uso del riconoscimento facciale e dell’autenticazione biometrica è sempre più diffuso sia in ambito investigativo sia in ambito commerciale. Questi sistemi consentono di identificare sospetti tramite software che confrontano immagini facciali con database, distinguendo tra verifica (uno-a-uno), identificazione (uno-a-molti) o categorizzazione delle caratteristiche individuali (Scalfati, 2020). La biometria si fonda su tratti anatomici, come impronte digitali, iride e volto, e su tratti comportamentali, come voce o andatura: elementi che permettono di associare l’identità fisica alla sua rappresentazione digitale.

Il quadro normativo italiano
La legislazione italiana ha progressivamente ampliato gli strumenti a disposizione delle autorità investigative. Il Piano straordinario contro le mafie (L. 13 agosto 2010, n. 136) consolida una serie di iniziative già avviate con il D.D.L. 92/2008 (conv. in L. 125/2008) e con la L. 94/2009, rafforzando misure di prevenzione e operazioni sotto copertura.
L’art. 6 della L. 136/2010 introduce elementi di particolare rilievo per il tema qui trattato:
uso di identità fittizie e documenti con fotografie non riconducibili all’agente;
uso della videoconferenza con volto oscurato;
ampliamento delle possibilità operative in situazioni ad alto rischio.
Queste pratiche, oggi, si intrecciano direttamente con la biometria: se l’identità è sempre più biometrica, anche le identità di copertura devono confrontarsi con l’esistenza di sistemi automatici di riconoscimento.
La protezione dei dati personali assume un ruolo centrale in questo contesto. Il Regolamento generale sulla protezione dei dati (GDPR, Regolamento UE 2016/679), recepito in Italia tramite il D.Lgs. 101/2018, stabilisce principi fondamentali per il trattamento dei dati biometrici, imponendo liceità, trasparenza, limitazione della finalità, minimizzazione dei dati, accuratezza, integrità e riservatezza. La normativa richiede che i dati biometrici siano trattati solo per finalità specifiche e legittime, con il consenso esplicito dell’interessato, garantendo così controllo e portabilità, oltre a diritti di rettifica e cancellazione. L’articolo 2-terdecies del Codice Privacy italiano riconosce, inoltre, la possibilità di esercitare tali diritti anche dopo la morte del titolare dei dati, aprendo la questione della persistenza digitale post-mortem e della cosiddetta eredità digitale, cioè la successione delle posizioni e dei dati connessi all’identità digitale del soggetto deceduto.
L’integrazione dell’intelligenza artificiale, più nello specifico di riconoscimento dell'identità, nei processi giudiziari o “giustizia aumentata” (Emiliano Troisi), promette maggiore efficienza nell’analisi dei casi e gestione dei dati. Progetti come “Algoritmo 12” illustrano il potenziale dell’AI nel supporto decisionale, pur evidenziando rischi di bias algoritmico e discriminazione. Un approccio etico e regolamentato, come quello del progetto AI-IstatData (IMTAI Awards 2025), dimostra che innovazione e tutela dei diritti fondamentali possono coesistere se accompagnate da supervisione e trasparenza.
.
Rischi, limiti e prospettiva biopolitica
L’uso crescente di tali tecnologie non può essere compreso senza considerare la loro dimensione biopolitica. L’identità personale non è solo un dato tecnico, ma un concetto che intreccia individualità e soggettività giuridica. A seconda dell’approccio adottato, essa può essere considerata un insieme di attributi empirici come nel modello utilitarista o una qualità intrinseca della persona, come nell’approccio ontologico. Questa differenza teorica incide sulle scelte normative: un’identità intesa come variabile empirica rende più facile ridurla a un insieme di dati, mentre un’identità ontologicamente fondata richiede maggiori garanzie e tutela della dignità umana.

La tecnologia non è infallibile: errori o sovrapposizioni possono generare falsi positivi. Non si tratta di episodi isolati. Mobilio (2021) sottolinea come il riconoscimento facciale possa minacciare i diritti fondamentali come; privacy, libertà personale e presunzione di innocenza. In assenza di regole chiare e trasparenti egli mette al corrente del rischio di profilazione discriminatoria, mostra come la biometria, sia comportamentale sia fisiologica, possa trasformarsi in uno strumento di esclusione, più che di sicurezza, se non adeguatamente regolamentata e sottoposta a supervisione democratica.
L’analisi dei casi reali, insieme agli studi accademici e storici, suggerisce alcune raccomandazioni chiave per un uso responsabile della biometria in Italia: audit³ indipendenti dei sistemi prima dell’implementazione, formazione degli operatori sulle tecnologie e sui limiti, regolamentazione chiara e trasparenza nell’utilizzo dei dati. La ricerca scientifica deve proseguire nello studio delle covariate latenti e nella robustezza statistica per prevenire falsi positivi e discriminazioni. In sintesi, l’autenticazione biometrica e il riconoscimento facciale offrono strumenti potenti per sicurezza e investigazione, ma necessitano di garanzie legali, supervisione umana e responsabilità etica, evitando che algoritmi percepiti come scatole nere diventino strumenti di ingiustizia.
Fonti utilizzate


Commenti