Ecco come funziona Sari, il software usato dalla Polizia per riconoscere il branco di Capodanno

La tecnologia si basa su due algoritmi di intelligenza artificiale che analizzano le immagini della banca dati delle forze dell’ordine e dei social

Ecco come funziona Sari, il software usato dalla Polizia per riconoscere il branco di Capodanno
TiscaliNews

I componenti del branco che la notte di Capodanno a Milano ha molestato sessualmente alcune giovani donne sono stati identificati grazie alla tecnologia di riconoscimento facciale Sari, utilizzata dalla polizia italiana.

Al momenti gli indagati sono 16, i fermati per violenza di gruppo due. Sari analizzando le immagini delle telecamere è riuscito a dare un nome ai volti del branco.

Sari, acronimo che del Sistema Automatico di Riconoscimento Immagini è un software utilizzato dalla Polizia dal 2018. Grazie all’intelligenza artificiale riesce a riconoscere le persone riprese da una telecamera di sorveglianza se presenti nella banca dati delle forze dell’ordine (AFIS) che conta ben 16 milioni di fotosegnalamenti.

Ma il software riesce ad utilizzare ai fini del riconoscimento anche le immagini pubblicate sui social. Il riconoscimento dei componenti del branco è stato possibile proprio perché alcuni di loro hanno postano commenti a poche ore di distanza dalle aggressioni di Milano.

Sari si basa su due distinti algoritmi di riconoscimento facciale che estraggono dal database delle forze dell’ordine o dai social un elenco di volti simili a quelli presenti nelle immagini delle telecamere. L’identificazione finale avviene però tramite l’intervento di alcuni operatori specializzati della Polizia scientifica.

Se le immagini delle telecamere sono nitide l’identificazione da parte di Sari è più semplice, se invece sono poco chiare allora il sistema può selezionare anche fino a una cinquantina di potenziali nominativi. In questi casi è di fondamentale importanza il lavoro svolto dagli operatori specializzati della polizia.

Il software è stato sviluppato da una azienda italiana. La versione utilizzata dalle forze dell’ordine non sfrutta però tutte le potenzialità della tecnologia. Una versione ancora più potente capace di analizzare filmati in tempo reale è stato bocciato dal Garante per la Privacy che ne ha impedito l’utilizzo per evitare il rischio di forme di sorveglianza indiscriminata di massa.

Limiti che ovviamente non esistono in stati non democratici come la Cina dove il riconoscimento facciale è ampiamente utilizzato dalle autorità come strumento di controllo sociale. E’ il lato oscuro delle nuove tecnologie e dell’intelligenza artificiale: da un lato possono essere utilizzate per consentire alle forze dell’ordine di catturare i delinquenti, dall’altro possono servire come strumento di repressione.