La polizia di londra sta usando un sistema di riconoscimento facciale che non funziona

La polizia di londra sta usando un sistema di riconoscimento facciale che non funziona
di

Da alcuni mesi la polizia di Londra sta utilizzando il riconoscimento facciale con l'obiettivo di rafforzare i suoi strumenti d'indagine. L'adozione della tecnologia ha sollevato numerosi interrogativi, oltre che accese proteste. Ma il problema è un altro: il sistema usato dalle forze dell'ordine londinesi dà risultati errati il 98% dele volte.

La tecnologia a servizio della giustizia dovrebbe finalmente aiutarci a velocizzare i processi, assicurare che i criminali non sfuggano alla certezza del diritto e, quindi, renderci finalmente più sicuri.

In passato sulle pagine di Everyeye.it vi abbiamo già raccontato di come alcuni strumenti innovativi siano stati adottati con successo dalle forze dell'ordine di tutto il mondo, come testimonia, ad esempio, l'impiego da parte di 90 città americane di microfoni e software in grado di individuare tempestivamente eventuali sparatorie, accelerando i tempi di intervento.

Eppure l'argomento è controverso, e non serve scomodare i timori sollevati dalla letteratura fantascientifica (o da produzioni moderne come Black Mirror) per capire come l'impiego di alcuni strumenti possa andare a colpire il diritto alla privacy o, addirittura, mettere in discussione lo stesso Stato di diritto moderno. A Londra, ad esempio, le forze dell'ordine stanno testando una tecnologia di riconoscimento facciale giudicata estremamente controversa.

L'obiettivo è chiaro: acciuffare i criminali attualmente sfuggiti dal radar della polizia; terroristi noti, ladri riusciti a scappare prima dell'arrivo della polizia, fuggiaschi, o anche solo pregiudicati che potrebbero costringere ad alzare il livello di sicurezza se addocchiati nei pressi di qualche luogo o manifestazione di interesse.

Ma il senso delle proteste è anche più evidente: l'organizzazione inglese Big Brother Watch, riporta The Verge, ha accusato le autorità inglesi di aver avviato il progetto senza coinvolgere l'opinione pubblica che, stando all'organizzazione, sarebbe perlopiù ignara di essere osservata e tracciata continuamente dalle telecamere di sicurezza disseminate lungo tutta la capitale inglese. Ma non solo: "stiamo trasformando ogni luogo pubblico in un check point di identificazione, e si rischia di scoraggiare i cittadini dal partecipare a manifestazioni pubbliche per paura di essere identificati", ha denunciato, infatti, la non-profit.

Ma oggi si aggiunge anche un ulteriore tassello a rendere più inquietante la questione: stando ai dati rilasciati dall'amministrazione londinese su richiesta della stessa Big Brother Watch, il software in uso avrebbe un tasso di falsi positivi incredibilmente alto. Parliamo del 98% dei casi. Solo due le persone identificate dall'IA impiegata che, effettivamente, avrebbe portato all'identificazione di due persone già registrate dalle forze dell'ordine. Pericolosi criminali? Macchè. Uno è una persona con disturbi psichiatrici che non è ricercata per arresto, l'altro era in una lista di persone sensibili ormai anacronistica e non più rilevante ai fini della sicurezza.

FONTE: The Verge
Quanto è interessante?
6

Gli ultimi Smartphone, TV 4K o gli accessori più GEEK li trovate in offerta su Amazon.it