L’errata identificazione dell’intelligenza artificiale porta all’ingiusta detenzione: donna trattenuta per cinque mesi in un caso di frode bancaria

0
9

Una donna del Tennessee, Angela Lipps, ha trascorso più di cinque mesi in prigione dopo essere stata falsamente collegata a un caso di frode bancaria nel Nord Dakota attraverso la tecnologia di riconoscimento facciale. L’incidente evidenzia le crescenti preoccupazioni circa l’accuratezza e il controllo dell’intelligenza artificiale (AI) nelle forze dell’ordine.

Il caso: identità sbagliata

Lipps è stata arrestata nel suo stato d’origine e trasportata nel Nord Dakota, un luogo che non aveva mai visitato, basandosi esclusivamente su una partita guidata dall’intelligenza artificiale. Secondo Lipps, quando fu rilasciata la vigilia di Natale dopo che le accuse erano cadute, lei era impreparata al freddo di Fargo.

“Avevo addosso i miei vestiti estivi, senza cappotto – faceva così freddo fuori, neve per terra – spaventato, volevo uscire, ma non sapevo cosa avrei fatto, come sarei tornato a casa”, ha detto Lipps in un’intervista a WDAY, una stazione televisiva di Fargo.

La polizia riconosce gli errori, ma si ferma prima delle scuse

Il capo della polizia di Fargo, David Zibolski, ha ammesso di aver commesso “passi falsi” nella gestione del caso, affermando che da allora il dipartimento ha rivisto la sua politica sull’intelligenza artificiale. Tuttavia, ha rifiutato di scusarsi direttamente con Lipps, nonostante i suoi piani di intentare una causa.

“Siamo felici di riconoscere quando commettiamo errori, e in questo caso ne abbiamo sicuramente commessi alcuni”, ha detto Zibolski in una conferenza stampa. “Ci scusiamo certamente per qualsiasi effetto, o effetto negativo, che ciò abbia avuto sulla fiducia nella comunità”.

Il problema: l’intelligenza artificiale come unica prova

L’avvocato di Lipps, Jay Greenwood, ha definito il caso “un ammonimento” sull’affidarsi all’intelligenza artificiale e al riconoscimento facciale senza un’adeguata verifica. Le autorità del Nord Dakota non hanno condotto ulteriori fasi investigative – come interviste con Lipps o i suoi associati – per confermare la corrispondenza generata dall’intelligenza artificiale.

“Si sono affidati alla tecnologia di riconoscimento facciale ma non hanno fatto altri sforzi per corroborare tale identificazione”, ha dichiarato Greenwood in una e-mail.

Questo caso solleva seri interrogativi sul giusto processo e sul rischio di errori giudiziari quando l’intelligenza artificiale viene utilizzata come prova principale nelle indagini penali.

L’incidente sottolinea la necessità di una supervisione rigorosa, di una revisione umana e di una verifica indipendente prima che le forze dell’ordine agiscano sui lead generati dall’intelligenza artificiale.

L’ingiusta detenzione di Angela Lipps serve a ricordare che le applicazioni incontrollate dell’intelligenza artificiale possono avere conseguenze devastanti per gli individui ed erodere la fiducia del pubblico nel sistema giudiziario.

Previous articleMeta testa la funzionalità segreta di visualizzazione delle storie di Instagram
Next articleBitcoin affronta la minaccia quantistica: aggiornamento urgente necessario entro il 2029