Nel futuro: la squadra precrimine è realtà

Nella Washington del 2054 i reati non esistono praticamente più grazie alla squadra Precrimine del commissario John Anderton e a tre veggenti (i precog) immersi in una vasca di deprivazione sensoriale che, tramite degli elettrodi applicati alla zona cerebrale, comunicano al sistema le loro visioni. La polizia, avvisata del pericolo, esce in strada e arresta i futuri colpevoli che, quasi senza batter ciglio (anche perché lo scan oculare viene usato come controllo sociale), incassano lo stato di fermo solo per l’intenzione criminale. È un mondo distopico quello raccontato da Philip K. Dick prima (1956) e Steven Spielberg poi (2002), ma è un mondo a cui siamo pericolosamente molto vicini. Da molti anni, infatti, le forze di polizia a varie latitudini ricercano (e sperimentano) strumenti in grado di aiutarle nella lotta al crimine: se prima si riunivano in sale conferenze e piazzavano le bandierine su una cartina nella speranza di individuare gli “hotspot” e magari riconoscere una certa schematicità per capire come pattugliare le zone più calde della città, ora sono dati e statistiche sempre più precisi ad alimentare gli algoritmi necessari allo scopo. Per citare Tom Cruise (aka John Anderton), “evitare che la cosa accada non cambia il fatto che sarebbe accaduta”.

Reati in Real Time: la squadra precrimine è realtà – Oggettività VS Pregiudizio

I metodi di polizia predittiva possono essere suddivisi in quattro categorie: quelli che prevedono i reati; quelli che prevedono i responsabili dei reati; quelli che prevedono le identità dei colpevoli; quelli che prevedono le vittime. La maggior parte di questi metodi si serve dell’intelligenza artificiale e dovrebbe quindi consentire alle forze di polizia di lavorare più proattivamente e con risorse limitate, sviluppando così strategie idonee che anticiperanno atti criminali o renderanno le indagini più efficaci. “La gente ha chiesto e chiede a gran voce di tagliare i fondi alla polizia, ma questo è già accaduto tempo fa – dice Yeshimabeit Milner, co-fondatrice di Data for Black Lives – Le città non hanno le risorse da anni e stanno progressivamente sostituendo i poliziotti con gli algoritmi”. Questo perché il presupposto principale riguarda il fatto che gli algoritmi sembra siano più oggettivi degli esseri umani. Se negli anni Novanta si usavano alberi decisionali regolamentati, oggi tutto si svolge tramite apprendimento automatico ma, quando i tempi sono stretti, si ricorre ancora a un po’ di pregiudizio personale. In molti casi, soprattutto nelle udienze predibattimentali, i giudici devono analizzare dozzine di casi in poco tempo, tanto che uno studio dedicato a Cook County (Illinois) ha svelato che non dedicano più di una trentina di secondi a ogni caso specifico. È dunque inevitabile che, in alcuni casi, per accorciare umanamente i tempi, siano quasi costretti a metterci “del loro” (anche se pure in questo caso esiste COMPAS che emette uno score dall’1 al 10 per misurare la probabilità di recidività di un arrestato nel caso in cui venga rilasciato).

Reati in Real Time: la squadra precrimine è realtà – I preconcetti e il razzismo

E questo è uno dei primi “capi d’accusa” dei detrattori delle tecniche precrimine. Il 31 agosto del 2016, una coalizione di 17 associazioni pubblicò un comunicato in merito agli strumenti utilizzati dalla polizia predittiva in America, sottolineando i pregiudizi di stampo razziale, la mancanza di trasparenza e altre lacune che portavano a ingiustizie, soprattutto per le persone di etnia non bianca: “Sistemi programmati per consolidare lo status quo non possono avere spazio all’interno della polizia americana […] Previsioni automatizzate basate su dati faziosi (per quanto possano sembrare oggettive e neutrali) intensificheranno ulteriormente discrepanze ingiustificate da parte delle forze dell’ordine. Vista la complessità e la segretezza di questi strumenti, la polizia e le comunità al momento dispongono di una capacità limitata nella valutazione di rischio di dati faziosi o di sistemi predittivi fallati.

Persino all’interno di un sistema giudiziario corrotto, ci sono situazioni in cui i dati possono essere usati a scopi benefici: ad esempio per identificare persone con instabilità mentali per poterle sottoporre a trattamenti terapeutici anziché punitivi, o per evidenziare avvisaglie di comportamenti scorretti da parte degli stessi agenti. Ad ogni modo, allo stato attuale delle cose, oggi questo tipo di strategie non viene utilizzato a scopi costruttivi ma piuttosto come misura restrittiva all’interno di alcune comunità già sottoposte a uno scrutinio sproporzionato da parte delle forze dell’ordine”. A luglio 2020, la scrittrice Dorothy Roberts, professoressa di legge e diritti sociali all’Università della Pennsylvania, aveva espresso ancora meglio il concetto: “Il razzismo ha sempre riguardato le previsioni, facendo sembrare alcuni gruppi etnici predisposti in qualche modo a compiere atti negativi, giustificandone così il controllo”.

Reati in Real Time: la squadra precrimine è realtà – Gli hotspot americani

Negli Stati Uniti, grazie alle tecniche di tecnologia predittiva, il Ministro di Giustizia è riuscito a togliere a Camden (New Jersey) la “coccarda” di città più pericolosa d’America, riducendo così gli omicidi del 41% e i reati del 26%. A Santa Cruz (California), nell’arco di sei mesi, suddividendo le aree in 46 metri quadrati, la polizia ha individuato le zone più a rischio, pattugliandole anche quando non riceveva chiamate, e riducendo così le rapine del 19% (con 24 arresti). A Los Angeles, pur riducendo gli svaligiamenti del 12% nei quartieri di Foothills, il dipartimento locale aveva lanciato LASER (chiamato così perché doveva operare chirurgicamente, proprio come un medico che toglie un tumore), tuttavia, sospendendolo nel 2019 perché aveva ormai messo principalmente nel mirino le comunità latine e afroamericane. LASER si serviva principalmente del software Palantir, che però aveva mappato le attività criminali basandosi sulle chiamate ricevute, i dossier e le informazioni raccolte dagli agenti, creando di fatto un circolo vizioso. Proprio come un navigatore che ci riporta continuamente alla stessa uscita dell’autostrada perché non è a conoscenza della deviazione (meglio quindi seguire la segnaletica fisica verticale…), se la polizia prendeva di mira una certa zona, generava più dossier, arresti e fermi in quella zona tanto che i dati generati avrebbero riportato gli agenti a prevenire altri reati esattamente nella stessa area della città.

Uno degli strumenti più utilizzati in questo senso si chiama PredPol (ora ribrandizzato Geolitica) ed è una sorta di previsione del crimine aggiornata in tempo reale, proprio come il meteo. A Chicago, la polizia locale aveva creato un software dell’Istituto di Tecnologia dell’Illinois per stilare un elenco di persone con più probabilità di subire o essere coinvolte in un crimine efferato. Un’inchiesta del Chicago Sun-Times mostrò che in quell’elenco c’erano tutte le persone arrestate o registrate con impronte digitali a Chicago dal 2013, ma il programma venne sospeso definitivamente nel 2020, quando sull’elenco finirono 426 persone a rischio omicidio nel 2013-14 per poi scoprire che soltanto tre delle 405 vittime avevano effettivamente coinciso con la previsione. A giugno 2022 poi, i ricercatori dell’Università di Chicago hanno sviluppato un nuovo algoritmo in grado di prevedere le infrazioni con un anticipo di sette giorni e una precisione del 90%. “Il passato non ci dice niente del futuro – sentenzia però il professor Chattopadhyay di Uni Chicago – e la domanda è: fino a che punto il passato incide sul futuro? E fino a che punto gli eventi sono spontanei o genuinamente casuali? La nostra abilità predittiva è limitata da questo”.

Reati in Real Time: la squadra precrimine è realtà – Il crime linking italiano

Il primo gennaio del 2020, nello Stato di Himachal Pradesh, in India, la polizia ha installato oltre 19.000 telecamere a circuito chiuso con l’obiettivo di arrivare a 68.000, ovvero una ogni cento abitanti. A Delhi, Telangana e Jharkhand, inoltre, sono già presenti dei sistemi di polizia predittiva. Come in America per i discorsi legati alle minoranze, anche in India il puzzle non si incastra più di tanto poiché alla fine gli emarginati (persone appartenenti a caste inferiori o religioni minori) sono gli indiziati principali. Ad esempio, sei uomini della comunità Pardhi trascorsero ben sedici anni in isolamento nel braccio della morte solo perché la polizia aveva presunto che fossero colpevoli per via dell’appartenenza alla loro comunità. L’unico software che sembra più equo degli altri è addirittura italiano: KeyCrime venne ideato nel 2008 dall’ex assistente capo della Questura di Milano Mario Venturi che, dopo decenni nella polizia, lo trasformò in una startup per contrastare le rapine in ambito commerciale. Quello che differenziava KeyCrime dagli altri software di polizia predittiva era soprattutto un tipo di ricerca svolta basandosi su un “comune denominatore”: “L’idea è nata analizzando una montagna di fascicoli inerenti ai vari reati – spiega Venturi a Wired – in cui i dati erano raccolti malamente ma che contenevano comunque informazioni che avrebbero permesso di ipotizzare dietro quali crimini, seppur avvenuti in tempi e luoghi diversi, ci fosse la stessa mano”. Invece di individuare i “punti caldi”, dunque, perché non individuare, piuttosto, le “mani calde”? KeyCrime aggregava migliaia di dati (dove, come, quando, mezzi, armi e vestiti utilizzati per i colpi) per mettere in correlazione reati e colpevoli secondo un principio denominato “crime linking”. Da KeyCrime è poi nato Giove, sistema collaudato dal Dipartimento di pubblica sicurezza del Ministero dell’Interno nel 2020 che viene usato soprattutto per prevedere la criminalità cosiddetta “predatoria”: molestie e violenze sessuali, reati contro il patrimonio, truffe e raggiri (e già tra il 2012 e il 2021 le rapine si sono dimezzate). Anche qui, però, siamo di fronte alle ambiguità legate a etnie e provenienza geografica, una possibile violazione della privacy, oltre al fatto che manca un comunicato ufficiale del Dipartimento di pubblica sicurezza che avrebbe il compito di chiarire l’utilizzo delle banche dati necessarie a istruire l’algoritmo. Giove dialogherà con Sari (il sistema di riconoscimento facciale)? Ci saranno squadre speciali? Il sistema comporterà arresti cautelativi o solo azioni deterrenti da parte delle forze dell’ordine? “Mi dispiace, John, ma dovrai scappare di nuovo…”.

Per acquistare l'ultimo numero della nostra rivista clicca qui:

Amen

La guerra e la solitudine di Papa Francesco, tra i pochi a chiedere con forza la pace: ce ne parla Alessandro Di Battista con un commento in apertura. All’interno anche il 2024 in Medio Oriente, la crisi climatica, il dramma dei femminicidi in Italia, la cultura e lo sport. Da non perdere, infine, le rubriche Line-up, Ultima fila e Nel mondo dei libri, realizzate da Alessandro De Dilectis, Marta Zelioli e Cesare Paris.

Ultimi articoli

il Millimetro

Newsletter

Approfondimenti, interviste e inchieste direttamente sulla tua email

Newsletter