Il Regno Unito testa un software per "prevedere" futuri omicidi: dubbi sulla privacy
lentepubblica.it Nel Regno Unito è in fase di sperimentazione un software che, sulla base di dati raccolti da polizia e pubblica amministrazione, punta a prevedere se una persona potrà diventare un assassino e se compierà futuri omicidi: ma l’iniziativa fa discutere sia per una questione di privacy, sia per una questione di discriminazione. L’iniziativa, nota ufficialmente […] The post Il Regno Unito testa un software per "prevedere" futuri omicidi: dubbi sulla privacy appeared first on lentepubblica.it.

lentepubblica.it
Nel Regno Unito è in fase di sperimentazione un software che, sulla base di dati raccolti da polizia e pubblica amministrazione, punta a prevedere se una persona potrà diventare un assassino e se compierà futuri omicidi: ma l’iniziativa fa discutere sia per una questione di privacy, sia per una questione di discriminazione.
L’iniziativa, nota ufficialmente come Sharing Data to Improve Risk Assessment, è condotta dal Ministero della Giustizia britannico con l’obiettivo dichiarato di rafforzare la capacità delle istituzioni di valutare i rischi legati agli atti violenti. Secondo quanto emerso da documenti ottenuti dall’organizzazione indipendente Statewatch, il progetto si fonda sull’analisi di profili elaborati a partire dalle informazioni di circa 500.000 cittadini.
Un software per l’analisi predittiva dei futuri omicidi nel Regno Unito che divide in materia di privacy e discriminazioni
Il programma, per ora presentato come studio esplorativo utile alla definizione delle politiche pubbliche, non ha applicazioni giudiziarie immediate. Tuttavia, il contenuto delle carte rese pubbliche da Statewatch solleva interrogativi inquietanti. I dati utilizzati includono informazioni su sospetti, vittime, persone scomparse, soggetti vulnerabili, testimoni e perfino cittadini segnalati come potenzialmente pericolosi, spesso senza che abbiano mai commesso reati.
Gli algoritmi impiegati tengono conto anche di fattori sanitari come problemi psichici, dipendenze, tentativi di suicidio, disabilità e fragilità sociale. Secondo i documenti, queste variabili forniscono un “potere predittivo significativo” ai modelli sviluppati dal team di data science del Ministero.
L’ombra del pregiudizio
Organizzazioni per i diritti civili, come Amnesty International UK, lanciano l’allarme. In un dettagliato rapporto intitolato Automated Racism, l’associazione denuncia come queste tecnologie possano rafforzare le disuguaglianze razziali e sociali. Dati raccolti in precedenti analisi mostrano infatti che, pur rappresentando la maggioranza delle vittime e dei sospettati di omicidio nel Regno Unito, le persone bianche risultano meno colpite da pratiche come il fermo e la perquisizione rispetto alle minoranze etniche.
Nel solo anno conclusosi a marzo 2023, ogni 1.000 cittadini neri sono stati effettuati 24,5 fermi contro i 5,9 riservati ai bianchi. La maggior parte di queste operazioni, circa il 69%, non ha portato ad alcun seguito giudiziario. Amnesty sottolinea che sistemi predittivi come questi, alimentati da dati già viziati da discriminazioni, finiscono per criminalizzare intere comunità sulla base del quartiere di residenza o del colore della pelle.
Una tecnologia già in uso
Contrariamente a quanto dichiarato dalle autorità, molti strumenti simili sono già operativi in diverse aree del Paese. Almeno 33 forze di polizia – tra cui quelle di Londra, Manchester, West Midlands, Essex e Avon & Somerset – hanno utilizzato sistemi di profilazione e previsione del rischio. Di queste, 11 hanno impiegato modelli mirati a prevedere il comportamento individuale.
A Londra, ad esempio, la Metropolitan Police ha adottato un sistema chiamato Violence Harm Assessment, che consente di inserire soggetti in una banca dati sulla base di semplici sospetti, anche in assenza di accuse. In quartieri come Lambeth e Southwark, a prevalenza di popolazione nera, le perquisizioni e l’uso della forza da parte della polizia risultano tra i più elevati della capitale.
Nel West Midlands, un progetto di mappatura predittiva dei crimini legati ad armi da taglio ha mostrato un’efficacia discutibile: l’algoritmo si è rivelato impreciso nell’80% dei casi, pur continuando a giustificare interventi sproporzionati su persone nere o di origine straniera. Nel 2024, i fermi per cittadini bianchi sono stati 2,3 ogni 1.000 abitanti; per le persone nere, il numero sale a 10,3.
Anche l’Essex Police è stata criticata per l’utilizzo di dati su “associazioni criminali” per definire profili sospetti, criminalizzando indirettamente chi ha solo legami personali o familiari con soggetti noti alle autorità. Inoltre, l’impiego di informazioni sanitarie – come dipendenze o disturbi mentali – viene ritenuto un modo per trasformare problemi di salute in indicatori di potenziale criminalità.
Amnesty uk: “Siamo più di un punteggio”
Sacha Deshmukh, direttore esecutivo di Amnesty UK, è netto: “Questi strumenti non garantiscono maggiore sicurezza, ma violano i diritti fondamentali. Nessuno dovrebbe essere giudicato da un algoritmo, né essere considerato un rischio solo per la propria condizione sociale o etnica”. Per l’organizzazione, si tratta di tecnologie da vietare in tutto il Regno Unito.
Amnesty chiede che sia garantita piena trasparenza sull’uso di questi sistemi, e che le persone coinvolte possano conoscerne l’esistenza e contestarne le conseguenze. “I sistemi predittivi sono costruiti su dati discriminatori e non fanno che amplificare il razzismo istituzionale”, conclude Deshmukh.
Un futuro inquietante
Nonostante le rassicurazioni del governo britannico sul fatto che si tratti ancora solo di una fase sperimentale, i riferimenti nei documenti ufficiali alla “futura operatività” del sistema alimentano i timori. L’idea che un software possa anticipare un crimine prima che venga commesso, evocando scenari da fantascienza alla Minority Report, pone interrogativi cruciali sul futuro del diritto, della privacy e della libertà individuale.
In gioco non c’è solo l’efficacia di un algoritmo, ma il modello di società che si sta costruendo: uno in cui la sorveglianza preventiva potrebbe diventare la norma e in cui, per alcune comunità, la presunzione d’innocenza rischia di diventare un’eccezione.
Il dossier di Amnesty UK
Qui il documento completo (in lingua inglese).
The post Il Regno Unito testa un software per "prevedere" futuri omicidi: dubbi sulla privacy appeared first on lentepubblica.it.