Minority Report nel Regno Unito: il Governo britannico vuole prevedere gli Omicidi con gli Algoritmi
Il governo britanico vorrebbe implementare un sistema che prevede gli omicidi , o le condizioni che li generano, in base ad algoritmi. Una sorta di Minority Report, ma distopico. Ecco la giustizia moderna L'articolo Minority Report nel Regno Unito: il Governo britannico vuole prevedere gli Omicidi con gli Algoritmi proviene da Scenari Economici.


Il governo del Regno Unito sta lavorando allo sviluppo di un sistema tecnologico avanzato con l’obiettivo di prevedere la probabilità che determinati individui possano commettere omicidi in futuro. L’iniziativa, che solleva tanto interesse quanto preoccupazione, si basa sull’uso di algoritmi progettati per analizzare grandi quantità di dati personali appartenenti a persone già note alle autorità.
L’idea richiama immediatamente alla mente scenari distopici resi celebri dalla fantascienza, in particolare il racconto di Philip K. Dick “Rapporto di minoranza” e l’omonimo film del 2002 diretto da Steven Spielberg, con Tom Cruise nel ruolo del protagonista. In “Minority Report“, una speciale unità di polizia chiamata “Precrimine” arrestava i criminali prima che potessero commettere i loro delitti, basandosi sulle visioni di individui mutanti dotati di capacità precognitive, i “precog”.
Il progetto britannico, pur condividendo la premessa della previsione del crimine, sostituisce i precog con la potenza di calcolo degli algoritmi. Non si tratta di visioni psichiche, ma di analisi statistiche e pattern recognition applicati a database contenenti informazioni su migliaia di persone. Queste informazioni potrebbero includere precedenti penali, contatti con le forze dell’ordine, dati sanitari, informazioni sociali e, potenzialmente, anche l’attività sui social media – un aspetto particolarmente delicato, considerando le recenti controversie nel Regno Unito riguardanti sanzioni, anche detentive, per contenuti pubblicati online ritenuti offensivi o minacciosi.
UK: The UK is now testing software designed to predict whether someone might become a future killer. Drawing on vast troves of government data, this “homicide prediction” project builds individual risk profiles, turning bureaucratic files into digital crystal balls. It’s Minority… pic.twitter.com/bVF1n74GD1
— @amuse (@amuse) April 9, 2025
Originariamente denominato “Progetto di Previsione degli Omicidi” (Homicide Prediction Project), il programma ha subito un cambio di nome, forse nel tentativo di mitigarne l’impatto mediatico, ed è ora conosciuto come “Condivisione dei Dati per Migliorare la Valutazione del Rischio” (Sharing Data to Improve Risk Assessment). Secondo il Ministero della Giustizia britannico, l’obiettivo dichiarato è nobile: incrementare la sicurezza pubblica identificando preventivamente i soggetti a più alto rischio di commettere reati violenti gravi, permettendo così interventi mirati.
Tuttavia, le critiche non si sono fatte attendere. Attivisti per i diritti civili e organizzazioni per la privacy hanno etichettato il progetto come “agghiacciante e distopico”. Le preoccupazioni sono molteplici e profonde. Innanzitutto, vi è il timore per la privacy dei cittadini, i cui dati personali verrebbero analizzati su larga scala per scopi predittivi. In secondo luogo, si sollevano dubbi sull’affidabilità e l’equità degli algoritmi stessi. È noto che gli algoritmi possono ereditare e persino amplificare i pregiudizi (bias) presenti nei dati su cui vengono addestrati. Se i dati iniziali riflettono disuguaglianze sociali o discriminazioni sistemiche, l’algoritmo potrebbe ingiustamente classificare come “ad alto rischio” individui appartenenti a determinati gruppi demografici o sociali. Perfino GROK se ne è accorto!
@amuse Plenty could go wrong with the UK’s homicide prediction project. Privacy risks loom large with sensitive data like mental health records at play—breaches could expose vulnerable people. The tool might also be biased, unfairly targeting racialized and low-income groups, as… pic.twitter.com/b2qqdTAoBI
— Grok (@grok) April 9, 2025
Il rischio di “falsi positivi” è un’altra preoccupazione centrale: persone innocenti potrebbero essere etichettate come potenziali futuri assassini sulla base di correlazioni statistiche fallibili, con conseguenze potenzialmente devastanti sulla loro vita, anche in assenza di un arresto preventivo in stile “Minority Report”. La semplice classificazione algoritmica potrebbe portare a una sorveglianza intensificata, a limitazioni nelle opportunità lavorative o sociali, e a uno stigma difficile da rimuovere.
La fonte originale della notizia menziona anche preoccupazioni relative a presunte modifiche legislative recenti nel Regno Unito che potrebbero introdurre disparità di trattamento su base etnica o di genere, sollevando il quesito se tali bias possano riflettersi anche nel funzionamento di questo algoritmo predittivo.
Qui si va verso uno stato di seroveglianza che, nel frattempo, non riesce a garantire la sicurezza di base dei cittadini. Sarebbe meglio, invece di affidare la giustizia a algoritmi che non sono nella realtà dei fatti, sorvegliare meglio le strade e intervenire nellee situazioni di disagio e di deviazione. Invece il overno si balocca con gli algoritmi.
E adesso una scena del vero Minority report, almeno quello è divertente..
Grazie al nostro canale Telegram potete rimanere aggiornati sulla pubblicazione di nuovi articoli di Scenari Economici.
L'articolo Minority Report nel Regno Unito: il Governo britannico vuole prevedere gli Omicidi con gli Algoritmi proviene da Scenari Economici.