L’Intelligenza Artificiale in aula: un uomo ‘riportato in vita’ per testimoniare in un processo negli Stati Uniti
Dal lutto alla voce: come l’IA ha dato parola a una vittima

In un’aula di tribunale dell’Arizona, la tecnologia ha compiuto un passo audace e controverso: grazie all’intelligenza artificiale (IA), un uomo deceduto è stato “riportato in vita” per pronunciare una dichiarazione d’impatto durante il processo contro il suo assassino. Questo evento, che sembra uscito da un episodio di Black Mirror, rappresenta una delle prime applicazioni giudiziarie di un’IA generativa in grado di ricostruire la voce e le parole di una persona scomparsa.
Il caso, che ha suscitato dibattiti etici, legali e tecnologici, apre nuove prospettive sull’uso dell’IA nei sistemi giudiziari, ma solleva anche interrogativi su dove tracciare il confine tra innovazione e manipolazione. In questo articolo, esploriamo i dettagli del caso, il funzionamento della tecnologia utilizzata, le implicazioni etiche e il potenziale impatto futuro.
Il caso: una voce dal passato in tribunale
Nel marzo 2025, in un tribunale di Tucson, Arizona, si è tenuta l’udienza per la condanna di Gabriel Horcasitas, accusato dell’omicidio di Christopher Pelkey, un uomo di 30 anni ucciso tre anni prima durante un alterco legato a un incidente stradale. Pelkey, vittima di un colpo di pistola, non ha mai avuto la possibilità di raccontare la sua versione dei fatti. Tuttavia, grazie a un’innovativa applicazione dell’IA, la sua voce è risuonata in aula, lasciando giudici, avvocati e presenti attoniti.
La sorella di Pelkey, con il supporto di un’azienda specializzata in tecnologie vocali, ha utilizzato registrazioni audio e video del fratello per addestrare un modello di IA generativa. Questo modello ha ricreato una voce sintetica straordinariamente simile a quella di Christopher, capace di pronunciare un discorso scritto dalla famiglia. Il testo, autorizzato dal tribunale, è stato pensato per riflettere ciò che Pelkey avrebbe potuto dire se fosse stato vivo, esprimendo il dolore per la sua vita interrotta e il desiderio di giustizia. La dichiarazione, pur non avendo valore probatorio, è stata ammessa come parte della victim impact statement, una prassi negli Stati Uniti che consente alle vittime o ai loro familiari di esprimere l’impatto emotivo del crimine durante la fase di determinazione della pena.
La voce di Pelkey, accompagnata da un’immagine statica del suo volto sullo schermo, ha dichiarato: “Non ho mai avuto la possibilità di dire addio alla mia famiglia. Non ho potuto vedere mio nipote crescere. Gabriel, tu hai scelto di togliermi tutto questo”. Le parole, sebbene scritte da altri, hanno avuto un impatto emotivo devastante, influenzando il tono dell’udienza e, secondo alcuni osservatori, la severità della condanna di Horcasitas, che ha ricevuto una pena detentiva significativa.
Come funziona l’IA generativa in questo contesto
L’IA utilizzata in questo caso appartiene alla categoria delle tecnologie di text-to-speech e voice cloning, che combinano algoritmi di apprendimento profondo (deep learning) con grandi quantità di dati audio. Il processo ha seguito questi passaggi principali:
- Raccolta dei dati: la famiglia di Pelkey ha fornito registrazioni audio e video, come messaggi vocali, video familiari e conversazioni registrate, per creare un database della voce di Christopher. Più dati vengono forniti, più accurata è la riproduzione.
- Addestramento del modello: gli ingegneri hanno utilizzato un modello di IA, simile a quelli impiegati per assistenti vocali avanzati o applicazioni come ElevenLabs, per analizzare le caratteristiche uniche della voce di Pelkey, come timbro, intonazione e accento.
- Scrittura del testo: la famiglia, con l’aiuto di un consulente legale, ha redatto un discorso che rispecchiasse i valori e il carattere di Pelkey, evitando contenuti che potessero essere interpretati come manipolativi o non autentici.
- Generazione della voce: il modello IA ha convertito il testo in un discorso audio, producendo una voce sintetica che imitava fedelmente quella di Pelkey. Il risultato è stato poi verificato per garantire che fosse emotivamente appropriato e legalmente accettabile.
Questa tecnologia non è del tutto nuova: applicazioni simili sono state utilizzate in ambito creativo, come nella produzione di audiolibri o nella preservazione di voci di personaggi pubblici. Tuttavia, il suo impiego in un contesto giudiziario rappresenta un precedente senza precedenti, che combina innovazione tecnologica con delicate questioni morali.
Un successo tecnologico, un dilemma etico
L’uso dell’IA per “riportare in vita” Pelkey ha suscitato reazioni contrastanti. Da un lato, la famiglia ha descritto l’esperienza come catartica, un modo per dare voce a chi non poteva più parlare e per onorare la memoria di Christopher. Dall’altro, critici ed esperti hanno sollevato preoccupazioni su diversi fronti:
- Autenticità e manipolazione: sebbene il discorso sia stato scritto dalla famiglia, la voce sintetica potrebbe essere percepita come una rappresentazione non autentica della volontà della vittima. Come garantire che le parole riflettano davvero ciò che la persona avrebbe detto?
- Impatto psicologico: l’ascolto di una voce “risorta” può avere effetti emotivi imprevedibili su giudici, giurati e familiari, rischiando di influenzare il processo in modi non previsti.
- Precedenti legali: l’ammissione di una testimonianza generata dall’IA apre la porta a utilizzi futuri, come la creazione di prove audio o video falsificate (deepfake). Senza regolamentazioni chiare, il sistema giudiziario potrebbe diventare vulnerabile a manipolazioni.
- Questioni etiche più ampie: riportare in vita digitalmente una persona deceduta solleva interrogativi sulla dignità post-mortem e sul consenso. Pelkey, ad esempio, non ha potuto autorizzare l’uso della sua voce.
Esperti di etica tecnologica, come il professor Luciano Floridi dell’Università di Oxford, hanno sottolineato la necessità di linee guida rigorose per l’uso dell’IA in contesti sensibili come quello giudiziario. “La tecnologia è uno strumento potente, ma senza un quadro etico chiaro rischia di diventare un’arma a doppio taglio”, ha commentato Floridi in un’intervista recente.
Il contesto: l’IA nei tribunali e oltre
Questo caso non è un episodio isolato, ma parte di un trend più ampio di integrazione dell’IA nei sistemi giudiziari. Negli Stati Uniti, l’IA è già utilizzata per analizzare prove, prevedere recidive criminali e ottimizzare la gestione dei casi. Ad esempio, algoritmi di predictive policing aiutano le forze dell’ordine a identificare aree ad alto rischio, mentre strumenti di riconoscimento vocale supportano le trascrizioni in tempo reale delle udienze.
Tuttavia, l’applicazione di tecnologie generative, come quella usata per Pelkey, rappresenta un salto qualitativo. In altri ambiti, l’IA generativa sta rivoluzionando il modo in cui interagiamo con il passato: dai documentari che ricreano interviste con personaggi storici, come Martin Luther King, alle applicazioni commerciali che permettono di “parlare” con versioni virtuali di celebrità defunte. Il caso dell’Arizona, però, è unico per il suo contesto legale e per il peso emotivo della testimonianza.
Secondo un rapporto del National Institute of Justice del 2024, il 62% dei tribunali americani sta esplorando l’uso di tecnologie avanzate, ma solo il 15% ha adottato protocolli specifici per l’IA generativa. Questo divario normativo rende casi come quello di Pelkey un terreno di prova per il futuro.
Reazioni e prospettive future
La notizia del caso Pelkey ha generato un’ondata di discussioni, sia nei media tradizionali che sui social media. Su X, diversi utenti hanno paragonato l’evento a scenari di fantascienza, con commenti che oscillano tra il fascino per l’innovazione e l’inquietudine per le sue implicazioni. “È incredibile che l’IA possa dare voce ai morti, ma è anche un po’ creepy”, ha scritto un utente. Altri hanno lodato la famiglia per aver trovato un modo per rendere giustizia a Christopher, mentre alcuni hanno criticato il tribunale per aver permesso un precedente così controverso.
Guardando al futuro, il caso potrebbe ispirare altri tribunali a sperimentare tecnologie simili, ma solo se accompagnate da regolamentazioni chiare. Gli esperti suggeriscono la creazione di comitati etici indipendenti per valutare l’uso dell’IA nei processi, insieme a normative che garantiscano trasparenza e consenso. Inoltre, sarà cruciale investire nella formazione di giudici e avvocati per comprendere le potenzialità e i rischi di queste tecnologie.