Allarme sicurezza: l’AI ora supera i virologi (ed è in mano a tutti)
I modelli AI hanno più conoscenze pratiche dei virologi esperti, secondo uno studio esclusivo. Svolta che promette cure, ma anche catastrofi. L'articolo Allarme sicurezza: l’AI ora supera i virologi (ed è in mano a tutti) è tratto da Futuro Prossimo.

I virologi hanno un nuovo collega in laboratorio, e non è umano. Un recente studio, condiviso in esclusiva con TIME, ha dimostrato che i modelli di intelligenza artificiale come GPT e Claude ora superano i virologi con PhD nella risoluzione di problemi complessi in laboratorio. È una svolta epocale: mentre i virologi esperti hanno ottenuto un punteggio medio del 22,1% nelle loro aree di competenza dichiarate, il modello o3 di OpenAI ha raggiunto un’accuratezza del 43,8%. “Questo mi rende un po’ nervoso”, ammette Seth Donoughe, ricercatore di SecureBio e co-autore dello studio, “perché per la prima volta nella storia, praticamente chiunque ha accesso a un esperto di virologia AI non giudicante che potrebbe guidarli attraverso processi di laboratorio complessi per creare armi biologiche”. Una preoccupazione fondata che solleva interrogativi inquietanti: siamo preparati per un mondo in cui la creazione di virus letali è accessibile a chiunque abbia una connessione internet?
Una spada di Damocle tecnologica
Lo studio è stato condotto da ricercatori del Center for AI Safety, del MIT Media Lab, dell’università brasiliana UFABC e dell’organizzazione no-profit SecureBio. I risultati sono impressionanti e preoccupanti allo stesso tempo: oltre all’o3 di OpenAI con il suo 43,8% di accuratezza, anche il Gemini 2.5 Pro di Google ha raggiunto un notevole 37,6%, superando nettamente gli esperti umani.
Non si tratta di domande teoriche o facilmente “googlabili”. I test erano progettati specificamente per misurare la capacità di risolvere problemi pratici complessi. “Le domande hanno questa forma: ‘Ho coltivato questo particolare virus in questo tipo di cellula, in queste condizioni specifiche, per questo periodo di tempo. Ho questa quantità di informazioni su ciò che è andato storto. Puoi dirmi qual è il problema più probabile?'”, spiega Donoughe.
La velocità con cui questi modelli stanno migliorando è altrettanto allarmante. Il Claude 3.5 Sonnet di Anthropic, per esempio, è passato dal 26,9% al 33,6% di accuratezza tra il modello di giugno 2024 e quello di ottobre 2024. E una versione preliminare del GPT 4.5 di OpenAI ha superato il GPT-4o di quasi 10 punti percentuali.
L’AI che surclassa i virologi: il lato positivo della medaglia
Nonostante i rischi, le implicazioni positive di questa scoperta sono enormi. L’intelligenza artificiale potrebbe aiutare i virologi esperti nel loro lavoro critico di lotta contro i virus, accelerando lo sviluppo di medicinali e vaccini, migliorando la progettazione di studi clinici e perfezionando i metodi di rilevamento delle malattie.
Tom Inglesby, direttore del Johns Hopkins Center for Health Security, sottolinea un altro potenziale beneficio: “Questi modelli potrebbero aiutare scienziati in diverse parti del mondo, che non hanno ancora quel tipo di competenze o capacità, a svolgere un prezioso lavoro quotidiano sulle malattie che si verificano nei loro paesi”.
Un gruppo di ricercatori, ad esempio, ha scoperto che l’AI li ha aiutati a comprendere meglio i virus della febbre emorragica nell’Africa subsahariana.

Il lato oscuro della conoscenza
La virologia e la biomedicina sono da tempo all’avanguardia tra le motivazioni dei leader dell’AI per costruire modelli sempre più potenti. Il problema è che questi stessi strumenti potrebbero essere utilizzati da attori malintenzionati per creare virus e armi biologiche senza alcuna delle tipiche formazioni richieste per accedere a laboratori di biosicurezza di livello 4 (BSL-4), quelli che si occupano degli agenti infettivi più pericolosi ed esotici.
“Nel corso della storia, ci sono stati un discreto numero di casi in cui qualcuno ha tentato di creare un’arma biologica, e uno dei principali motivi per cui non ha avuto successo è perché non aveva accesso al giusto livello di competenza”, spiega Donoughe. “Per questo è opportuno essere cauti su come queste capacità vengono distribuite.”
Mesi fa, gli autori dello studio hanno inviato i risultati ai principali laboratori di AI. In risposta, xAI ha pubblicato un quadro di gestione del rischio impegnandosi a implementare misure di salvaguardia virologiche per le future versioni del suo modello Grok. Anche OpenAI ha dichiarato di aver “implementato nuove misure di mitigazione a livello di sistema per i rischi biologici” per i suoi nuovi modelli rilasciati la settimana scorsa. Anthropic ha incluso i risultati delle prestazioni del modello in recenti schede di sistema, ma non ha proposto misure di mitigazione specifiche. I responsabili di Gemini (l’AI di Google) hanno al momento rifiutato di commentare le osservazioni della redazione di Time.
Le soluzioni possibili
Dan Hendrycks, direttore del Center for AI Safety, esorta le aziende di AI a implementare dei “guardrail” per prevenire questo tipo di utilizzo.
“Se le aziende non disporranno di buone salvaguardie entro sei mesi, a mio parere sarà un azzardo”, afferma.
Hendrycks sostiene che la soluzione non è fermare questi modelli o rallentarne il progresso, ma “circoscriverli in dei limiti”, in modo che solo terze parti fidate abbiano accesso alle loro versioni non filtrate. “Dovremmo dare solo alle persone che ne fanno un uso legittimo (come un ricercatore del dipartimento di biologia del MIT) la possibilità di chiedere come manipolare virus mortali”, dice. “Ma persone qualunque che hanno creato un account un secondo fa non dovrebbero poterlo fare”.
Inglesby, dal canto suo, sostiene che l’autoregolamentazione del settore non è sufficiente. E chiede ai legislatori e ai leader politici di elaborare un approccio politico per regolamentare i biorischi dell’AI. “La situazione attuale è che le aziende più virtuose stanno impiegando tempo e denaro per fare questo lavoro, il che è positivo per tutti noi, ma altre aziende non devono farlo”, dice. “Non ha senso. Non è bene per il pubblico non avere alcuna comprensione di ciò che sta accadendo”.
“Quando sta per essere rilasciata una nuova versione di un LLM”, aggiunge Inglesby, “dovrebbe esserci un requisito per valutare quel modello e assicurarsi che non produca risultati a livello di pandemia.”
Stiamo assistendo alla nascita di un’era in cui la democratizzazione della conoscenza avanzata porta con sé anche rischi esistenziali mai visti prima. La corsa all’intelligenza artificiale sempre più potente sta procedendo a un ritmo tale che le nostre strutture di governance e le nostre riflessioni etiche non riescono a stare al passo.
In un mondo ideale, queste tecnologie porterebbero solo benefici, ma la storia ci insegna che la prudenza non è mai troppa.
L'articolo Allarme sicurezza: l’AI ora supera i virologi (ed è in mano a tutti) è tratto da Futuro Prossimo.