Tutti i nodi (dell’IA) vengono al pettine

Ecco perché il 2025 sarà l’anno in cui la bolla dei modelli linguistici di grandi dimensioni dietro l'intelligenza artificiale si sgonfierà. L’analisi del professore Enrico Nardelli dell'università di Roma "Tor Vergata", presidente di “Informatics Europe” e direttore del Laboratorio Nazionale “Informatica e Scuola” del CINI

Apr 19, 2025 - 07:13
 0
Tutti i nodi (dell’IA) vengono al pettine

Ecco perché il 2025 sarà l’anno in cui la bolla dei modelli linguistici di grandi dimensioni dietro l’intelligenza artificiale si sgonfierà. L’analisi del professore Enrico Nardelli dell’università di Roma “Tor Vergata”, presidente di “Informatics Europe” e direttore del Laboratorio Nazionale “Informatica e Scuola” del CINI

 

Scrivevo a marzo del 2023, quando tutto il mondo stava cominciando a parlare delle impressionanti capacità di ChatGPT, il primo strumento di intelligenza artificiale generativa (IAG) noto al grande pubblico, e si diffondeva su tutti i mezzi di comunicazione la profezia che l’intelligenza artificiale (IA) avrebbe sostituito la gran parte dei lavoratori, questa frase: «In altre parole, se non sapete già la risposta corretta, ciò che vi dice tale sistema rischia di non essere di alcun aiuto». Due settimane dopo aggiungevo: «poiché ciò che fanno lo esprimono in una forma che per noi ha significato, proiettiamo su di essa il significato che è in noi».

Il motivo risiedeva, molto semplicemente, nel modo in cui questi sistemi (tecnicamente definiti Large Language Models, cioè modelli linguistici di grandi dimensioni – LLM) funzionano: usando un modello probabilistico del linguaggio, assai sofisticato e messo a punto attraverso una sterminata base di testi, che contiene statistiche sulle continuazioni più plausibili di sequenze di parole e di frasi. Questa caratteristica permette loro di esibire prestazioni linguistiche impressionanti, di quelle che quando sono esplicitate da esseri umani vengono considerate intelligenti, ma che in realtà non sono tali. Cioè, esibire competenza sulle parole che descrivono il mondo non equivale ad avere competenza sul mondo. Ma poiché il cervello degli esseri umani è configurato in modo tale da vedere un significato in configurazioni del tutto arbitrarie, proiettavamo su tali strumenti l’intelligenza che risiede in noi.

Dal momento che già allora gli interessi economici messi in gioco sull’IAG erano enormi (e da allora centinaia di miliardi di dollari hanno continuato ad essere investiti in questo settore), si è però continuato a raccontare la stessa storia, che a breve l’intelligenza artificiale sarebbe stata in grado di fornire prestazioni umane in tutti i settori. Come al solito, mentre la massa continuava a seguire il pifferaio magico, esperti ben più quotati di me invitavano alla cautela. Io ne ho scritto diverse volte, qui e qui a proposito di scuola, qui e qui a proposito delle relazioni sociali, e qui a proposito del termine in sé, ricordando che questi sistemi producono espressioni che per noi hanno un significato perché proiettiamo su di essi quella comprensione del significato che in realtà è dentro di noi. Di conseguenza non avremmo potuto farci affidamento per sostituire le persone. Pian piano questo sta emergendo – anche se in forma per ora cauta – dalle stesse parole dei CEO e chief scientist delle aziende all’avanguardia in questo settore e degli investitori nel settore della tecnologica, e sembra proprio che il 2025 sarà l’anno in cui anche questa bolla si sgonfierà.

All’inizio di questo mese, Andriy Burkov (ricercatore esperto nell’apprendimento automatico e autore di volumi di successo sull’apprendimento automatico – la tecnica alla base degli LLM) ha commentato su X una serie di post che evidenziavano le terribili prestazioni degli LLM nel ragionamento matematico con queste parole «Solo se tu già conosci la risposta corretta o ne sai abbastanza per riconoscerne una scorretta (cioè, sei un esperto del settore) li puoi usare per qualcosa». Sostanzialmente, le stesse parole che avevo usato io nel post ricordato in apertura.

Pochi giorni dopo Brad Delong (professore di economia all’università della California a Berkeley) in un post sul suo blog ha scritto «Se il tuo LLM ti fa venire in mente che abbia un cervello, è solo perché stai facendo una proiezione non perché sta pensando». Anche in questo caso, sono sostanzialmente le stesse parole usate da me due anni fa.

Fa ovviamente piacere avere conferme delle proprie intuizioni, ma soprattutto è interessante vedere che, come ho detto con diverse parole nel titolo, la consapevolezza che questo nuovo imperatore non abbia poi dei vestiti così belli si sta pian piano diffondendo in tutto il mondo.

Attenzione, questo non vuol dire che gli strumenti di IAG siano inutili. Al contrario, essi sono utilissimi, se li usi come bruta forza lavoro in un settore che conosci bene, avendo contezza della loro incapacità di comprensione. Sono degli amplificatori delle nostre capacità cognitive, come le macchine industriali lo sono delle nostre capacità fisiche. Ma come in quel caso, se non le sai usare, rischi di fare dei disastri. Mettersi alla guida di un aeroplano senza preparazione non ti farà volare sopra i mari come un uccello ma, più probabilmente, ti porterà a una brutta fine. Usare l’IAG in un settore che non si conosce espone agli stessi rischi. Se padroneggi la materia, invece, puoi in molti casi – ma non tutti! – lavorare più veloce, purché continui a fare attenzione a ciò che essa ti propone.

Una recente indagine sul futuro della ricerca nell’IA, svolta dall’Associazione Americana per l’Intelligenza Artificale tra gli esperti del settore, ha rilevato che il 76% ritiene “improbabile” o “molto improbabile” che gli LLM condurranno a quella che si chiama “intelligenza artificiale generale”. Saranno certamente necessari metodi diversi, che non usano solo un approccio di tipo statistico, come accade con gli attuali LLM, ma che adottano anche un approccio di tipo “simbolico” (che è poi quello che veniva usato nel settore dell’intelligenza artificiale prima dell’esplosione delle tecniche di apprendimento automatico) integrando quindi diverse tecniche.

Insomma, il futuro di questa tecnologia è certamente interessante, purché manteniamo la consapevolezza che, adesso come millenni fa, è necessario perseguire un’aurea mediocritas, seguire la via di mezzo.

(I lettori interessati potranno dialogare con l’autore, a partire dal terzo giorno successivo alla pubblicazione, su questo blog interdisciplinare).