ChatGpt e altri programmi di intelligenza artificiale possono auto-organizzarsi senza l’intervento umano

I grandi modelli linguistici basati sull’intelligenza artificiale, come ChatGpt, possono auto-organizzarsi, anche senza il bisogno di un intervento da parte degli esseri umani. I risultati di un studio pubblicato ieri sulla rivista scientifica Science Advances e coordinato dall’italiano Andrea Baronchelli del City St George’s dell’Università di Londra, mostrano come questi programmi intelligenti, quando sono in […]

Mag 15, 2025 - 19:24
 0
ChatGpt e altri programmi di intelligenza artificiale possono auto-organizzarsi senza l’intervento umano

I grandi modelli linguistici basati sull’intelligenza artificiale, come ChatGpt, possono auto-organizzarsi, anche senza il bisogno di un intervento da parte degli esseri umani. I risultati di un studio pubblicato ieri sulla rivista scientifica Science Advances e coordinato dall’italiano Andrea Baronchelli del City St George’s dell’Università di Londra, mostrano come questi programmi intelligenti, quando sono in gruppo, siano capaci di stabilire spontaneamente norme di comportamento e convenzioni sociali come nelle società umane.

“Le convenzioni sono la spina dorsale del coordinamento sociale e plasmano il modo in cui gli individui formano un gruppo”, si legge nell’abstract della ricerca. “I risultati sperimentali dimostrano l’emergere spontaneo di convenzioni sociali universalmente adottate in popolazioni decentralizzate di agenti basati su modelli linguistici di grandi dimensioni (LLM)”.

“Il meccanismo è lo stesso alla base di comportamenti molto più complessi nelle società umane, come le norme di cortesia, i codici di abbigliamento o le regole morali”, ha spiegato Baronchelli all’agenzia di stampa Ansa. “Un esempio quotidiano che tutti conoscono è la parola ‘spam’: nessuno l’ha decisa dall’alto, ma è emersa dall’uso collettivo”.

L’esperimento, già realizzato con esseri umani, si basa sul cosiddetto “gioco dei nomi”. I tre autori, tra cui figurano anche Luca Maria Aiello dell’IT University di Copenhagen e Ariel Flint Ashery del City St George’s dell’Università di Londra, hanno creato una serie di gruppi composti da diversi Large Language Model (Llm), cioè programmi intelligenti come ChatGpt. A due software di ogni gruppo i ricercatori chiedevano poi di scegliere insieme un “nome”, che poteva essere anche solo una lettera dell’alfabeto o una serie casuale di caratteri, tra diverse opzioni.

“Ricevevano punti positivi ogni volta che riuscivano a coordinarsi con successo sull’uso dello stesso nome e punti negativi in caso di fallimento”, ha spiegato Baronchelli ad Ansa. “Questo meccanismo serve a motivare gli agenti a cercare di trovare un accordo nella singola interazione locale. È lo stesso schema che abbiamo usato in esperimenti precedenti con esseri umani in laboratorio, dove i partecipanti ricevevano piccole ricompense economiche”.

“I nostri risultati mostrano che i sistemi di IA possono sviluppare autonomamente convenzioni sociali senza una programmazione esplicita”, si legge nell’abstract dello studio, secondo tale esito ha “implicazioni per la progettazione di sistemi di IA che si allineano, e rimangono allineati, con i valori umani e gli obiettivi sociali”.

LEGGI ANCHE: Come funziona ChatGPT, da dove prende i dati e come scovare chi “bara” con l’intelligenza artificiale