ChatGPT pensa come noi, difetti inclusi: lo studio che svela gli errori e i bias cognitivi dell’IA
L’intelligenza artificiale può davvero essere un giudice imparziale e razionale? Secondo un nuovo studio pubblicato sulla rivista Manufacturing & Service Operations Management, la risposta è più complicata di quanto si pensi. Gli autori della ricerca hanno scoperto che ChatGPT, uno dei modelli linguistici più avanzati di OpenAI, riproduce diversi bias cognitivi tipici del pensiero umano,...

L’intelligenza artificiale può davvero essere un giudice imparziale e razionale? Secondo un nuovo studio pubblicato sulla rivista Manufacturing & Service Operations Management, la risposta è più complicata di quanto si pensi. Gli autori della ricerca hanno scoperto che ChatGPT, uno dei modelli linguistici più avanzati di OpenAI, riproduce diversi bias cognitivi tipici del pensiero umano, cadendo negli stessi tranelli decisionali che affliggono le persone, come la fallacia del giocatore e l’eccessiva sicurezza nelle proprie risposte.
Eppure, in altri casi, l’IA si comporta in modo opposto all’essere umano, dimostrando una certa immunità a errori comuni come la fallacia del costo irrecuperabile o il disprezzo della frequenza base.
ChatGPT fallisce in metà dei test
Nel corso dello studio intitolato “A Manager and an AI Walk into a Bar: Does ChatGPT Make Biased Decisions Like We Do?”, i ricercatori hanno sottoposto ChatGPT a 18 test specifici per identificare bias cognitivi. I risultati rivelano che il modello ha mostrato comportamenti distorti in quasi la metà dei casi, confermando quanto le sue “decisioni” possano essere influenzate da scorciatoie mentali simili a quelle umane.
Tra i bias riscontrati più frequentemente, spiccano:
- Avversione all’ambiguità: ChatGPT preferisce opzioni con informazioni più certe, evitando situazioni nebulose.
- Overconfidence: tende a sopravvalutare la propria accuratezza, anche quando non supportata dai dati.
- Bias di conferma: privilegia risposte che confermano le ipotesi iniziali, evitando quelle che le contraddicono.
- Fallacia della congiunzione (nota anche come “problema di Linda”): errore di ragionamento in cui ChatGPT giudica più probabile un insieme di eventi congiunti rispetto a uno singolo.
Il comportamento dell’IA è apparso coerente attraverso diversi contesti aziendali, ma è emersa anche una differenza significativa tra le varie versioni del modello. GPT-4, ad esempio, ha mostrato una maggiore accuratezza analitica rispetto a GPT-3.5, ma allo stesso tempo è sembrato più incline ai bias nei compiti che richiedono giudizio soggettivo.
Le applicazioni dell’intelligenza artificiale in ambiti decisionali delicati – come assunzioni di personale, concessioni di prestiti o selezione di candidati – sono sempre più diffuse. Ma se un modello come ChatGPT replica gli stessi errori cognitivi umani, rischia di perpetuare decisioni sbagliate anziché correggerle.
“Quando l’IA apprende dai dati umani, finisce per pensare come un essere umano, bias inclusi”, spiega Yang Chen, autore principale dello studio e docente alla Western University. Il rischio, sottolineano anche gli altri ricercatori, è che l’IA venga percepita come un arbitro imparziale, quando in realtà può commettere gli stessi errori sistematici che compiono le persone.
Anton Ovchinnikov, della Queen’s University, chiarisce:
Quando si tratta di problemi logici o probabilistici, l’IA è superiore alla media degli esseri umani. Ma nei compiti che richiedono valutazioni soggettive, cade negli stessi tranelli mentali.
Samuel Kirshner, dell’UNSW Business School, aggiunge:
L’IA non è un giudice neutrale. Se non viene monitorata, potrebbe aggravare i problemi decisionali anziché risolverli.
Serve un controllo umano continuo
Alla luce di questi risultati, gli studiosi raccomandano una supervisione continua e revisioni periodiche delle decisioni prese da modelli di intelligenza artificiale. L’uso crescente di questi strumenti in ambito manageriale e pubblico richiede un approccio etico e responsabile, che preveda verifiche costanti sui processi decisionali automatizzati, come afferma Meena Andiappan della McMaster University:
È fondamentale trattare l’IA come un dipendente con potere decisionale. Serve un sistema di regole, monitoraggi e linee guida etiche, altrimenti si rischia di automatizzare un pensiero distorto invece di migliorarlo.
Infine, Tracy Jenkin della Queen’s University sottolinea come l’evoluzione del modello da GPT-3.5 a GPT-4 suggerisca una tendenza verso una maggiore “umanizzazione” in certi aspetti cognitivi, mentre in altri migliora la precisione matematica e logica:
I manager devono valutare continuamente come i diversi modelli si comportano in funzione dell’uso specifico. Alcuni ambiti richiederanno una personalizzazione significativa del modello.
Non vuoi perdere le nostre notizie?
- Iscriviti ai nostri canali Whatsapp e Telegram
- Siamo anche su Google News, attiva la stella per inserirci tra le fonti preferite
Fonte: Manufacturing & Service Operations Management
Ti potrebbe interessare anche:
- Maxi-multa da 15 milioni di euro per OpenAI: perché il Garante della privacy ha sanzionato ChatGPT
- Vi spieghiamo perché la nuova voce di ChatGPT assomiglia così tanto a quella di Scarlett Johansson
- Scienziati dimostrano gli effetti collaterali sui ragazzi quando usano ChatGPT per studiare
- Usi ChatGpt? Non immaginerai mai quanta acqua sta consumando la tua intelligenza artificiale