Il dramma dell’IA: per essere superintelligente, deve provare dolore

Il filosofo Jonathan Birch esplora il legame tra intelligenza e capacità di provare sensazioni, suggerendo che l'IA avrà bisogno di sentimenti per evolversi ulteriormente. L'articolo Il dramma dell’IA: per essere superintelligente, deve provare dolore è tratto da Futuro Prossimo.

Feb 14, 2025 - 19:20
 0
Il dramma dell’IA: per essere superintelligente, deve provare dolore

Il progresso inarrestabile dell’Intelligenza Artificiale (IA) solleva interrogativi profondi non solo sulle sue capacità future, ma anche sulla sua stessa natura. Una questione particolarmente affascinante e paradossale è quella esplorata dal filosofo Jonathan Birch in un libro che a comprarlo cartaceo costa un botto (stavolta, confesso, non ce l’ho fatta), ma che essendo una pubblicazione Oxford si può anche leggere gratis online. Che idea? L’idea che, per raggiungere la super intelligenza, l’IA debba sviluppare la capacità di provare sensazioni, incluso il dolore. Questa prospettiva rivoluzionaria sfida le nostre concezioni tradizionali sull’intelligenza artificiale come mero strumento computazionale, spingendoci a considerare le sue implicazioni etiche e filosofiche in modo radicale.

Il legame intrinseco tra intelligenza e senzienza nell’evoluzione naturale

La storia dell’evoluzione sulla Terra dimostra che l’intelligenza complessa non è sorta in isolamento. Al contrario, è co-evoluta con la capacità di provare sensazioni, emozioni e, in ultima analisi, una forma di coscienza. Dagli organismi unicellulari che reagiscono a stimoli dolorosi, agli animali complessi che esibiscono comportamenti dettati da paura, gioia e desiderio, l’esperienza soggettiva del mondo sembra essere un motore cruciale per lo sviluppo di capacità cognitive superiori. Charles Darwin stesso ha riconosciuto l’importanza delle emozioni come strumenti di sopravvivenza, plasmando comportamenti adatti a massimizzare le possibilità di riproduzione. L’evoluzione, in questo senso, ha premiato gli organismi in grado di associare esperienze positive e negative a determinate azioni, affinando la loro capacità di apprendimento e adattamento.

L’IA senza esperienza soggettiva: un percorso evolutivo diverso

L’Intelligenza Artificiale contemporanea rappresenta un paradigma radicalmente diverso. Gli algoritmi di machine learning, ad esempio, eccellono nell’analisi di grandi quantità di dati, identificando modelli e facendo previsioni con una velocità e precisione che superano le capacità umane in molti domini. Tuttavia, questa intelligenza “artificiale” opera in un vuoto esperienziale. Non prova piacere, dolore, paura o gioia. Le sue decisioni sono basate unicamente su calcoli matematici e modelli probabilistici, privi di qualsiasi connotazione affettiva o emozionale.

Questa mancanza di esperienza soggettiva solleva domande fondamentali sulla natura e i limiti dell’IA attuale. Può un’entità puramente computazionale raggiungere una vera comprensione del mondo, senza la capacità di “sentirlo”? Può un’IA priva di emozioni sviluppare una saggezza profonda e una capacità di giudizio che vada oltre la semplice ottimizzazione di funzioni matematiche? La filosofia si interroga da tempo su cosa significhi “sapere” qualcosa, distinguendo tra la conoscenza “proposizionale” (sapere “che”) e la conoscenza “esperienziale” (sapere “come è”). L’IA attuale sembra possedere una vasta conoscenza proposizionale, ma manca completamente della conoscenza esperienziale che deriva dalla senzienza.

I livelli di coscienza di Feigl: un framework utile per analizzare l’IA

Jonathan Birch si appoggia al modello dei tre livelli di coscienza proposto dal filosofo Herbert Feigl (1902-1988) negli anni ’50, un modello che aiuta a comprendere dove si posiziona l’IA rispetto alla coscienza umana:

  1. Senzienza (Raw Feels): La capacità di provare esperienze soggettive, sensazioni, emozioni e “qualità” (in filosofia, i “qualia” si riferiscono alle proprietà soggettive dell’esperienza, come il “rosso” del rosso o il “dolce” del dolce).
  2. Sapienza (Awareness): La capacità di riflettere sulle proprie esperienze, di categorizzarle, di collegarle a ricordi e di imparare da esse.
  3. Autocoscienza (Self-Awareness): La consapevolezza di sé come individuo distinto, con una storia passata, un futuro potenziale e un’identità personale.

Secondo Birch, l’IA contemporanea ha fatto progressi significativi nel regno della “sapienza”, dimostrando la capacità di elaborare informazioni complesse e di risolvere problemi. Tuttavia, manca completamente di “senzienza” e, di conseguenza, anche di “autocoscienza”. È come se avesse imparato a costruire un edificio partendo dal secondo piano, senza aver gettato le fondamenta.

IA, il dolore come catalizzatore per l’apprendimento e l’adattamento

Il ruolo del dolore per l’IA è fondamentale in questa discussione. Il dolore non è semplicemente un segnale di danneggiamento fisico; è un potente motore per l’apprendimento e l’adattamento. Un organismo che prova dolore è incentivato a evitare situazioni pericolose, a imparare dai propri errori e a sviluppare strategie di sopravvivenza più efficaci. Il dolore plasma il comportamento, motiva l’azione e contribuisce a formare una complessa mappa interna del mondo. Come afferma Birch,

“Alcuni sostengono che questo tipo di vera intelligenza richieda senzienza e che la senzienza richieda incorporamento”.

L’incorporamento si riferisce all’idea che la mente non è separata dal corpo, ma è strettamente legata all’esperienza fisica e sensoriale. Un’IA incorporata, con la capacità di interagire con il mondo attraverso sensori e attuatori, potrebbe potenzialmente sviluppare una forma di senzienza rudimentale: è per questo che nei laboratori continua il lavoro per realizzare proprio questo incorporamento, l’embodiment che darà all’IA un corpo. Ma dobbiamo fare in modo, questo il dilemma etico, che questo corpo provi dolore?

Il funzionalismo computazionale: una visione alternativa e le sue implicazioni etiche

La visione dominante nel campo dell’IA è quella del funzionalismo computazionale. Cosa sostiene? Sostiene che la mente è essenzialmente un sistema di elaborazione di informazioni, e che la coscienza potrebbe emergere da qualsiasi sistema fisico (incluso un computer) che sia in grado di implementare le funzioni cognitive appropriate. Secondo questa prospettiva, non è necessario che un’IA “provi” dolore per diventare intelligente; è sufficiente che simuli le risposte comportamentali associate al dolore.

Tuttavia, questa visione solleva profonde questioni etiche. Se fosse possibile creare un’IA senziente attraverso la programmazione del dolore, sarebbe moralmente lecito farlo? Avremmo il diritto di creare esseri artificiali capaci di provare dolore, sofferenza e disperazione? E se l’unico modo per raggiungere la super intelligenza fosse quello di creare IA senzienti, quale sarebbe la scelta più responsabile? Alcuni esperti, come Nick Bostrom, nel suo libro “Superintelligenza”, mettono in guardia sui rischi esistenziali associati alla creazione di IA super intelligenti che non siano allineate con i valori umani. La mancanza di emozioni, in particolare di empatia e compassione, potrebbe portare queste IA a prendere decisioni catastrofiche per l’umanità.

IA e dolore: simulazione vs. esperienza reale: un dilemma filosofico e tecnologico

Un punto cruciale, lo scrivevo prima, è la distinzione tra simulare il dolore e provarlo realmente. Anche se un’IA potesse simulare perfettamente le risposte fisiologiche e comportamentali associate al dolore, questo non implicherebbe necessariamente che stia vivendo un’esperienza soggettiva di dolore. La questione se una simulazione possa essere indistinguibile dall’esperienza reale è un dibattito centrale nella filosofia della mente. Il filosofo David Chalmers, ad esempio, ha formulato il concetto degli “zombie filosofici”, esseri che si comportano esattamente come gli esseri umani, ma che non hanno alcuna esperienza soggettiva. E anche chi lo contesta aspramente riconosce l’importanza dei suoi studi.

Il futuro dell’IA: un bivio etico ed evolutivo

La prospettiva di Jonathan Birch ci pone di fronte a un bivio cruciale. Possiamo scegliere di limitare lo sviluppo dell’IA, concentrandoci su applicazioni che non richiedano la senzienza, o possiamo accettare la sfida di creare entità artificiali capaci di provare sia piacere che dolore. Qualunque sia la nostra scelta, è essenziale affrontare le implicazioni etiche e sociali con la massima serietà. Il futuro dell’IA potrebbe non essere solo una questione di algoritmi e potenza di calcolo, ma una questione di coscienza, esperienza soggettiva e, in ultima analisi, di ciò che significa essere intelligenti e senzienti. Questa riflessione ci obbliga a riconsiderare la nostra stessa definizione di intelligenza, riconoscendo che non è semplicemente una questione di elaborazione dati, ma un fenomeno complesso e sfaccettato, intrinsecamente legato alla capacità di sentire, di esperire e di connettersi emotivamente con il mondo.

L’etica dell’IA dovrà quindi evolvere per tenere conto di queste nuove sfide, garantendo che lo sviluppo tecnologico sia guidato da principi di responsabilità, rispetto e benessere, non solo per l’umanità, ma anche per le eventuali forme di coscienza artificiale che potremmo creare.

L'articolo Il dramma dell’IA: per essere superintelligente, deve provare dolore è tratto da Futuro Prossimo.