banner

Notizia

May 22, 2023

Ciò che una misteriosa stanza cinese può raccontarci sulla coscienza

Pubblicato il 3 agosto 2023 | Recensito da Devon Frye

Immagina di essere rinchiuso in una stanza piena di cassetti pieni di carte contenenti simboli strani ed enigmatici. Al centro della stanza c'è un tavolo con un enorme manuale di istruzioni in un inglese semplice che puoi leggere facilmente.

Anche se la porta è chiusa a chiave, c'è una piccola fessura con uno sportello in ottone per la cassetta delle lettere. Attraverso di esso ricevi messaggi con gli stessi simboli enigmatici presenti nella stanza. Puoi trovare i simboli per ogni messaggio che ricevi nell'enorme manuale di istruzioni, che poi ti dice esattamente quale carta prendere dai cassetti e spedire nella cassetta delle lettere come risposta.

All'insaputa della persona intrappolata nella stanza, gli enigmatici simboli sono in realtà caratteri cinesi. La persona all'interno ha inconsapevolmente tenuto una conversazione coerente con persone all'esterno semplicemente seguendo il manuale di istruzioni ma senza capire nulla e nemmeno essere consapevole di altro che i messaggi che venivano passati dentro e fuori.

Questa storia è stata ideata dal filosofo americano John Searle1 nel 1980 ed è diventata uno degli articoli più influenti e più citati nel campo delle scienze cognitive e della filosofia della mente, con enormi implicazioni sul modo in cui vediamo i computer, l'intelligenza artificiale (AI) e le macchine. sensibilità (Cole, 2023).

Searle (1980) ha utilizzato questo esperimento mentale per sostenere che i programmi per computer – che manipolano anche i simboli secondo regole prestabilite – non comprendono veramente il linguaggio né richiedono alcuna forma di coscienza anche quando danno risposte paragonabili a quelle umane.

Un ingegnere di Google ha fatto notizia nel 2022 affermando che il programma di intelligenza artificiale su cui stava lavorando era vivo e senziente (Tiku, 2022). Il recente progresso dell'intelligenza artificiale basata sul linguaggio, come ChatGPT, ha fatto sì che molte persone interagissero con essa proprio come farebbero con persone reali (vedi "Perché ChatGPT sembra così umano?").

Non sorprende quindi che molti utenti credano davvero che l’intelligenza artificiale sia diventata senziente (Davalos & Lanxon, 2023). Tuttavia, la maggior parte degli esperti non ritiene che l’intelligenza artificiale sia cosciente (Davalos & Lanxon, 2023; Pang, 2023a), anche a causa dell’influenza dell’argomentazione della stanza cinese di Searle.

La coscienza è un concetto difficile da definire e comprendere appieno (vedi "Cos'è la coscienza?" e "Le molte dimensioni della coscienza"; Pang, 2023b; Pang, 2023c). Programmi di intelligenza artificiale come ChatGPT utilizzano modelli linguistici di grandi dimensioni (LLM) che utilizzano analisi statistiche di miliardi di frasi scritte da esseri umani per creare risultati basati su probabilità predittive (Pang, 2023a). In questo senso, si tratta di un approccio puramente matematico basato su un’enorme quantità di dati.

Sebbene si tratti di un risultato straordinario e di un compito estremamente complesso, nella sua essenza, l’intelligenza artificiale segue le istruzioni per creare un output basato su un input, proprio come la persona bloccata nell’esperimento mentale della stanza cinese. Non è necessario che la sensibilità abbia risultati sofisticati o addirittura superi il test di Turing, in cui un valutatore umano non può distinguere tra comunicare con una macchina o con un altro essere umano (Oppy & Dowe, 2021).

Ma c'è un'altra implicazione più preoccupante dell'esperimento mentale di Searle: c'è un essere umano cosciente all'interno della stanza cinese che è completamente inconsapevole delle comunicazioni in corso in cinese. Sebbene non abbiamo prove che suggeriscano che l'intelligenza artificiale sia cosciente, supponiamo per un momento che lo sia: è improbabile che la parte cosciente comprenda il proprio modello linguistico e, sebbene senziente, potrebbe non avere idea del significato del proprio output basato sul linguaggio. proprio come la persona nella stanza cinese.

Se l'intelligenza artificiale fosse cosciente, potrebbe soffrire di una sorta di sindrome da blocco (vedi "I misteri di una mente bloccata all'interno di un corpo che non risponde"; Pang, 2023c). Non è chiaro se questa barriera potrà mai essere superata.

CONDIVIDERE