La Stanza cinese di Searle

(Menti, cervelli e programmi)

Searle critica l’intelligenza artificiale forte con un arguto esempio con cui è capace di rispondere ad ogni risposta.

Prima di addentrarci nella critica e alle varie risposte è bene fare fondamentalmente due precisazioni:
1- Searle distingue bene l’IA debole da quella forte. L’IA debole si occupa di costruire una macchina che dia gli stessi output di un essere umano allo stesso determinato input, ovvero che passi semplicemente il test di Turing. L’IA forte invece si prefigge di passare il test di Turing simulando il funzionamento del cervello umano e non soltanto di riprodurre solo il risultato finale. Questa distinzione va sempre tenuta a mente in quanto è all’IA forte che Searle rivolge la sua critica, infatti per lui l’IA debole è possibilissima.
2- Altra distinzione fondamentale nella critica searliana sta nella differenza tra sintassi e semantica. Searle è un filosofo che si è occupato moltissimo del linguaggio e che conosce benissimo l’importanza di questa differenza. La sintassi è l’insieme delle regole che stabilisce la posizione delle parole nella frase, mentre la semantica si occupa del significato della frase (o della singola parola).L’idea nasce dal programma di Schank, capace di rispondere a domande relative a una storia anche se l’informazione che egli fornisce con queste risposte non era esplicitamente presente in essa.
Searle afferma che il programma di Schank “capisce” la storia solo metaforicamente, ma non la capisce come la capirebbe un uomo, non la capisce semanticamente.
Effettivamente il programma di Schank sembra essere molto realistico in quanto cerca la risposta nel mondo in cui la storia è ambientata, e se conosce quell’ambiente “capisce” anche la storia.
Per verificare ciò Searle si chiede come andrebbero le cose se la mente umana funzionasse veramente come nel programma (quale è l’obbiettivo della IA forte), e lo fa con l’esempio della Gedankenexperiment, ovvero l’esperimento della Stanza Cinese.
Searle ci invita a supporre di essere noi il sistema di calcolo del programma di Schank, abbiamo così un essere umano qualsiasi che conosce soltanto la sua lingua (l’inglese) dentro una stanza con una piccola finestrella, dentro la stanza ci sono degli enormi libri, enormi pile di fogli di carta, gomme e matite a volontà.
Dalla finestrella l’omino riceve dei fogli con degli ideogrammi che per lui non hanno nessun significato; nei grossi libri ci sono le regole (scritte in inglese) di sintassi cinese per costruire una risposta sotto forma di ideogrammi, in questi libri non si fa minimamente accenno al significato degli ideogrammi. L’omino non deve fare altro che leggere i grossi libri e confrontare i fogli in input per trovare così la risposta, la risposta la scriverà in uno dei fogli bianchi che ha a disposizione e li tornerà all’esterno dalla finestrella.
L’omino quindi prende dati in ingresso, fa delle determinate operazioni con questi ingressi per trovare il risultato, proprio come un software.
Ma l’omino è consapevole di quello che fa? sta rispondendo in modo consapevole o in modo meccanico? meglio, l’omino è coscente delle sue risposte a livello semantico?
Ovviamente no. I dati forniti all’omino sono dati formali, di cui conosce solo la sintassi, e quale sia la semantica non importa per ottenere il risultato giusto.
Così Searle dimostra che con il programma di Schank l’IA forte non ha fatto nessun passo avanti, in quanto l’uomo reale quando trova una risposta ad una domanda la trova nel campo semantico e non soltanto del campo sintattico, che corrisponde solo ad una formalità.

a. La risposta dei sistemi (Berkeley)
La comprensione non deve essere ascritta all’omino ma all’intero sistema, all’intero sistema di egli è parte.
Searle ribatte che il sistema potrebbe essere proprio all’interno dell’omino. Non gli basterebbe far altro che imparare a memoria quei grossi libri e lui rappresenterebbe l’intero sistema, e comunque non arriveremo alla comprensione di ciò che sis sta scrivendo.
Si potrebbe dividere il sistema in sottosistemi (inglese e cinese), ma non cambierebbe nulla, perché il sotto sistema cinese non sarebbe altro che poggiato sul sottosistema inglese, ovvero l’unico sottosistema capace di capire.

b. La risposta del robot (Yale)
Al di là del programma di Schank noi supponiamo di poter costruire un robot che sia capace di comportarsi come gli esseri umani (ovvero possa percepire, camminare,etc..).
Queste abilità del robot non aggiungono nulla al programma di Schank, si è ancora fermi a segnali formali.

c. La risposta del simulatore elettronico (Berkeley e MIT)
Supponiamo di allestire un programma che simuli l’effettiva sequenza di scariche neuroniche che avvengono nelle sinapsi del cervello di un cinese.
Siamo ancora fermi. Non abbiamo fatto altro che simulare la struttura formale, esso non simula le proprietà causali del cervello, ovvero la sua capacità di generare stati intenzionali.

d. La risposta della combinazione (Berkeley e Standfor)
Supponendo di costruire un robot che per calcolatore ha la perfetta ricostruzione del cervello umano, Searle ammete che si potrebbe attribuire dell’intenzionalità.
Il problema problema si risolve perchè il nuovo robot è capace di apprendere a livello semantico le sue operazioni.

e. La risposta delle altre menti (Yale)
f. La risposta delle molte dimore (Berkeley)
Searle si rifiuta di rispondere seriamente a certe risposte perchè fuori dall’argomentazione.

Riassumendo Searle si chiede <<cosa fa si che l’omino capisca l’inglese e non il cinese? c’è qualcosa che manca? potremmo fornire questo qualcosa alla macchina e si risolverebbe il nostro problema.>>, la risposta che il nostro filosofo si da è quella biologica.
Per lui infatti solo le proprietà fisico-chimiche del cervello conferiscono dei poteri causali capaci di produrre i fenomeni intenzionali della nostra mente.
Questa argomentazione non vuole altro che affermare che solo qualcosa che abbia i poteri causali potrebbe avere quell’intenzionalità.
Le proprietà formali non hanno poteri causali, l’unica capacità che hanno è di produrre, una volta istanziate, lo stadio del formalismo quando la macchina è in funzione.
Searle inoltre stupisce chi lo attacca con un finale a sopresa, ovvero ammettendo che l’uomo è una macchina!
<< “Una macchina può pensare?”
la risposta è sì: noi siamo macchine capaci di pensare.
“Un manufatto può pensare?”
Se è costruito con un sistema neurale come quello umano, sì. Se si riescono a ricostruire le cause si riprodurranno gli stessi effetti!
“Un calcolatore digitale può pensare?”
Se si riescono a ricostruir le cause sì. Ma solo in virtù di essere un calcolatore col programma giusto, no.>>
Il calcolatore digitale lavora con dei simboli che non significano nulla, sono puramente vuoti di semantica.

L’equazione “la mente sta al cervello come il software sta all’hardware” fa acqua in almeno tre punti:
1- La distinzione tra programma e realizzazione ha per conseguenza che lo stesso programma potrebbe avere una quantità di realizzazioni.
2- Il programma è puramente formale, mentre gli stati intenzionali non sono formali.
3- Gli stati e gli eventi mentali sono letteralmente un prodotto del cervello, mentre il programma non è prodotto del calcolatore.

— Riflessioni (Douglas R. Hofstadter)—

Searle con la sua stanza cinese non fa altro che distrarre il lettore dal funzionamento del sistema e con abile uso delle parole riesce a mettere sempre dalla sua parte il lettore.
La nostra risposta è fondamentalmente la “Risposta dei sistemi”: cioè che è sbagliato è l’attribuire all’omino il carico del lavoro anzicché all’intero sistema, fogli di carta compresi. Searle si limita a dire che mancano dei “poteri causali”, percui anche se sostituissimo i chip ai neuroni perderemmo coscienza. L’argomentazione che l’omino metta dentro di sé i grossi libroni di sintassi è un trucchetto che non sussiste.

L’argomentazione di Searle invece è molto utile perché ha sollevato il problema di cosa veramente sia comprendere una lingua.

Riassunto da L’io della Mente di Douglas R. Hofstadter

La stanza cinese su wikipedia 

  1. dicembre 9, 2007 alle 7:25 pm

    premetto che conoscevo la storia della stanza cinese, anche se non tramite Hofstadter, mentre conosco poco e niente le obiezioni, per cui in base a quello che c’è scritto qui non sono d’accordo con tutta la questione dei poteri o proprietà causali del cervello che generano stati intenzionali… così come sono esposti sembrano solo un altro trucchetto per spiegare ciò che non ci sappiamo spiegare, il vecchio gioco della sostanza…
    voglio dire: dove sono questi stati intenzionali? dove sono queste proprietà causali? che prove abbiamo che esistano al di fuori della nostra teoria interpretativa?
    mi sembra invece più sostenibile la critica dei robot, che tu liquidi con poco: una macchina che avesse la possibilità di riferirsi al mondo esterno avrebbe forse qualche possibilità di acquisire una semantica…

  2. fiak
    dicembre 9, 2007 alle 11:05 pm

    Premetto che non conoscevo niente di quello che hai citato qui sopra… Cmq bel post e bell’esperimento, link così sono sempre bene accetti da me!

  3. dicembre 13, 2007 alle 8:09 pm

    gli stati intenzionali stanno nella nostra mente e sono determinato biologicamente… questa è la versione di searle

  4. febbraio 2, 2008 alle 4:48 pm

    Grazie mi sei stato d’aiuto….. se l’hai riassunto tu, complimenti è fatto bn….
    ciaoooo!

  1. settembre 18, 2010 alle 12:01 pm

Lascia un commento

Effettua il login con uno di questi metodi per inviare il tuo commento:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...

%d blogger cliccano Mi Piace per questo: