Archivio

Archive for the ‘Intelligenza Artificiale. Da Leibniz ai robots’ Category

IL DEMONE DI SEARLE: Contro il dualismo

febbraio 12, 2010 Commenti disabilitati

Subito dopo queste considerazioni Searle discute un altro errore filosofico, quello forse più importante in quanto si presta come terreno fertile all’ipotesi forte dell’IA, il dualismo.1

L’idea che mente e cervello siano due cose differenti, quasi dicotomiche, per cui quando si parla di mente il cervello non c’entra nulla, dà forza a sostenitori dell’IA forte e alla loro tesi che la mente sia solamente un programma, un complessissimo programma istanziato su un supporto fisico, nel caso umano un cervello biologico, nel caso delle macchine un calcolatore digitale.

Searle non ammette nessuna difficoltà nel riconoscere che un cervello sia un calcolatore digitale a tutti gli effetti, solo esclude che

Qualunque cosa faccia il cervello per produrre intenzionalità, questa non può consistere nell’istanziare un programma, poiché nessun programma, di per sé, è sufficiente per l’intenzionalità.2

L’articolo di Searle suscitò grande entusiasmo tra gli studiosi di IA di tutte le discipline aprendo un dibattito piuttosto vivace a cui Searle non poté non partecipare in chiusura con una risposta a tutti gli interlocutori.

Alcuni dei partecipanti al dibattito avvalorarono la tesi di Searle, spiegando ulteriormente la sua critica o aggiungendo esempi che esplicassero il suo punto di vista.

Altri invece lo criticarono sostenendo ancora una volta il dualismo. Dennett, per esempio, afferma «Io capisco l’inglese, il mio cervello no».3

Searle ammette che finché per il calcolatore i dati saranno solo simboli formali, senza che si associ loro un contenuto semantico, il calcolatore stesso resterà, per usare le parole di Dennett «cieco rispetto al significato di ciò che è stato scritto»,4 mentre non può ammettere che il cervello non capisca l’inglese, anzi, è proprio il suo cervello secondo lui che fa quel lavoro (proprio come lo stomaco digerisce la pizza, per usare un suo esempio), definendolo consapevole.5

Searle, per altro, rifiuta l’idea di Bridgeman per cui «le sole proprietà del cervello sono le proprietà che esso ha a livello dei neuroni».6

Per concludere su questo tema, Searle è disposto ad usare, anche se mal volentieri, la terminologia classica definendosi un interazionista, e in qualche modo un monista.7

1ibidem

2Searle, p. 72

3Searle, p.192

4Searle, p. 95

5Searle, p. 192

6Searle, p. 207

7Searle, p. 209

Annunci

IL DEMONE DI SEARLE: L’intenzionalità e il simbolo

febbraio 9, 2010 Commenti disabilitati

Searle conclude questo suo primo articolo riproponendo la domanda iniziale, «Può una macchina pensare?», e in un modo che lascia sorpresi i suoi avversari.

Secondo Searle è ovvio credere che le macchine possano pensare: l’uomo, infatti, è una macchina a tutti gli effetti. Inoltre Searle afferma che anche una macchina costruita dall’uomo può essere considerata pensante, solo ad una condizione però: che venga riprodotto il sistema nervoso, con neuroni, dendriti e tutto il resto.

Si potrebbe ricreare il sistema nervoso utilizzando principi chimici diversi dai nostri e avere ancora intenzionalità, credenze e il resto delle capacità cognitive.

Se si possono raddoppiare esattamente le cause, si potrebbero raddoppiare anche gli effetti.1

Anche un calcolatore digitale può, secondo Searle, pensare, ma non unicamente per il fatto che su esso sia installato il programma giusto.

Un programma manipola simboli formali, non li comprende. Il fatto che questi simboli siano formali è molto importante, li distingue dai normali simboli.

Un simbolo di per sé ha il compito di rappresentare qualcosa per chi lo usa; i simboli cinesi per Searle, e per chiunque non conosca il cinese, non hanno nessun contenuto rappresentazionale.

La relazione che connette la sintassi (il simbolo cinese) con la semantica (il suo significato) non è legato da un codice biunivoco, con una relazione causale.2

I calcolatori che basano le loro capacità cognitive sui programmi operano correttamente nel campo sintattico, sanno benissimo come posizionare il verbo all’interno della frase, come coniugarlo e come completare le frasi, ma non capiscono il contenuto delle loro operazioni, mancano di semantica.

L’unica intenzionalità esistente in una stanza dove opera un calcolatore è quella degli operatori che immettono i dati di input e leggono quelli restituiti dalla macchina come output.

Per il calcolatore il rapporto tra input e output è puramente formale-meccanico ed è il programma stesso.

Tale intenzionalità, quale sembra abbiano i computer, è solamente nelle menti di quelli che la programmano e di quelli che li usano, di quelli che immettono gli input e di quelli che interpretano l’output.3

Searle crede che molti degli errori in questo campo dipendano dal fatto che si è pensato che simulare significhi duplicare, sia rispetto alle capacità intellettive che a quelle emotive.

Per eliminare questa confusione gli esperti di IA dovrebbero evitare ogni forma di comportamentismo e operazionismo, invalidando il test di Turing che per Searle è tipico di questa tradizione.4

1Searle, p. 65

2Cimatti Felice, Mente, segno e vita: elementi di filosofia per le Scienze della comunicazione, Carrocci editore, p. 17

3Searle, p. 66

4Searle, p. 70

IL DEMONE DI SEARLE: La stanza cinese e Le repliche

febbraio 2, 2010 1 commento

Per argomentare la sua tesi Searle decide di fare un esperimento mentale conosciuto come “la stanza cinese”, in cui egli stesso si immedesima nel ruolo di un calcolatore umano, proprio come lo doveva aver immaginato Turing.

Searle suppone di trovarsi dentro una stanza, seduto ad una scrivania con un plico di fogli scritti in cinese, e non conoscendo egli il cinese, può concepirli semplicemente come simboli formali che non differirebbero per nulla da caratteri giapponesi o scarabocchi.

Sulla scrivania inoltre c’è un secondo plico, sempre scritto in cinese, e delle regole, stavolta scritte in inglese, lingua madre dello stesso Searle e che quindi egli può capire benissimo, che legano gli scritti in cinese del secondo plico con quelli del primo.

Searle immagina un terzo plico ancora, sempre scritto in cinese con regole in inglese che lo mette in relazione al secondo.

Le regole sono in inglese e io capisco queste regole come qualunque inglese di madrelingua. Esse mi rendono possibile mettere in relazione una serie di simboli formali con un’altra serie di simboli formali (e tutto quello che formale significa qui, è che posso identificare i simboli interamente attraverso le loro forme).1

Le persone al di fuori di questa stanza che forniscono i fogli chiamano il primo plico “uno scritto”, il secondo “una storia” e il terzo “quesiti”. Il risultato che dovrà elaborare Searle viene chiamato “risposta alla domanda” e la serie di regole in inglese le chiamano “programmi”.

Seguendo correttamente le regole, le risposte cinesi alle domande cinesi saranno corrette, proprio come se le desse un cinese madrelingua, proprio come se le domande, la storia e le risposte date da Searle fossero in inglese.

A questo punto è doveroso secondo Searle chiedersi se sia legittimo pensare che lui comprenda il cinese.

Nel caso del cinese, diversamente da quello dell’inglese, produco le risposte col manipolare simboli formali non interpretati.2

Credo che lo stesso Turing possa essere d’accordo con l’argomentazione portata avanti in questo modo, infatti ricordiamo che l’idea di calcolatore umano proveniente dalla sua esperienza a Bletchley, consisteva in operaie che eseguivano il loro compito senza comprendere di che si trattasse.

Secondo Searle la base dell’IA forte, o teoria che la macchina abbia capacità cognitive, nasce dal fatto che attribuiamo stati intenzionali alla terza persona, per metafora o per analogia, per cui «la porta sa quando deve aprirsi grazie alle sue cellule fotoelettriche».3

Precisamente scrive Searle, noi estendiamo la nostra intenzionalità ai mezzi meccanici, in quanto estensioni dei nostri scopi.

Quando Searle usa il termine “intenzione” intende un particolare tipo di stato mentale diretti verso oggetti o modi di essere della realtà nel mondo.

Uso il termine «intenzionalità» come un termine tecnico che sta a significare quella caratteristica delle rappresentazioni grazie alla quale esse sono riguardo a qualcosa o dirette a qualcosa.4

L’intenzionalità è qualcosa che sopraggiunge alla coscienza che è una caratteristica biologica dei sistemi nervosi di più alto livello, come il cervello degli uomini e degli altri animali.

Le repliche

La prima esposizione della critica all’IA forte è subito seguita da repliche provenienti dal mondo accademico vicino a Searle.

La prima replica è quella del “sistema”: secondo alcuni studiosi (dell’istituto di Berkeley) la comprensione non sarebbe da cercare semplicemente nel calcolatore umano, ma nell’intero sistema stanza, calcolatore e plichi insieme. La risposta a questa replica è molto facile, infatti Searle ripropone lo stesso identico esperimento, ammettendo la possibilità di imparare egli stesso a memoria le regole che legano i testi in cinese, e ammette anche di imparare a memoria quei simboli in cinese. Praticamente Searle si propone di diventare l’intero sistema. Il risultato però sembra non cambiare, infatti Searle sarà molto più veloce a fornire le risposte in cinese, ma continuerà a non capirle, a non capire ciò che egli stesso dice.

La seconda replica, conosciuta come la replica del robot (dagli studiosi di Yale), prevede che il computer sia il cervello elettronico di un vero e proprio robot che abbia la capacità di vedere tramite una telecamera e muoversi tramite gambe artificiali.

Searle coglie in questa replica un elemento molto importante, che

la cognizione non è solamente una questione di manipolazione di simboli, poiché essa aggiunge un insieme di relazioni causali inerenti al mondo esterno (cfr. Fodor, Methodological Solipsism, BBS 3 (1), 1980).5

La replica che però spinge ad esplicitare la posizione di Searle rispetto alla relazione mente/cervello è la replica di Berkeley e del MIT, la replica del “simulatore del cervello”.

Nella replica del “simulatore del cervello” si ipotizza un programma che simuli la sequenza di scariche neuroniche che avvengono nelle sinapsi del cervello in un madre lingua cinese.

La posizione di Searle si fa più netta. Non basta simulare formalmente un cervello affinché si possa avere intenzionalità, serve un cervello vero e proprio con i relativi «poteri causali».6

Il suggerimento che dà Searle a coloro che si ostinano a perseguire l’IA forte sta nel cercare di capire e riprodurre i poteri causali presenti nel cervello, e non solo la configurazione delle reti neurali.

La possibilità di capire una lingua non è data all’uomo in quanto programmato così, ma perché costituito biologicamente (fisicamente e chimicamente) in un determinato modo.

Hodges invece scrive che per comprendere il modello turinghiano di «cervello» dobbiamo considerare che in esso la fisica e la chimica sono irrilevanti, in quanto sostituibili, mentre bisogna considerare «lo schema logico» degli stati mentali.7

Credo che Turing abbia poi cambiato idea visto che impegnò l’ultima parte della sua vita nella ricerca di regole inscritte nella struttura biologica degli embrioni, anche se i suoi studi sulla struttura del cervello a livello neuronico non sembrano essere andati molto lontano.

1Searle, p. 48

2Searle, p. 49

3Searle, p. 52

4Searle John R., La costruzione della realtà sociale, Edizioni di Comunità; p. 13

5Searle, p.58

6Searle, p.60

7Hodges, p. 180

IL DEMONE DI SEARLE: IA forte e IA debole

gennaio 20, 2010 Commenti disabilitati

Un testo fondamentale nella letteratura sull’IA, è Menti, cervelli e programmi1 di John Searle, un articolo che ha suscitato un dibattito molto importante negli anni ’80 coinvolgendo gli studiosi più autorevoli del settore.

L’articolo è visto come una risposta a Turing (una risposta postuma, dato che Turing morì nel 1954) e al suo gioco dell’imitazione.

L’obiettivo della critica di Searle è l’idea che un programma istanziato in una macchina possa avere intenzionalità.

Per Searle affinché ci sia intenzionalità è necessario riprodurre i poteri causali presenti nel cervello.

Una distinzione fondamentale che Searle fa, e che sarà oggetto di fraintendimenti, è quella fra IA debole e IA forte.

L’IA debole ( o cauta ) ha come obiettivo di essere uno strumento ausiliare per lo studio della mente. La concezione dell’IA forte prevede invece che il calcolatore non sia semplicemente un simulatore della mente, ma che il computer, correttamente programmato, sia una vera e propria mente con relativi stati cognitivi annessi. Nell’IA forte

I programmi non sono semplici strumenti che ci rendono possibile considerare spiegazioni psicologiche: piuttosto i programmi costituiscono di per sé le spiegazioni.2

La critica non è rivolta a tutta l’IA, ma soltanto all’ipotesi forte, mentre Searle dichiara utilissimi gli sforzi condotti nel campo dell’IA debole.

L’IA forte non risponde alla domanda «le macchine possono pensare?», giacché non tratta di macchine, ma di programmi.

Questo è il motivo per cui l’ipotesi “forte” dell’Intelligenza Artificiale ha poco da dirci intorno al pensare, poiché non riguarda le macchine, ma piuttosto i programmi, e nessun programma è di per sé capace di pensare.3

1Searle John R., Minds, Brains and Programs, in The Behavioral and Brain Sciences, 1980, Cambridge University Press; trad. it. Menti, cervelli e programmi, un dibattito sull’intelligenza artificiale, a cura di Graziella Tonfoni

2Searle, p. 46

3Searle, p. 46

CERVELLI A TRANSISTOR

gennaio 15, 2010 Commenti disabilitati

Turing in Macchine calcolatrici e intelligenza, come in altri articoli minori e in dichiarazioni rilasciate nel corso di interviste esplicita la sua intenzione di costruire una macchina che simuli il cervello, non di costruirne uno elettronico, nel senso più materiale dell’espressione. La sua idea era quella di creare una macchina che imitasse l’uomo nel pensiero e non nella struttura biologica (nonostante il suo enorme interesse per la biologia e la struttura del cervello), tanto che afferma ironicamente:

No, non mi interessa arrivare a fare un cervello potente. Quello che vorrei ottenere è soltanto un cervello mediocre, diciamo come quello del presidente dell’American Telephon and Telegraph Company 1

Inoltre nella stessa occasione Turing aveva parlato dell’idea che il suo collega matematico e ingegnere Claude Shannon aveva della possibilità di costruire un cervello elettronico

Shannon non vuole dare solo dei dati al suo Cervello, vuole dargli cultura! Vuole offrirgli della musica!2

Shannon nel 1953 in Calcolatori e automi3 fa un’accurata analisi della ricerca neurofisiologica di quei tempi, che reputa molto primitiva, in quanto non era ancora chiaro se il livello neurale fosse quello più adatto all’analisi funzionale.

Questa incertezza era dovuta all’osservazione della struttura causale del cervello: il numero, la dislocazione, e le interconnessioni dei neuroni lasciano pensare che la costruzione di un modello del cervello debba essere preceduta da un un modello di un cervello con una struttura media.

Il problema dell’IA quindi sembra spostarsi, almeno per Shannon e altri matematici, sull’hardware anziché sul software, ovvero sulla costruzione di una macchina che possa assomigliare il più possibile al cervello umano in termini di struttura funzionale, procrastinando il problema del programma che simuli le risposte.

Per le conoscenze di quel periodo, sia nel campo della neurologia che nel campo della realizzazione di macchine, Shannon delinea le differenze tra cervello e calcolatore.

Una delle differenze fondamentali, oltre le a quelle di dimensione, sono quelle di organizzazione strutturale (casualità della configurazione dei neuroni nel sistema nervoso contro il preciso cablaggio e assemblaggio dei componenti elettronici); nel caso del cervello il funzionamento complessivo non dipende dalla sua esatta configurazione.4

Altra differenza che rende il cervello diverso da un calcolatore è data dall’affidabilità del primo nel tempo rispetto al secondo. Il cervello può funzionare per anni senza casi di malfunzionamento, mentre ciò non è garantibile per le macchine.

La differenza di organizzazione logica già ha a che fare con le facoltà del cervello di organizzare e classificare gli input, mentre con i calcolatori tutto fila liscio fin quando si tratta di espressioni aritmetiche, più o meno complicate, ma all’infuori di questo cominciano i problemi.

La differenza di dispositivi di ingresso e uscita si riferisce all’importanza degli organi di senso, che nonostante possano essere ricreati artificialmente non danno al calcolatore un contatto col mondo reale diretto, ma tramite «uno spazio astratto di numeri e di operazioni sui numeri».5

Cinque anni dopo il matematico von Neumann in Calcolatore e cervello6 considerando definitivamente come elemento base del sistema nervoso il neurone, compara quest’ultimo con i corrispettivi artificiali: tubi a vuoto e transistor. In questa analisi von Neumann ricava differenze più dettagliate di quanto aveva fatto Shannon, le mette in relazione e trae conclusioni di tipo empirico.

Se per Shannon il cervello umano era superiore alla macchina per efficienza a lungo termine, per von Neumann l’efficienza può essere considerata in termini di affaticamento e quindi a breve termine; infatti se Shannon vede nel cervello una macchina che funziona attivamente negli anni senza avere grossi disturbi funzionali, per von Neumann il cervello ha il difetto, rispetto alla macchina, di avere dei tempi di ripresa decisamente più lunghi.7

Le conclusioni che trae von Neumann sembrano essere però ancora una volta a favore del cervello naturale; infatti,

in termini di numero di azioni che possono essere svolte da organi attivi delle stesse dimensioni complessive (definite dal volume o dal consumo d’energia) nello stesso intervallo di tempo, i componenti naturali superano quelli artificiali per un fattore di 104.8

Altra differenza già segnalata da Shannon e ripresa da von Neumann è quella nell’organizzazione logica, per cui il sistema naturale può funzionare in modo più efficiente lavorando in parallelo, mentre le macchine non possono che lavorare in serie.9

Inoltre la differenza nella memoria non è una differenza da sottovalutare, il fabbisogno di memoria per una macchina artificiale è indubbiamente maggiore di quello di una macchina naturale.

Con questa analisi dettagliata von Neumann individua i neuroni come organi logici elementari, ovvero organi digitali.10

Per concludere von Neumann ammette che non c’è un unico sistema di comunicazione nel sistema nervoso. Non ci sono solo comunicazioni di istruzioni e comunicazioni di numeri, ma anche comunicazioni che non richiedono formalismi aritmetici, come quelle che hanno a che fare con il linguaggio.11

1Hodges, p. 329

2ibidem

3Shannon Claude, Calcolatore e automi, in V. Somenzi (a cura di), La filosofia degli automi, Bollati Borienghieri, Torino, 1994

4Shannon, p. 95

5Shannon, p. 96

6Von Neumann, Calcolatore e cervello, Shannon Claude, Calcolatore e automi, in V. Somenzi (a cura di), La filosofia degli automi, Bollati Borienghieri, Torino, 1994

7Von Neumann, p. 131

8Von Neuman, p. 133

9In parallelo significa che possono ricevere, elaborare e restituire più dati contemporaneamente, mentre in serie indica la possibilità di operare un dato alla volta. Tuttavia, oggi, esistono calcolatori capaci di lavorare in parallelo.

10Per tecnologia digitale si intende un dispositivo, o un sistema di dispositivi, che lavora (prende in input o restituisce in output o ancora soltanto manipola) con un alfabeto discreto, ovvero che tra un simbolo e l’altro non ne intercorre nessun altro. Per fare un esempio, possiamo dire che l’insieme dei numeri naturali è digitale, mentre quello dei numeri razionali è analogico (ovvero, tra un numero e il suo successivo naturale ne esistono infiniti razionali in mezzo, tra l’1 e il 2 abbiamo 1,1 1,2, ma anche 1,0001 1,00001 e così via).

11Von Neumann, p. 149

L’ IMITAZIONE DEL PENSIERO: Le conclusioni di Turing

gennaio 13, 2010 Commenti disabilitati

Il gioco dell’imitazione fondava la sua validità sul fatto che se riusciva, ovvero se l’interrogante confondeva il calcolatore con il giocatore umano, potevamo dire che l’intelligenza artificiale è possibile, che le macchine possono pensare e che quel calcolatore può essere definito come cervello elettronico; infatti se la macchina mostra una parvenza di pensiero, pensa realmente.

Quando una macchina appare comportarsi come un essere umano, allora tanto vale dire che si comporta come un essere umano.1

Un altro esempio utilizzato da Turing, e che rafforza la sua tesi, è quello delle macchine che giocano a scacchi.

Formalizzando le strategie del gioco degli scacchi era possibile programmare una macchina in modo che riuscisse a vincere, tutto stava nell’istanziare correttamente il programma.

Un programma che simuli un campione di scacchi non era solo idea di Turing, ma di molti matematici.

Per Turing però un «giocatore-schiavo»2 era un calcolatore che sapeva realmente giocare a scacchi, niente più, o niente meno, di un giocatore umano. Forse il giocatore-schiavo avrebbe avuto il vantaggio di eseguire le mosse (sempre vincenti) più rapidamente del suo avversario, spiazzandolo ad ogni mossa.

Una volta programmata per giocare la macchina può essere utilizzata proprio come se3 giocasse a scacchi.

La macchina imita il cervello, ed è quello che vuole Turing, una macchina che imiti il comportamento del cervello. Il calcolatore può apprendere, può giocare a scacchi, può insomma imitare il cervello indipendentemente da cosa succeda realmente in quest’ultimo.

Il cervello del neonato non è altro che una macchina disorganizzata che sarà ordinata dall’educazione, infatti Turing concepisce l’intelligenza come qualcosa di diverso da una facoltà innata, non può essere quindi per il cervello elettronico un impianto elettrico già pronto, e installato al momento della nascita.

1Hodges, p. 347

2Hodges, p.278

3Hodges, p. 427

L’IMITAZIONE DEL PENSIERO: Obiezioni contro l’argomentazione principale

dicembre 17, 2009 Commenti disabilitati

In Macchine calcolatrici e intelligenza Turing risponde alle obiezioni che fino a quel momento erano state mosse alla possibilità di creare una macchina pensante.

Le obiezioni sono di vario genere, da quella teologica a quella matematica, da quella dell’autocoscienza a quella delle capacità extrasensoriali.1

Turing non ammette le obiezioni di tipo teologico2 ed antropocentrico che vogliono l’uomo come unico essere dotato di intelligenza, vuoi per costituzione biologica vuoi per grazia divina, e tanto meno può accettare la tesi delle capacità extrasensoriali.

Le obiezioni che più lo interessano invece sono quella matematica, quella dell’autocoscienza (molto antropocentrica, ma in cui si esplicita il rapporto mente/corpo) e l’obiezione di Lady Lovelace.

L’obiezione matematica riprende il suo lavoro sui numeri computabili e sul problema della decisione di Hilbert come argomento contro la possibilità da parte delle macchine di pensare.

Alcuni risultati della logica matematica possono essere utilizzati per dimostrare che le macchine discrete hanno dei limiti. Il teorema di Gödel è uno di questi, e dimostra che in ogni sistema logico possono essere formulati degli enunciati che non possono essere né dimostrati né confutati all’interno del sistema stesso, queste proposizioni sono dette indecidibili.

Inoltre lo stesso Turing era arrivato a questo risultato nel 1936 in On Computables Numbers, contemporaneamente e indipendentemente da Alonzo Church.

Il lavoro di Turing usava le macchine per arrivare a questa conclusione.

Questo è il risultato matematico: si sostiene che esso dimostra un’incapacità della macchina alla quale l’intelletto umano non è soggetto.3

Turing risponde che non è mai stata dimostrata l’illimitatezza delle capacità dell’intelletto umano. Il fatto che a delle domande critiche la macchina risponda in modo errato, non deve darci un senso di superiorità, infatti anche gli uomini non possono rispondere.

Altra obiezione su cui Turing si sofferma a riflettere è l’obiezione mossa da Jefferson4 definita come l’argomento dell’autocoscienza, tesi di tipo antropocentrico, ma di grande importanza, perché mette l’accento sul rapporto mente/corpo.

Jefferson afferma che fin quando una macchina non baserà i suoi output su delle emozioni non potremo eguagliarla al cervello. Jefferson conosce benissimo il cervello, è un neurochirurgo, e sa che le emozioni hanno il potere di far secernere alle ghiandole degli ormoni che influenzano il comportamento dell’individuo.

Secondo Turing il punto di vista di Jefferson conduce al solipsismo, in cui per «essere sicuri che una macchina pensa è quello di essere la macchina e di sentire se stessi pensare».5

Per spirito comune Turing preferisce non ammettere alcuna forma di solipsismo e accettare che tutti pensiamo e modifica il gioco dell’imitazione nel gioco dell’esame orale, in cui un esaminatore interroga un candidato, e suppone che il candidato sia un calcolatore.

Se le risposte del candidato-computer fossero soddisfacenti, non solo in aritmetica, ma anche in letteratura, Jefferson potrebbe considerarle come un semplice espediente? Secondo Turing considerale come semplice espediente consisterebbe nell’accettare le tesi solipsistiche.6

Inoltre Turing argomenta la sua risposta sulla capacità della macchina di scrivere un sonetto nel seguente modo

Io non credo neppure che si possa porre un limite e scartare l’ipotesi dei sonetti, anche se l’esempio è un po’ ingiusto, in quanto un sonetto scritto da una macchina potrà essere apprezzato al meglio solo da un’altra macchina.7

Un po’ come per Wittgenstein: se un leone potesse parlare, noi non potremmo capirlo.8

Altra obiezione su cui secondo Turing è necessario fermarsi a riflettere è l’obiezione di Lady Lovelace, prima programmatrice in assoluto nella storia a cui si deve il linguaggio di programmazione assembly, che riferendosi alla macchina analitica di Babbage affermò che questa non aveva nessuna capacità creativa, ma poteva solo eseguire i nostri ordini, qualsiasi cosa le ordinassimo.

Turing crede che questa affermazione sia determinata dalla macchina analitica e dal tipo di macchine esistenti all’epoca di Lady Lovelace, che non potevano di certo incoraggiare a pensare a macchine capaci di imparare.

Una riformulazione di questa obiezione può essere che la macchina non può fare qualcosa che ci sorprenda. Turing risponde ironizzando sulla propria sbadataggine:

Le macchine mi prendono alla sprovvista molto frequentemente.9

La sorpresa deriverebbe da calcoli fatti male o da considerazioni poco precise, e il risultato finale è diverso da quello previsto.

L’obiezione che questa sorpresa non dipenda dalla macchina, ma dal programmatore riporta secondo Turing all’obiezione dell’autocoscienza già discussa.

1Turing 1950 p. 176

2Nonostante Turing sia stato fermamente ateo, rispose all’obiezione teologica affermando che l’Onnipotenza divina potrebbe dare anche un’anima immortale alle macchine, noi non lo possiamo escludere.

3Turing 1950, p. 178

4Sir Geoffrey Jefferson (neurochirurgo, 1886-1961) in No Mind for Mechanical Man, 1949

5Turing 1950, p. 179

6Le tesi solipsistiche sostengono un idealismo soggettivo che nega la realtà del mondo esterno e degli altri soggetti.

7Hodges, p. 528

8Wittgenstein, Ricerche Filosofiche

9Turing 1950, p. 184