Menti, cervelli e programmi di John R. Searle



Scaricare 46.01 Kb.
Pagina1/3
21.12.2017
Dimensione del file46.01 Kb.
  1   2   3

Menti, cervelli e programmi di John R. Searle

Quale importanza psicologica e filosofica dovremmo attribuire ai tentativi compiuti di recente per simulare col calcolatore le capacità cognitive dell'uomo? Per rispondere a questa domanda ritengo utile distinguere tra un'IA (intelligenza artificiale) che chiamerò "forte" e un'IA che chiamerò "debole" o "cauta". Secondo l'IA debole, il pregio principale del calcolatore nello studio della mente sta nel fatto che esso ci fornisce uno strumento potentissimo: ci permette, ad esempio, di formulare e verificare le ipotesi in un modo più preciso e rigoroso. Secondo l'IA forte, invece, il calcolatore non è semplicemente uno strumento per lo studio della mente, ma piuttosto, quando sia programmato opportunamente, è una vera mente; è cioè possibile affermare che i calcolatori, una volta corredati dei programmi giusti, letteralmente capiscono e posseggono altri stati cognitivi. Per l'IA forte, poiché il calcolatore programmato possiede stati cognitivi, i programmi non sono semplici strumenti che ci permettono di verificare le spiegazioni psicologiche: i programmi sono essi stessi quelle spiegazioni.

Non ho alcuna obiezione da fare contro le tesi dell'IA debole, almeno in questo articolo. La discussione che svolgerò qui riguarderà le tesi che ho definito tipiche dell'IA forte, in particolare la tesi che il calcolatore opportunamente programmato possegga letteralmente stati cognitivi e che quindi i programmi spieghino la capacità cognitiva dell'uomo. D'ora in poi, quando parlerò di IA, ne intenderò la versione forte, caratterizzata da queste due tesi.

Prenderò in esame il libro di Roger Schank e dei suoi colleghi dell'Università di Yale, perché lo conosco meglio di altri testi che sostengono tesi analoghe e perché esso costituisce un esempio assai chiaro del tipo di impostazione che desidero discutere. Ma nulla di ciò che segue dipende dai caratteri particolari dei programmi di Schank. Le stesse argomentazioni sarebbero valide per SHRDLU di Winograd, per ELIZA di Weizenbaum, e anzi per qualunque macchina di Turing che simuli i fenomeni mentali dell'uomo.

Molto brevemente e tralasciando i vari particolari, il programma di Schank può essere descritto in questo modo: scopo del programma è di simulare la capacità dell'uomo di capire le storie. È caratteristico di questa capacità che un uomo sia in grado di rispondere a domande relative a una storia anche se l'informazione che egli fornisce con queste risposte non era esplicitamente presente in essa. Supponiamo ad esempio che venga raccontato questo episodio: "Un uomo entra in un ristorante e ordina una bistecca. Quando la bistecca arriva, è carbonizzata e l'uomo, pieno di rabbia, esce come una furia dal ristorante senza pagare la bistecca e senza lasciare mancia". Se ora si chiede a un ascoltatore umano: "L'uomo ha mangiato la bistecca?" è presumibile che egli risponda: "No, non l'ha mangiata". Analogamente, se gli raccontano quest'altro episodio: "Un uomo entra in un ristorante e ordina una bistecca; quando la bistecca arriva, l'uomo ne è molto soddisfatto; al momento di andarsene, prima di pagare il conto, dà alla cameriera una mancia generosa", alla domanda: "L'uomo ha mangiato la bistecca?" è presumibile che egli risponda: "Sì, l'ha mangiata". Ebbene, anche le macchine di Schank sono in grado di rispondere in questo- modo a domande sui ristoranti. Per farlo esse si basano su una "rappresentazione" del corredo di informazioni sui ristoranti posseduto dagli uomini, grazie alla quale essi possono rispondere a domande come quelle indicate sopra, per quel genere di storie. Dopo che si è fornita alla macchina la storia e le si è fatta la domanda, essa stamperà risposte dello stesso tenore di quelle che ci attenderemmo da esseri umani cui si raccontassero storie simili. I fautori dell'IA forte sostengono non solo che in questa successione di domande e risposte la macchina simula una capacità umana, ma anche (1) che si può affermare che la macchina, nel vero senso dei termini, capisce la storia e dà le risposte alle domande e (2) che ciò che la macchina e il suo programma fanno spiega la capacità che ha l'uomo di capire la storia e di rispondere a domande su di essa.

A me pare che nessuna di queste due tesi sia minimamente suffragata dal lavoro di Schank, e nel seguito tenterò di dimostrarlo. Naturalmente non sto dicendo che Schank stesso sostenga queste tesi.



Un modo per verificare una qualunque teoria della mente è di chiedersi come andrebbero le cose se la mia mente funzionasse davvero in base ai princìpi che quella teoria pone a fondamento di tutte le menti. Eseguiamo questa verifica sul programma di Schank mediante il seguente Gedankenexperiment (esperimento mentale). Supponiamo che io mi trovi chiuso in una stanza con un grande foglio di carta tutto coperto di ideogrammi cinesi. Supponiamo inoltre che io non conosca il cinese (ed è proprio così), scritto o parlato, e che io non sia nemmeno sicuro di riuscire a distinguere la scrittura cinese dalla scrittura, diciamo, giapponese o da sgorbi privi di significato: per me gli ideogrammi cinesi sono appunto sgorbi privi di significato. Ora supponiamo che, dopo questo primo foglio in cinese, mi venga fornito un secondo foglio scritto nella stessa scrittura, e con esso un insieme di regole per correlare il secondo foglio col primo. Le regole sono scritte in inglese e io capisco queste regole come qualsiasi altro individuo di madrelingua inglese. Esse mi permettono di correlare un insieme di simboli formali con un altro insieme di simboli formali; qui "formale" significa semplicemente che io posso identificare i simboli soltanto in base alla loro forma grafica. Supponiamo ancora che mi venga data una terza dose di simboli cinesi insieme con alcune istruzioni, anche queste in inglese, che mi permettono di correlare certi elementi di questo terzo foglio coi primi due, e che queste regole mi insegnino a tracciare certi simboli cinesi aventi una certa forma in risposta a certi tipi di forme assegnatemi nel terzo foglio. A mia insaputa le persone che mi forniscono tutti questi simboli chiamano il contenuto del primo foglio "scrittura", quello del secondo "storia" e quello del terzo "domande". Inoltre chiamano "risposte alle domande" i simboli che io do loro in risposta al contenuto del terzo foglio e chiamano "programma" l'insieme delle regole in inglese che mi hanno fornito. Ora, tanto per complicare un po' le cose, immaginiamo che queste stesse persone mi diano anche delle storie in inglese, che io capisco, e che poi mi facciano domande in inglese su queste storie, e che io risponda loro in inglese. Supponiamo ancora che dopo un po' io diventi così bravo nel seguire le istruzioni per manipolare i simboli cinesi e che i programmatori diventino così bravi nello scrivere i programmi che, dal punto di vista esterno, di qualcuno cioè che stia fuori della stanza in cui io sono rinchiuso, le mie risposte alle domande siano assolutamente indistinguibili da quelle che darebbero persone di madrelingua cinese. Nessuno, stando solo alle mie risposte, può rendersi conto che io non so neanche una parola di cinese. Supponiamo per giunta che le mie risposte alle domande in inglese siano, e certo lo sarebbero, indistinguibili da quelle fornite da altre persone di madrelingua inglese, per il semplice motivo che io sono di madrelingua inglese. Dal punto di vista esterno, cioè dal punto di vista di qualcuno che legga le mie "risposte", le risposte alle domande in cinese e a quelle in inglese sono altrettanto buone. Ma nel caso del cinese, a differenza dell'inglese, io do le risposte manipolando simboli formali non interpretati. Per quanto riguarda il cinese, mi comporto né più né meno che come un calcolatore: eseguo operazioni di calcolo su elementi specificati' per via formale. Per quanto riguarda il cinese, dunque, io sono semplicemente un'istanziazione (ossia un'entità totalmente corrispondente al suo tipo astratto) del programma del calcolatore.

Orbene, l'IA forte sostiene che il calcolatore programmato capisce le storie e che il programma in un certo qual senso spiega la capacità di comprendere dell'uomo. Ma ora siamo in grado di esaminare queste affermazioni alla luce del nostro esperimento ideale.



(1) Quanto alla prima affermazione, nell'esempio dato risulta del tutto evidente che io non capisco una sola parola delle storie in cinese. I miei ingressi e le mie uscite sono indistinguibili da quelli di una persona di madrelingua cinese, e io posso avere tutti i programmi formali che si vuole, ma non capisco ugualmente nulla. Per le stesse ragioni, il calcolatore di Schank non capisce nulla di nessuna storia, sia essa in cinese, in inglese o in un'altra lingua qualsiasi, poiché nel caso del cinese il calcolatore sono io e nei casi in cui il calcolatore non è me esso non ha nulla più di quanto abbia io quando mi trovo nella condizione in cui non capisco nulla.

(2) Quanto alla seconda affermazione, che il programma spiega come fa l'uomo a capire, si può constatare che il calcolatore e il suo programma non forniscono condizioni sufficienti del comprendere, dato che essi funzionano, eppure non c'è comprensione. Ma il programma fornisce almeno una condizione necessaria o un contributo importante al comprendere? Una delle affermazioni fatte dai sostenitori dell'IA forte è che quando io capisco una storia in inglese, ciò che faccio è esattamente la stessa cosa — o forse la stessa cosa ma in misura maggiore — di quando manipolo i simboli cinesi. Ciò che distingue il caso dell'inglese, in cui capisco, dal caso del cinese, in cui non capisco, è semplicemente una manipolazione formale più intensa. Non ho dimostrato che questa tesi è falsa ma, relativamente all'esempio, essa sarebbe certo una tesi incredibile. La plausibilità che può avere questa tesi deriva dalla supposizione che si possa costruire un programma che abbia gli stessi ingressi e le stesse uscite dei parlanti di quella madrelingua e dalla supposizione ulteriore che esista qualche livello al quale costoro possano anche essere descritti come istanziazioni di un programma. Sulla base di questi due assunti, supponiamo che, anche se il programma di Schank non ci dice proprio tutto sulla comprensione, esso possa almeno dircene qualcosa. Ritengo che questa sia in effetti una possibilità empirica, ma finora non è stata addotta la minima ragione per poter credere che ciò sia vero, e anzi il nostro esempio suggerisce — anche se certo non lo dimostra — che il programma del calcolatore non ha proprio nulla a che fare con la mia comprensione della storia. Nel caso del cinese, io ho tutto ciò che l'intelligenza artificiale può introdurre in me per mezzo di un programma, eppure non capisco nulla; nel caso dell'inglese capisco tutto, e fino a questo momento non c'è alcun motivo per credere che la mia comprensione abbia qualcosa a che fare con i programmi di calcolatore, cioè con operazioni di calcolo su elementi specificati per via puramente formale. Ciò che l'esempio lascia intendere è che, finché il programma è definito in termini di operazioni di calcolo su elementi definiti per via puramente formale, questi elementi non hanno di per sé alcun legame interessante con la comprensione. Essi non sono certo condizioni sufficienti e non è stata fornita la minima ragione per farci supporre che siano condizioni necessarie per il comprendere, o che, per lo meno, vi j contribuiscano in modo significativo. Si osservi che la forza dell'argomentazione non è semplicemente che macchine diverse possono avere gli stessi ingressi e le stesse uscite pur operando sulla base di princìpi formali diversi: non è affatto questo il punto. Il fatto è che quali che siano i princìpi puramente formali introdotti nel calcolatore, essi non saranno sufficienti per il comprendere, poiché un essere umano sarà capace di seguire quei princìpi formali senza per questo capire nulla. Non è stata fornita alcuna ragione per supporre che questi princìpi siano necessari o che almeno diano un contributo, poiché non è stata data alcuna ragione per supporre che, quando capisco l'inglese, io stia funzionando in base a un qualsivoglia programma formale.

Orbene, che cosa ho nel caso delle frasi in inglese che invece mi manca nel caso delle frasi in cinese? La risposta ovvia è che so che cosa significano le une, mentre non ho la minima idea di che cosa significhino le altre. Ma in che consiste precisamente questo qualcosa, e perché di qualunque cosa si tratti, non potremmo darlo a una macchina? Tornerò in seguito su questo punto, ma prima voglio continuare con l'esempio.



Ho avuto modo di sottoporre il mio esempio a parecchi ricercatori d'intelligenza artificiale ed è interessante notare che essi non sembrano d'accordo sulla risposta da dare a questa domanda. Le risposte che ho raccolto sono di una varietà sorprendente; qui di seguito esaminerò le più comuni (indicandone anche l'origine geografica).

Prima tuttavia voglio mettere in guardia contro alcuni fraintendimenti comuni sul significato di "capire": in molte di queste discussioni viene sollevato un grande polverone sulla parola "capire". I miei critici fanno notare che esistono molti gradi diversi di comprensione, che "capire" o "comprendere" non è un semplice predicato a due argomenti; che vi sono addirittura generi e livelli diversi di comprensione, e che spesso la legge del terzo escluso non si applica in modo immediato neppure a enunciati della forma "x capisce y"; che in molti casi il fatto che x capisca y non è un semplice fatto oggettivo, ma una questione di decisione, e così via. A tutte queste osservazioni risponderei dicendo: certo, certo. Ma esse non hanno nulla a che fare con gli argomenti in discussione. Ci sono casi evidenti in cui "capire" ha il suo significato letterale e casi evidenti in cui non lo ha; e questi due generi di casi sono tutto quanto mi occorre per la mia argomentazione.1 Io capisco le storie in inglese; in misura minore sono in grado di capire quelle in francese, in misura ancora minore quelle in tedesco; le storie in cinese non le capisco per niente. La mia automobile e la mia addizionatrice da tavolo, invece, non capiscono nulla: esse non si occupano di questo genere di cose. Spesso attribuiamo il comprendere e altri predicati cognitivi per metafora e analogia alle automobili, alle addizionatrici e ad altri manufatti, ma queste attribuzioni non dimostrano nulla. Diciamo: "La porta sa quando si deve aprire, grazie alla sua cellula fotoelettrica", "L'addizionatrice sa come (capisce come, è capace di) fare l'addizione e la sottrazione, ma non la divisione", "Il termostato sente le variazioni di temperatura". Il motivo per cui facciamo queste attribuzioni è molto interessante ed è legato al fatto che nei manufatti noi estendiamo la nostra intenzionalità;2 i nostri strumenti sono un'estensione dei nostri fini e troviamo quindi naturale fare nei loro confronti attribuzioni metaforiche di intenzionalità; ma secondo me questi esempi non hanno nessuna forza filosofica. Il senso in cui una porta automatica "capisce le istruzioni" della sua cellula fotoelettrica non è affatto il senso in cui io capisco l'inglese. Se il senso in cui i calcolatori programmati da Schank capiscono i racconti è inteso come lo stesso senso metaforico in cui la porta capisce e non come quello in cui io capisco l'inglese, allora non mette neppure conto discutere il problema. Tuttavia Newell e Simon (1963) scrivono che il genere di cognizione che essi sostengono sia posseduta dai calcolatori è esattamente identico a quella degli esseri umani. Mi piace il carattere deciso di questa affermazione, ed è proprio questo il genere che prenderò in considerazione. Cercherò di mostrare che il calcolatore programmato capisce, in senso letterale, quello che capiscono l'automobile e l'addizionatrice, cioè assolutamente niente. La comprensione del calcolatore non è (come la mia comprensione del tedesco) solo parziale o incompleta: è nulla.

Passiamo ora alle risposte:



I. La risposta dei sistemi (Berkeley). "Pur essendo vero che l'individuo chiuso nella stanza non capisce la storia, sta di fatto che egli è solo parte di un sistema globale e questo sistema capisce la storia. La persona ha davanti a sé un grosso libro su cui stanno scritte le regole, ha una bella provvista di carta e di matite per fare i calcoli, ha 'banche di dati' piene di gruppi di simboli cinesi. Orbene, la comprensione non viene ascritta all'individuo isolato, bensì al sistema complessivo di cui egli è parte".

La mia risposta alla teoria dei sistemi è semplicissima: facciamo in modo che l'individuo interiorizzi tutti questi elementi del sistema. Gli facciamo imparare a memoria le regole del grosso libro e le banche dei simboli cinesi, e gli facciamo fare tutti i calcoli a mente. L'individuo incorpora così tutto il sistema: nel sistema non vi è nulla che egli non abbracci. Possiamo anche sbarazzarci della stanza e supporre che egli lavori all'aperto. Ma anche così egli non capirà nulla di cinese e lo stesso vale a fortiori per il sistema, poiché nel sistema non vi è nulla che non sia anche in lui: se lui non capisce, neppure il sistema può in alcun modo capire, perché il sistema è parte di quell'individuo.

In realtà provo un po' d'imbarazzo nel dare anche solo questa risposta alla teoria dei sistemi, perché questa teoria mi sembra già in partenza decisamente non plausibile. L'idea è che anche se una persona non capisce il cinese, la congiunzione di quella persona con pochi fogli di carta potrebbe in qualche modo capire il cinese. Non mi è facile immaginare come qualcuno, che non sia prigioniero di un'ideologia, possa trovare in questa idea un minimo di plausibilità. Ma credo che molti fautori dell'ideologia dell'IA forte finirebbero alla lunga per dire qualcosa di molto simile; occupiamocene quindi ancora un po'. Secondo una versione di questa concezione, benché l'uomo dell'esempio col sistema interiorizzato non capisca il cinese nel senso in cui lo capisce un parlante di madrelingua cinese (perché, ad esempio, non sa che la storia parla di ristoranti, di bistecche, ecc.), tuttavia "l'uomo come sistema di manipolazione di simboli formali" capisce veramente il cinese. Il sottosistema dell'uomo costituito dal sistema di manipolazione di simboli formali per il cinese non va confuso con il sottosistema per l'inglese.

Quindi nell'uomo vi sono in realtà due sottosistemi: uno capisce l'inglese, l'altro il cinese e "in realtà questi due sistemi hanno ben poco a che fare l'uno con l'altro". Ma, vorrei precisare, non solo hanno poco a che fare l'uno con l'altro: tra di loro non esiste la benché minima somiglianza. Il sottosistema che capisce l'inglese (supponendo di acconsentire all'uso di questa barbara terminologia dei "sottosistemi") sa che le storie parlano di ristoranti e di bistecche, sa che gli vengono poste delle domande sui ristoranti, sa che sta facendo del suo meglio per rispondere alle domande facendo varie inferenze sulla base del contenuto della storia, e così via. Ma il sistema per il cinese non sa nulla di tutto ciò. Mentre il sottosistema per l'inglese sa che "bistecche" si riferisce alle bistecche, il sottosistema per il cinese sa solo che uno "sgorbietto fatto così" è seguito da uno "sgorbietto fatto cosà". Esso sa soltanto che a un'estremità vengono introdotti vari simboli formali, che sono poi manipolati secondo certe regole scritte in inglese, mentre dall'altra estremità escono altri simboli. Lo scopo dell'esempio originale era quello di mostrare che questa manipolazione di simboli non potrebbe di per sé essere sufficiente per capire il cinese in alcun senso letterale, poiché l'uomo potrebbe scrivere uno "sgorbietto fatto cosà" dopo uno "sgorbietto fatto così" senza capire un'acca di cinese. E questo ragionamento non viene infirmato se all'interno dell'uomo si postulano dei sottosistemi, poiché questi sottosistemi non si trovano in condizioni migliori di quelle in cui si trovava l'uomo; in essi non c'è nulla che si avvicini neppure lontanamente a ciò che possiede l'uomo (o il sottosistema) che parla inglese. Anzi, nel nostro caso, così com'è descritto, il sottosistema per il cinese è una semplice parte del sottosistema per l'inglese, una parte che compie una manipolazione di simboli senza significato secondo certe regole espresse in inglese.

Chiediamoci quale sia la ragione della risposta dei sistemi; cioè, quali sarebbero le basi indipendenti per affermare che l'agente deve avere in sé un sottosistema che capisce veramente le storie in cinese. Per quanto mi consta, le uniche basi sono che, nell'esempio, io ho gli stessi ingressi e le stesse uscite di un parlante di madrelingua cinese e un Programma che va dagli uni alle altre. Ma gli esempi miravano proprio a dimostrare che ciò non potrebbe essere sufficiente per capire, nel senso in cui io capisco le storie in inglese, perché una persona, e quindi l'insieme dei sistemi che concorrono a formare una persona, potrebbe avere la giusta combinazione di ingresso, uscita e programma e tuttavia non capire nulla, nel senso vero e significativo in cui io capisco l'inglese. L'unica motivazione per dire che in me deve esistere un sottosistema che capisce il cinese è che io ho un programma che può superare il test di Turing: posso ingannare le persone di madrelingua cinese. Ma uno dei punti in discussione è proprio l'adeguatezza del test di Turing. L'esempio mostra che potrebbero esistere due "sistemi" che superano entrambi il test di Turing, ma dei quali solo uno capisce; e non si confuta questo punto dicendo che, poiché entrambi superano il test di Turing, entrambi devono capire, dal momento che questa affermazione non risponde all'argomento che il sistema dentro di me che capisce l'inglese è dí gran lunga più ricco del sistema che semplicemente elabora il cinese. In breve, la risposta dei sistemi è una pura petizione di principio; che ribatte senza addurre argomenti che il sistema deve capire il cinese.

Inoltre la risposta dei sistemi parrebbe condurre a conseguenze che sono di per sé assurde. Se si deve concludere che in me deve esserci una capacità cognitiva sulla base del fatto che io ho un certo tipo d'ingresso e di uscita e tra i due un programma, allora ci troveremo davanti a una quantità di sottosistemi non cognitivi in possesso di capacità cognitive. Ad esempio c'è un livello di descrizione al quale il mio stomaco esegue un'elaborazione dell'informazione e istanzia tutta una serie di programmi per calcolatore, ma direi che nessuno vuole sostenere che esso abbia una qualche facoltà di comprensione. Se però accettiamo la risposta dei sistemi, è difficile vedere come si possa evitare di dover dire che lo stomaco, il cuore, il fegato e così via, sono sottosistemi che capiscono, dato che non c'è modo di distinguere in base a princìpi espliciti tra le motivazioni che ci portano a dire che il sottosistema per il cinese capisce e quelle che ci portano a dire che lo stomaco capisce. Tra l'altro, non è risposta che valga dire che il sottosistema per il cinese ha in ingresso e in uscita delle informazioni, mentre lo stomaco ha in ingresso del cibo e in uscita dei derivati del cibo, poiché dal punto di vista dell'agente, dal mio punto di vista, non vi sono informazioni né nel cibo né nel cinese: il cinese è soltanto un guazzabuglio di sgorbi senza senso. Nel caso del cinese l'informazione è tale solo agli occhi dei programmatori e degli interpreti, e nulla impedisce loro, se vogliono, di considerare l'ingresso e l'uscita del mio apparato digerente come informazione.



Quest'ultimo punto tocca alcuni problemi indipendenti dell'IA forte, e mette conto fare una breve digressione per approfondirlo. Se l'IA forte vuole essere una branca della psicologia, essa deve essere in grado di distinguere i sistemi che sono autenticamente di natura mentale da quelli che non lo sono. Deve essere in grado di distinguere i princìpi su cui si basa il funzionamento della mente da quelli su cui si basa il funzionamento dei sistemi non mentali; altrimenti non ci fornirà alcuna spiegazione di ciò che, nel mentale, è specificamente mentale. E la distinzione fra mentale e non mentale non può risiedere solo nell'occhio dell'osservatore, bensì deve essere inerente al sistema; altrimenti qualunque osservatore potrebbe a suo piacimento considerare le persone come non mentali e invece ad esempio gli uragani come mentali. Ma nei lavori sull'IA questa distinzione viene spesso sfocata in modi che, alla lunga, potrebbero dimostrarsi disastrosi per la tesi che l'IA è una ricerca di carattere cognitivista. McCarthy, ad esempio, scrive: "Si può dire che macchine anche semplicissime come il termostato abbiano convinzioni, e avere convinzioni sembra sia una caratteristica della maggior parte delle macchine capaci di eseguire la risoluzione di problemi". Chiunque pensi che l'IA forte abbia un futuro come teoria della mente farebbe bene a meditare sulle implicazioni di questa osservazione. Ci viene chiesto di accettare come una scoperta dell'IA forte che la scatoletta di metallo appesa alla parete che usiamo per regolare la temperatura abbia delle convinzioni esattamente come ne abbiamo noi, le nostre mogli o mariti, i nostri figli, e inoltre che "la maggior parte" delle altre macchine che si trovano nella stanza — il telefono, il registratore, l'addizionatrice, gli interruttori della luce —abbiano anch'esse convinzioni in questo senso letterale. Non è scopo di questo articolo ribattere la tesi di McCarthy, quindi mi limiterò ad affermare quanto segue senza discuterlo. Lo studio della mente parte da fatti come quello che gli uomini hanno delle convinzioni mentre i termostati, i telefoni e le addizionatrici non ne hanno. Se si trova una teoria che nega questo punto, si ha un controesempio alla teoria e la teoria è falsa. Si ha l'impressione che quelli che, nel campo dell'IA, scrivono cose simili pensino di farla franca perché in realtà non prendono sul serio ciò che dicono e credono che anche gli altri non lo prenderanno sul serio. Ma proviamo noi, almeno per un momento, a prenderlo sul serio: riflettiamo un attimo su che cosa sarebbe necessario per stabilire che quella scatoletta di metallo lì sulla parete ha convinzioni autentiche: convinzioni con un preciso orientamento, un contenuto proposizionale e condizioni di soddisfacibilità; convinzioni che abbiano la possibilità di essere forti o deboli, nervose, ansiose o salde, dogmatiche, razionali o superstiziose; fedi cieche o cogitazioni esitanti; ogni sorta di convinzioni. Per tutto questo il termostato non ha le carte in regola. E non le hanno neanche lo stomaco o il fegato o l'addizionatrice o il telefono. Tuttavia, poiché stiamo considerando in tutta serietà questa idea, si osservi che, se fosse vera, essa sarebbe fatale per la pretesa dell'IA forte di essere una scienza della mente. Risulterebbe infatti che la mente è dappertutto. Ma ciò che noi volevamo sapere è che cosa distingue la mente dai termostati e dai fegati; e, se McCarthy avesse ragione, PIA forte non avrebbe nessuna speranza di dircelo.




Condividi con i tuoi amici:
  1   2   3


©astratto.info 2019
invia messaggio

    Pagina principale