Jacopone da todi



Scaricare 97.02 Kb.
24.01.2018
Dimensione del file97.02 Kb.



LICEO CLASSICO STATALE

JACOPONE DA TODI”



CON ANNESSO LICEO SCIENTIFICO

Sergio Guarente

Filosofia e Intelligenza Artificiale: dal dibattito teorico alle implicazioni pedagogico-didattiche

INDICE

1. Il dibattito filosofico-epistemologico sull’Intelligenza Artificiale come progetto di simulazione della mente p. 3

2. Le implicazioni dell’Intelligenza Artificiale sul piano pedagogico-didattico: il tema della corporeità p. 14



Bibliografia p. 25

1. Il dibattito filosofico-epistemologico sull’Intelligenza Artificiale come progetto di simulazione della mente

La ricerca filosofica ha fin dai suoi inizi indagato con grande attenzione i temi relativi all’attività mentale, con particolare riferimento da un lato all’obiettivo di individuare il come si possa pensare in modo “corretto”, dall’altro al tentativo di definire che cosa costituisca la mente ed in generale l’attività pensante. I due ambiti di indagine sono senza dubbio strettamente connessi: rispondere alla questione del “come” il pensiero operi implica altresì ricercare in “che cosa” esso consista. La logica (che si occupa del “come”) e la gnoseologia (che indaga il “che cosa”) procedono dunque secondo un preciso intreccio: tuttavia, agli evidenti progressi compiuti nel campo della definizione delle modalità del ragionamento si contrappone in un certo senso una nebulosità di prospettive riguardo alla questione dell’essenza dei fenomeni mentali. La ricerca sull’Intelligenza Artificiale rappresenta appunto un tentativo di “diradare” le incertezze relativamente al “che cosa” della mente e del pensiero ed è proprio su questo piano che ha costituito un indubbio stimolo al dibattito filosofico: risulta chiaro quindi che l’IA non può essere ridotta ad una disciplina puramente matematico-ingegneristica, dal momento che i problemi da essa posti e le soluzioni prospettate investono direttamente la ricerca filosofica.

Se dunque la riflessione sulla natura della mente è il punto di intersezione fondamentale tra IA e filosofia, sarà opportuno partire dagli obiettivi iniziali della stessa IA, al fine di rilevare l’originaria impostazione di una disciplina che si proporrà come una vera e propria sfida nei confronti del pensiero filosofico e del dibattito epistemologico. Sia il termine che la disciplina nascono nel 1956, in occasione di uno storico seminario interdisciplinare svoltosi al Dartmouth College di Hannover, nel New Hampshire, e promosso da John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon1. Fondamentalmente, l’obiettivo originario dell’IA era quello di imitare o riprodurre, attraverso la costruzione di macchine elettroniche, l’attività mentale umana. Afferma in proposito Giuseppe O. Longo:
L’IA non era animata dall’intento, ingenuo e impossibile, di (ri)costruire una creatura simile all’uomo nel suo complesso, bensì di riprodurne o simularne con estrema precisione una sola parte: la mente; o meglio l’intelligenza computante, considerata l’aspetto più importante, caratteristico e fondamentale dell’uomo. Infatti a quei tempi c’era (e c’è tuttora) una forte tendenza a identificare l’intelligenza con i suoi aspetti razionali, anzi simbolici e algoritmici, e questa identificazione, cui contribuiva prepotentemente il calcolatore, rafforzava a sua volta la convinzione che l’informatica fosse la tecnologia giusta per costruire, dopo tante ingenuità, modelli della mente corretti e collaudabili2.
Dunque, gli entusiasmi che hanno accompagnato la nascita dell’IA riguardavano la possibilità, per i moderni calcolatori, di riprodurre quanto meno le funzioni “nobili” della mente; non solo: una volta trasferiti gli algoritmi mentali sul calcolatore, quest’ultimo sarebbe assurto a “modello” per elezione della mente umana. Evidentemente, questo iniziale assunto dell’IA implicava la convinzione che le macchine possano pensare e presupponeva altresì la tesi di fondo dell’isomorfismo tra intelligenza umana e intelligenza artificiale.

Ma possono le macchine pensare? A questo interrogativo basilare, decisivo per le sorti dell’IA ai suoi inizi, aveva dato una risposta fondamentalmente positiva il logico e matematico inglese Alan Mathison Turing, sia pure cercando di evitare la “trappola” filosofica di una definizione della natura o essenza ultima della mente. Se una tale definizione è alquanto problematica dal punto di vista concettuale e linguistico, un approccio al problema di tipo comportamentista e non essenzialista poteva risultare senz’altro più proficuo: infatti, la classica domanda “le macchine possono pensare?” era sostituita ad opera del matematico inglese da un quesito di sapore comportamentista: “come si deve comportare una macchina per autorizzarci a dire che pensa?”. La risposta al quesito era affidata al cosiddetto “gioco dell’imitazione”, in seguito chiamato test di Turing. Tale test prevede che un esaminatore ponga delle domande a una persona e a una macchina, ricevendone le risposte esclusivamente attraverso messaggi scritti, quindi senza sapere da chi provengano: se agli occhi dell’esaminatore la macchina riesce a farsi passare per la persona, almeno per un certo tempo, allora si potrà parlare di macchina intelligente; in altri termini, un computer sarà pensante quando i suoi comportamenti saranno giudicati da esseri umani del tutto analoghi a quelli dell’uomo. Nel suo celebre articolo Calcolatori e intelligenza (Computing Machinery and Intelligence), apparso su “Mind” nel 1950, Turing prevedeva che per la fine del Novecento


sarà possibile programmare calcolatori aventi una capacità di memoria di circa 109, in modo da farli giocare così bene al gioco dell’imitazione che un interrogante medio avrà una probabilità non superiore al 70% di compiere l’identificazione giusta dopo cinque minuti di interrogatorio. […] Alla fine del secolo […] si potrà parlare di macchine pensanti senza aspettarsi di essere contraddetti3.
Al di là della fondatezza di tali previsioni, il test di Turing ha indubbiamente rappresentato un caposaldo metodologico fondamentale per le ambizioni iniziali dell’IA. E tuttavia, proprio la rinuncia da parte di Turing ad interrogarsi sulla natura dei processi mentali ha suscitato non poche obiezioni e controversie nell’ambito della comunità dell’IA. Infatti, gli entusiasti fautori dell’IA classica o forte hanno proceduto oltre il “comportamentismo” di Turing, nella convinzione di poter offrire un paradigma teorico relativo alle modalità di funzionamento della mente: un tassello fondamentale di tale paradigma è stato ritrovato appunto nell’indicazione di un isomorfismo o analogia tra la mente e il computer, da intendersi non certo in senso ontologico-strutturale, bensì in senso funzionale, ossia come riconduzione della mente umana al modello rappresentato dalla logica simbolico-computazionale dei computer.

L’ipotesi di ricerca rappresentata dal modello computazionale della mente trova un preciso ancoraggio ed un punto di riferimento basilare nella dottrina filosofica circa il rapporto mente-cervello definita funzionalismo. Questa teoria, sviluppatasi in particolare negli Stati Uniti intorno agli anni sessanta e settanta, ha avuto tra i suoi principali esponenti i filosofi Hilary Putnam e Jerry A. Fodor ed è caratterizzata da una decisa critica nei confronti della tesi fisicalista e riduzionista secondo la quale gli stati mentali sono identici a stati fisico-chimici del cervello. In realtà, sostengono i funzionalisti, il cervello (con i suoi meccanismi neurofisiologici) non costituisce affatto la condizione necessaria e sufficiente per la produzione di un determinato stato mentale, ovvero per l’esecuzione di una determinata funzione. Le medesime funzioni (come la percezione, il ricordo, il ragionamento) possono essere realizzate sulla base di supporti materiali diversi. Quindi, lo studio della mente avrà come suo compito fondamentale non tanto la descrizione del suo sostrato materiale, quanto la definizione dei processi logico-simbolici e computazionali che regolano l’organizzazione funzionale della mente stessa. Il rapporto tra mente e cervello, per i funzionalisti, è analogo a quello tra software e hardware: le caratteristiche formali della mente (il software) sono indipendenti dalle caratteristiche materiali del cervello quale supporto fisico (l’hardware). Ma allora, se gli eventi mentali sono qualificati dalla loro funzione e non dalla loro costituzione materiale, sarà possibile che le medesime operazioni mentali vengano realizzate da differenti tipi di hardware (il cervello nel caso dell’uomo e i circuiti elettronici di silicio nel caso del computer).

Questa asserzione del funzionalismo è risultata decisiva ai fini della formulazione del modello computazionale della mente: infatti, una concezione dell’intelligenza considerata come “disincarnata” o senza corpo permetteva di istituire l’analogia mente-computer e di considerare la “computazione” come il segno distintivo dell’attività mentale e delle operazioni delle macchine. Dal momento che un computer indubbiamente possiede delle capacità computazionali, si profilava dunque plausibile per i maggiori teorici dell’IA forte (si pensi ad Allen Newell e Herbert A. Simon) l’obiettivo di una effettiva realizzazione di comportamenti intelligenti nei computer. In altri termini, se la mente e il computer sono entrambi basati su meccanismi o programmi di tipo computazionale (separabili dai rispettivi supporti fisici), quindi se si è in presenza di una somiglianza o addirittura di un’identità di modello, occorrerà ammettere che in qualche modo anche i computer sono in grado di pensare.

Ma in cosa consiste precisamente il modello in questione? L’ipotesi di base ripropone in termini scientificamente aggiornati la vecchia idea di Hobbes della ragione come “calcolo”: infatti, sostiene che il pensiero operi come elaborazione di informazioni espressa in forma computazionale, ossia come effettuazione di un calcolo o manipolazione di simboli appartenenti ad un sistema formale che obbedisce a regole meccaniche esplicitamente formulate (il termine “computazione” indica appunto un tale processo). Per l’IA forte o funzionalista-computazionale, allora, le operazioni del pensiero si riducono alla semplice manipolazione di simboli formali. Questa asserzione è stata oggetto di critiche rilevanti, tra le più significative delle quali va citata quella del filosofo americano John R. Searle.

E’ stato proprio Searle ad introdurre i concetti di IA forte e debole in un celebre articolo intitolato Menti, cervelli e programmi (Minds, Brains and Programs) ed apparso nel 1980 in “The Behavioral and Brain Sciences”. Egli scrive infatti:
[…] Ritengo utile distinguere tra un’IA (intelligenza artificiale) che chiamerò “forte” e un’IA che chiamerò “debole” o “cauta”. Secondo l’IA debole, il pregio principale del calcolatore nello studio della mente sta nel fatto che esso ci fornisce uno strumento potentissimo: ci permette, ad esempio, di formulare e verificare le ipotesi in un modo più preciso e rigoroso. Secondo l’IA forte, invece, il calcolatore non è semplicemente uno strumento per lo studio della mente, ma piuttosto, quando sia programmato opportunamente, è una vera mente; è cioè possibile affermare che i calcolatori, una volta corredati dei programmi giusti, letteralmente capiscono e posseggono altri stati cognitivi. Per l’IA forte, poiché il calcolatore programmato possiede stati cognitivi, i programmi non sono semplici strumenti che ci permettono di verificare le spiegazioni psicologiche: i programmi sono essi stessi quelle spiegazioni4.
Searle sostiene di non avere alcuna obiezione da rivolgere all’IA debole; la sua critica riguarda piuttosto le due tesi dell’IA forte per cui in primo luogo un calcolatore opportunamente programmato possieda letteralmente stati cognitivi e in secondo luogo i programmi spieghino la capacità cognitiva dell’uomo. La confutazione di queste tesi è affidata da Searle alla proposta di un esperimento mentale chiamato test della stanza cinese. In base a tale esperimento, si immagini che un uomo digiuno della lingua cinese sia chiuso in una stanza contenente scatole di ideogrammi cinesi e possa consultare un manuale (scritto nella propria lingua) in cui siano specificate chiaramente le regole per associare ideogrammi cinesi ad altri ideogrammi cinesi, regole basate sulla forma degli ideogrammi e non sul loro significato, che l’uomo della stanza non può capire. All’esterno vi sono delle persone di madrelingua cinese che introducono nella stanza gruppetti di ideogrammi: in base alle regole del manuale, l’uomo costruisce altri gruppetti di ideogrammi e li restituisce alle persone in attesa, con cui non ha nessun altro contatto. Dal momento che le regole sono tali da rendere le risposte dell’uomo nella stanza indistinguibili da quelle che fornirebbe una persona di madrelingua cinese, avremmo la produzione di discorsi in cinese perfettamente sensati, pur continuando la persona nella stanza ad ignorare il cinese.

Come va intesa allora la ratio complessiva della “parabola informatica” di Searle? In primo luogo, ci dice il filosofo americano, il manuale con le regole corrisponde al programma di calcolatore, i suoi autori ai programmatori, l’uomo al calcolatore, le scatole piene di simboli alla base di dati, i gruppetti di ideogrammi forniti all’uomo rappresentano le domande poste al calcolatore e i gruppetti restituiti le sue risposte. Quindi, l’uomo della stanza, come un calcolatore, smista simboli senza comprenderne il significato, senza alcuna possibilità di apprendere il cinese; evidentemente, se la semplice esecuzione di un programma per la comprensione del cinese non consente all’uomo di capire questa lingua, egualmente nessun calcolatore che faccia girare un programma del genere potrà capire il cinese. E ciò che vale per il cinese vale anche per le altre attività cognitive: la semplice manipolazione dei simboli non basta di per sé a garantire l’intelligenza, la percezione, la comprensione, il pensiero e così via. Pertanto, commenta Giovanni Fornero,


Searle intende mettere in evidenza come una semplice manipolazione formale di simboli non implichi una concomitante comprensione dei “significati” di tali simboli e di conseguenza non coincida con l’intelligenza in senso umano, la quale è sempre “intenzionale”. In altri termini, usando una terminologia linguistica, il filosofo americano sostiene che i computer sono enti “sintattici” (in quanto collegano determinati simboli secondo determinate regole) ma non “semantici” (in quanto non annettono a tali simboli dei significati intenzionali). Per questa loro natura sintattica, i computer non possiedono una vera e propria “comprensione”. Infatti, noi sappiamo che l’intelligenza di una lingua non comporta il semplice possesso di un mucchio di simboli formali, ma anche il possesso di un’interpretazione del significato di tali simboli5.
La tesi di fondo di Searle è dunque che la sintassi non è di per sé condizione sufficiente per la semantica e che i computer non sono in grado di compiere il passaggio dalla sintassi alla semantica perché la semantica è di natura o qualità diversa dalla sintassi. Il dato rilevante che emerge allora dalla critica di Searle all’IA forte è la comune assenza dell’”intenzionalità originaria” caratterizzante la persona nella stanza cinese e il computer. Dunque, il computer non sarebbe dotato di una intenzionalità propria e non potrebbe definirsi intelligente: l’intenzionalità originaria e l’intelligenza sarebbero appannaggio esclusivo delle menti dei programmatori.

Una tale posizione teorica ha indubbiamente una chiara connotazione anti-operazionalista e anti-comportamentista, arrivando a contestare apertamente il test di Turing: infatti, l’esperimento mentale di Searle intende mostrare che il computer può benissimo comportarsi come se comprendesse il cinese, pur in realtà non comprendendolo affatto. Quindi, nessun sistema, che si limiti a manipolare simboli, andrebbe considerato identico ad un essere pensante, anche se le sue prestazioni esteriori sono le medesime.

L’anti-operazionalismo implica a sua volta una critica evidente dell’ipotesi funzionalista e del suo correlativo dualismo: secondo Searle, non è possibile separare concettualmente ed empiricamente la mente (il software) dal cervello (l’hardware). In altri termini, afferma Searle, la mente è un prodotto causale del cervello e quest’ultimo è la “sede” della nostra intenzionalità. Il filosofo americano non intende escludere in assoluto che le macchine possano pensare: egli infatti ritiene che degli esseri artificiali potrebbero pensare se in essi venissero replicati i poteri causali attribuibili alla struttura fisico-chimica del cervello umano che sono alla base dell’intenzionalità originaria. Va pertanto negata la tesi per cui il pensare corrisponde al semplice obbedire ad un programma di elaborazione dell’informazione, senza tenere in conto la struttura fisico-chimica alla base di tale elaborazione. Dal punto di vista di Searle, se anche in futuro i computer saranno in grado di simulare in modo molto più potente di adesso il comportamento umano, non si potrà parlare di vera e propria “intelligenza” delle macchine fin quando esse non saranno dotate di un cervello biologico identico o equivalente (dal punto di vista dei poteri causali) a quello umano. In ultima analisi, la capacità di attribuire significati (segno distintivo dell’intelligenza) dipende, secondo Searle, da proprietà intrinseche della materia cerebrale che oggi in parte ci sfuggono.

L’ipotesi dell’IA debole pone dunque in discussione le ambizioni e forse le presunzioni dell’IA classica o forte circa la possibilità di attribuire il pensiero e l’intelligenza dell’uomo alle macchine. A partire dagli anni ottanta, tuttavia, si è assistito nell’ambito dell’IA classica ad un interessante tentativo di superare il paradigma funzionalista e di ripensare il rapporto tra la mente e il suo supporto fisico-chimico, nel senso di una considerazione più attenta proprio al tema indicato da Searle della dipendenza dei significati mentali dalle caratteristiche e dalle proprietà intrinseche al sostrato materiale rappresentato dal cervello. Questo nuovo paradigma dell’IA classica o forte è stato definito connessionismo, ossia un approccio all’intelligenza artificiale chiaramente in opposizione all’ipotesi funzionalista (basata come sappiamo sull’assunto dell’autonomia della mente dal suo supporto neurofisiologico), nell’intento di riprodurre la mente e l’intelligenza su sistemi artificiali costruiti in base ai modi con cui il cervello lavora. In altri termini, il connessionismo contesta ogni residua separazione dualistica fra mente e cervello, compresa quella operante all’interno dell’IA, scorgendo nel cervello, anziché nel computer, l’autentico modello o, se si vuole, l’autentica “metafora” della mente.

Per il connessionismo, dunque, il cervello è assunto come modello di riferimento della mente: ciò significa che l’obiettivo fondamentale dell’IA sarà quello di simulare al calcolatore le caratteristiche fisiche del nostro sistema nervoso, sulla base della convinzione per cui solo partendo dal supporto biologico è possibile approdare ad una conoscenza effettiva delle caratteristiche funzionali della mente. Certo, il tentativo connessionista non si nasconde le difficoltà relative all’imitazione di una struttura così complessa come quella del cervello umano, ma in ogni caso si propone di trasporre su macchine artificiali le connessioni tipiche delle strutture cerebrali. Infatti, è noto che il cervello si basa su un’enorme quantità di connessioni che collegano tra loro le varie cellule sino a formare reti molto complesse (le reti di neuroni o neuronali): il connessionismo prospetta allora di lavorare non più sulla base degli algoritmi a schema sequenziale dei classici computer, ma sulla base di algoritmi che si propagano in parallelo in una rete di varie unità di elaborazione.

Una tale architettura dei computer basata sull’imitazione delle reti neuronali del cervello dovrebbe inoltre consentire di superare l’inadeguatezza delle macchine tradizionali ancora legate ad una concezione puramente logico-simbolica della mente. Per il connessionismo, infatti, l’IA funzionalista concepisce in modo sostanzialmente limitato l’attività cognitiva umana, interpretandola nei termini di procedimenti logico-linguistici coscienti e razionali, e dunque non tenendo conto dell’interazione non-linguistica e non-cosciente dell’uomo con l’ambiente, della plasticità e flessibilità dei processi di apprendimento. La contestazione di una concezione puramente meccanicistica e razionalistica della mente sta ad indicare pertanto, come scrive ancora Giovanni Fornero, che


sul piano della applicazioni pratiche il connessionismo, fornendo lo spunto per nuove architetture parallele dei calcolatori, pone le basi per la costruzione di macchine intelligenti in grado di superare i limiti di quelle costruite nell’ambito della IA. In altri termini, lasciandosi alle spalle l’impostazione simbolica, sequenziale e programmatoria della IA classica, il connessionismo promette la costruzione di macchine intelligenti dotate di flessibilità, sensibilità al contesto e capacità di apprendimento, ovvero di macchine capaci di suggerire soluzioni proprio là dove l’IA incontra i suoi maggiori ostacoli. Ovviamente solo l’avvenire potrà dirci se agli attuali entusiasmi corrisponderanno effettivi successi6.
In ogni caso, c’è da rilevare che, pur partendo da assunti teorici diversi se non opposti, il funzionalismo e il connessionismo concordano quanto meno sul punto di fondo della possibilità di replicare nei computer l’attività mentale umana. E’ proprio su questo tema decisivo che si è indirizzata la critica filosofica all’IA: si pensi al già citato Searle. In questo contesto, la più radicale obiezione filosofica nei confronti dell’ipotesi forte dell’IA è stata comunque condotta dal filosofo americano Hubert L. Dreyfus, la cui opera principale Che cosa non possono fare i computer7 (What Computers Can’t Do), apparsa per la prima volta nel 1972 (con edizione riveduta nel 1979), ha contribuito non poco a “scalfire” le presunte certezze dei più accesi sostenitori dell’IA.

Secondo Dreyfus, che muove da un’ottica “fenomenologica” ispirata ad Heidegger e Merleau-Ponty, il limite più grave dell’ipotesi forte dell’IA va ricercato in una concezione della mente dalla forte tinta atomistica ed acontestuale, che pretende cioè di trovare gli atomi, le unità minime costitutive della conoscenza, dotate di un significato indipendente da ogni contesto, e di operare su di esse con regole immutabili, date una vota per tutte e anch’esse indipendenti da ogni contesto. L’intelligenza umana, afferma Dreyfus, non può evidentemente coincidere con un tale modello proprio perché olistica e contestuale. L’olismo è infatti una caratteristica imprescindibile dell’attività cognitiva umana, che non agisce manipolando elementi discreti e procedendo dagli atomi alla totalità, bensì cogliendo le parti all’interno della totalità che le costituisce. Allo stesso modo, non è possibile negare il carattere contestuale della nostra intelligenza, dal momento che le conoscenze che acquisiamo sono comunque relative al contesto o situazione in cui agiamo, ad uno sfondo di precomprensione implicita necessario all’efficacia di ogni nostra esplicita operazione intelligente. E questo sfondo di precomprensione, corrispondente al cosiddetto “senso comune”, è chiaramente radicato nella nostra materialità corporea. Proprio la corporeità rappresenta per Dreyfus la discriminante fondamentale che ci permette di affermare l’alterità irriducibile dell’intelligenza artificiale dei computer senza corpo ed acontestuali rispetto all’intelligenza umana contestuale e condizionata dalla nostra struttura di esseri corporei. Infatti, tutte le esperienze legate al senso comune e dunque alla nostra corporeità non sono certo oggettivabili e dunque non possono essere formalizzate e simulate attraverso delle macchine artificiali.

L’incomprensione, da parte dell’IA forte, della specificità dell’intelligenza umana rispecchia comunque, ad avviso di Dreyfus, la tradizione dominante della filosofia e della scienza d’Occidente, che ha fatto prevalere una concezione dell’esperienza umana formalistica, atomistica e riduzionistica. Dreyfus ritiene che una tale linea di pensiero razionalistico-riduzionistica abbia dimostrato il suo esito fallimentare, grazie soprattutto alla riflessione del secondo Wittgenstein e di Heidegger. In particolare, Dreyfus si riferisce al Wittgenstein delle Ricerche filosofiche apparse nel 1953, proprio quando la nascente IA si stava orientando nel senso della tradizione atomistica e riduzionistica avallata dal Tractatus; in realtà, l’ultimo Wittgenstein “sconfessa” per così dire il Tractatus, perché non è possibile ritrovare degli elementi atomici decontestualizzati nella nostra esperienza, se non isolandoli “artificialmente” dalla precomprensione pragmatica che ci permette un approccio plastico e flessibile alla realtà e alla vita quotidiana. In termini sostanzialmente analoghi, Heidegger ha posto l’accento su quel sistema di credenze, disposizioni ed attitudini che costituiscono il senso comune e rappresentano lo sfondo ineliminabile della pura razionalità, uno sfondo per sua natura inoggettivabile.

Pertanto, secondo Dreyfus, Wittgenstein e Heidegger hanno per così dire posto il problema praticamente insolubile con il quale deve fare i conti l’IA, ossia la rappresentazione o riproduzione del senso comune attraverso una astrazione teorica simbolico-computazionale. Il progetto dell’IA forte di simulare il comportamento intelligente dell’essere umano adulto è quindi per il filosofo americano illusorio, dal momento che il pensiero è possibile solo ad esseri che condividano in partenza la nostra forma di vita. Tuttavia, Dreyfus non arriva a respingere in blocco l’IA, la cui utilità sarà tanto maggiore quanto più i suoi cultori ridimensioneranno le proprie impossibili ambizioni.

Le tesi di Dreyfus sono state accolte, almeno inizialmente, con fastidio o addirittura con disprezzo da una buona parte degli addetti all’IA, indicando altresì uno dei momenti più “critici” del rapporto tra computer science e riflessione filosofica. Eppure, alcuni dei temi di fondo del pensiero di Dreyfus sono stati ripresi proprio da insigni specialisti del settore informatico, quali ad esempio l’americano Terry Winograd e il cileno Fernando Flores.

I due ricercatori hanno pubblicato congiuntamente nel 1984 l’importante saggio Calcolatori e conoscenza8 (Understanding Computers and Cognition), in cui, nonostante la loro formazione di tipo matematico e tecnico, propongono un approccio chiaramente filosofico ai problemi dell’informatica e dell’IA. Per Winograd e Flores, come già per Dreyfus, l’IA si muove nell’ambito di una ben precisa tradizione di pensiero, quella razionalistica, fondata sulla riduzione dell’intelligenza ad attività manipolatrice di simboli isolata dal contesto esistenziale e pragmatico del nostro vivere effettivo. Questo paradigma non è affatto ovvio e scontato, a giudizio di Winograd e Flores, e la sua alternativa non va ricercata in un confuso irrazionalismo. Si tratta piuttosto di riprendere la lezione di Heidegger, il filosofo che meglio ha saputo analizzare il nostro concreto essere nel modo.

Infatti, Heidegger ha rilevato come l’attività cognitiva di comprensione del mondo non può essere separata dal vivere nella e dentro la realtà, dunque dall’Esserci. Questo punto di vista è radicalmente diverso da quello dell’IA classica, basato sull’idea di poter analizzare l’intelligenza in astratto, attraverso linguaggi formali, lavorando dunque solo sulle rappresentazioni mentali e prescindendo dagli impegni e dai progetti di carattere pratico-sociale che coinvolgono l’Esserci. Gli attuali calcolatori, infatti, non possiedono ad avviso di Winograd e Flores l’Esserci, perché si limitano ad elaborare dei programmi di tipo computazionale, quindi non risultano dotati di un’intelligenza paragonabile a quella umana, che trova il suo sfondo irrinunciabile nel complesso potenzialmente infinito delle credenze e delle precomprensioni intuitive, precoscienti ed originarie.

La tesi di fondo di Winograd e Flores è in ultima analisi la convinzione della impossibilità di rendere completamente esplicitabile ed oggettivabile l’intelligenza umana attraverso simboli formali. Dunque, il progetto dell’IA classica di riprodurre l’intelligenza in termini simbolico-computazionali può avere un qualche successo in ambienti molto ristretti e delimitati (come per esempio i giochi o la dimostrazione di teoremi), ma è destinato all’insuccesso quando si tratta di riprodurre ambienti reali e dunque di programmare il senso comune della persona. Di fatto, per Winograd e Flores, una volta confutato il paradigma razionalistico sottostante all’IA classica, non avrà più senso chiedersi se le macchine possano pensare: se è vero infatti che non è possibile costruire macchine realmente intelligenti, occorrerà indirizzare gli sforzi dell’IA non più alla simulazione attraverso le macchine dell’intelligenza umana, bensì all’utilizzazione dei computer come strumenti di fini umani in domini ben delimitati.

Il contributo di Winograd e Flores al dibattito sull’IA rappresenta indubbiamente un momento importante di verifica circa i non sempre pacifici rapporti tra computer science e riflessione filosofica. A questo punto, è possibile procedere ad un’analisi delle prospettive dell’IA, con particolare riferimento alle sue implicazioni di ordine pedagogico-didattico.

2. Le implicazioni dell’Intelligenza Artificiale sul piano pedagogico-didattico: il tema della corporeità


Le ambizioni iniziali dell’IA si sono indirizzate, come è già stato illustrato, alla simulazione per mezzo di macchine dell’intelligenza umana, sulla base dell’innalzamento del computer a “metafora della mente”, in grado di illuminare i vari aspetti del pensiero, compresi quelli più complessi e flessibili. In particolare, l’impostazione funzionalistica dell’IA ha cercato di esprimere in forma algoritmica tutte le conoscenze e tutte le abilità, comprese quelle legate al senso comune che ci guidano nell’agire quotidiano, per poi tradurle in programmi di computer. In realtà, dopo gli entusiasmi iniziali, questa trasposizione si è rivelata assai problematica: mentre il livello del pensiero logico-formale (considerato il più alto) è stato raggiunto in tempi abbastanza rapidi, il livello del senso comune (considerato il meno importante) si è rivelato il più difficile da programmare. Le realizzazioni dell’IA degli ultimi quarant’anni, ivi compresa la variante connessionista, hanno condotto a notevoli successi (abbiamo ad esempio dei computer ottimi giocatori di scacchi), ma anche a cocenti delusioni (si pensi all’incapacità dei sistemi esperti di padroneggiare il linguaggio naturale o di reagire adeguatamente a situazioni nuove ed impreviste). Molti ricercatori hanno ormai maturato la convinzione che, al fine di replicare compiutamente l’intelligenza umana (ammesso che questo sia lo scopo dell’IA), anche le macchine intelligenti non possano fare a meno dell’equivalente di un corpo con tutta la sua attività cognitiva profonda ed almeno in parte probabilmente non algoritmica: un’intelligenza disincarnata è senz’altro limitata ed incompleta. Un’acuta analisi di questa “spina nel fianco” dell’IA di matrice funzionalistica è offerta da Giuseppe O. Longo:
Nel solco della filosofia razionalistica, anche l’IA funzionalistica considera la conoscenza astratta più nobile di quella legata al senso comune: l’intelligenza che dimostra un teorema sarebbe superiore a quella che riconosce una scena o ci guida nelle azioni quotidiane. Ma la lunga tradizione che privilegia la conoscenza logica, immersa in un’atmosfera rarefatta in cui si staglia nitido ciò che è formale, generale e ben definito, rappresentato e pianificato in anticipo, oggi viene messa in discussione. Addirittura si assiste a un capovolgimento: si riconosce che la maggior parte delle conoscenze, specie quelle vitali, sono espresse nella struttura stessa del corpo e della sua interazione con l’ambiente; si riconosce che la loro matrice è storica; che sono sempre immerse in un contesto il quale, con le sue continue perturbazioni, lungi dall’ostacolarle (come ritiene l’IA funzionalistica) dà loro significato. Insomma il concreto non è solo un gradino verso l’astratto: è già conoscenza, anzi costituisce la parte fondamentale e fondante di tutta la conoscenza, compresa quella astratta. […] Se l’IA volesse costituire un modello più adeguato dell’intelligenza umana, dovrebbe rivalutare il significato cognitivo delle azioni semplici, incarnate e contestualizzate che compiamo di continuo nella vita di tutti i giorni9.
L’impasse in cui è incorsa l’IA classica e funzionalista ha quindi stimolato un ripensamento complessivo delle sue basi concettuali e dei suoi orizzonti teorici, cui ha contribuito in non piccola misura la riflessione filosofica, come si è già visto. L’atteggiamento generalmente critico dei filosofi nei confronti dell’ipotesi “forte” dell’IA classica e delle sue iniziali ambizioni, pur avendo suscitato in molti casi un atteggiamento di sospetto nei più accaniti sostenitori della computer science, ha in ogni caso stimolato l’IA a liberarsi dei suoi aspetti dogmatici ed assolutistici, passando da una versione forte ad una debole e dunque orientando in senso critico la discussione circa i propri fondamenti teorici. La prometeica ambizione di simulare nelle macchine l’intelligenza umana, pur non del tutto abbandonata, tende ad esempio ad essere progressivamente sostituita da quella di emulare i processi cognitivi, nel senso di costruire sistemi in grado di arrivare a determinate prestazioni comunque competitive rispetto a quelle umane, anche se non coincidenti. Ed è significativo che alcuni degli stessi studiosi e filosofi maggiormente legati alla tesi che il computer sia il modello della mente abbiano finito per riesaminare le proprie posizioni: si pensi ad esempio ad Hilary Putnam10, che ha recentemente riconosciuto che l’IA debba ormai abbandonare l’obiettivo di una vera e propria duplicazione dell’intelligenza umana, e d’altro canto gli stati mentali non possano, a rigore, essere definiti computazionali, ossia essere assimilati a “programmi”, dal momento che medesimi stati mentali potrebbero avere una diversa struttura computazionale, quindi obbedire a differenti programmi.

Certo, il ruolo della filosofia nei confronti dell’IA non deve neanche ridursi alla semplice e assoluta negazione della possibilità di costruire in un futuro più o meno lontano delle macchine intelligenti: la “rivalutazione del corpo”, che accomuna alcune delle principali critiche filosofiche dell’IA classica, può comunque indirizzare verso nuovi orizzonti le realizzazioni nel campo dei calcolatori digitali. Giuseppe O. Longo ritiene che


fino a quando l’IA insisterà nel voler riprodurre solo gli aspetti simbolici e formali della cognizione umana non riuscirà a fornire una simulazione soddisfacente dell’intelligenza naturale. Ciò non toglie che possa ottenere risultati anche molto importanti: ma questi risultati saranno caratterizzati più dall’aggettivo “artificiale” che dal sostantivo “intelligenza”. Se dunque l’ambizione è quella di produrre una simulazione dell’intelligenza naturale, è forse indispensabile aggiungere al “calcolatore-cervello” un “robot-corpo” che si possa immergere nell’ambiente. Questa condizione, probabilmente necessaria, non è tuttavia sufficiente: può darsi benissimo che il sistema costituito da cervello (artificiale) più corpo (artificiale) manifesti un’intelligenza molto diversa da quella umana, se non altro perché la storia, i fini e le necessità dei due sistemi, uomo e macchina, sono molto diversi11.
Una maggiore flessibilità ed adattabilità alle situazioni da parte dei futuri calcolatori potrebbe dunque realizzarsi attraverso un corpo artificiale12. E tuttavia, le odierne tecnologie multimediali sembrano prefigurare un tale scenario, nel senso di favorire processi di pensiero in qualche modo legati alla sensorialità, sia pure filtrata e trasmessa dalla virtualità dei media elettronici. Arriviamo a questo punto ad un nodo importante della riflessione più recente sull’IA e le sue implicazioni pedagogico-didattiche, ossia al vero e proprio paradosso del modello computazionale che per così dire “tradisce” se stesso e si propone come “immersione” nel sensorio globale, nella corporeità sia pure tradotta dalla tecnologia informatica. La nozione di “tradimento” è ad esempio utilizzata da Mario Groppo e Maria Clara Locatelli:

[…] La tecnologia informatica ed elettronica, attraverso la sua dimensione multimediale, è venuta in qualche modo a tradire questo suo modello epistemico e formale generando sullo schermo un mondo aperto alla contaminazione di molteplici linguaggi, un sensorio globale che riporta nella comunicazione gli aspetti contestuali. Non a caso oggi si parla di oralità secondaria per definire una dimensione multimediale che rivaluta la parola parlata e il suo aspetto verbomotorio, seppure filtrati e raffreddati dalla piattezza degli schermi elettronici13.


In altri termini, il recente dibattito concernente le potenzialità dell’IA sul piano pedagogico-didattico si è indirizzato ad un chiaro e paradossale collegamento tra il computer - inteso come strumento multimediale - ed i processi di conoscenza e di apprendimento riconducibili al vissuto. In un certo senso, la pedagogia e la didattica hanno ripreso la discussione strettamente filosofica sull’IA, seguendone per così dire il percorso, dall’ipotesi funzionalista alla rivendicazione della corporeità come trait d’union fondamentale tra la struttura dei calcolatori e la pienezza dell’esperienza umana indissolubilmente legata al corpo ed al vissuto. La “svolta” sul piano pedagogico-didattico riguarda proprio la nuova considerazione del modello computazionale, di cui si tende ad accantonare il carattere rigidamente formale, decontestualizzato, procedurale. Un tale modello è stato proposto, dai sostenitori dell’IA forte, sulla base di una considerazione dell’intelligenza come razionalità formale ed operatività logico-matematica; ebbene, questa intelligenza è vista da alcuni ricercatori semplicemente come uno dei tipi possibili di un ben più ampio ventaglio di formae mentis. In particolare, lo psicopedagogista americano Howard Gardner, assai attento ai fondamenti neuro-biologici del comportamento umano, ha individuato l’esistenza negli individui di una pluralità relativamente autonoma di intelligenze che utilizzano processi psicologici peculiari avvalendosi di specifiche capacità percettive e mnemoniche14. Secondo Gardner, sussistono sette diverse forme di intelligenza: linguistica, musicale, logico-matematica, spaziale, corporeo-cinestetica, intrapersonale e interpersonale; ciascuna di esse ha una particolare localizzazione negli emisferi cerebrali, sviluppandosi secondo ritmi e modi diversi, dettati fondamentalmente dal contesto culturale cui il soggetto appartiene. La teoria delle intelligenze multiple si caratterizza dunque per l’enfasi accordata alla contestualizzazione delle forme mentali e per l’attenzione nei confronti delle prestazioni ed abilità legate ad esempio alla spazialità o alla corporeità. D’altro canto, la prospettiva suggerita da Gardner si situa all’interno di un campo teorico che è possibile definire come teoria della complessità, i cui esponenti non negano certo il ruolo della razionalità formale, ma sostengono che la vita, l’evoluzione, il cambiamento, l’apprendimento sono strettamente connessi al disordine, al caos, alle perturbazioni, all’instabilità, in una parola alla complessità. Per i sostenitori del pensiero complesso, l’errore del pensiero formalizzato non è certamente quello di essere un pensiero formalizzante e quantificatore, e non è nemmeno quello di mettere tra parentesi ciò che non è quantificabile e formalizzabile; esso consiste piuttosto nella credenza o pretesa di negare l’esistenza di quanto si sottrae all’astrazione ed alla formalizzazione. Di qui l’appello ad un pensiero multidimensionale che si ponga come espressione di una mente a più dimensioni ed in rapporto di interdipendenza rispetto alla natura ed alla corporeità.

Un contributo importante a questo indirizzo teorico (che annovera autori come Edgar Morin, Ilya Prigogine, Francisco J. Varela) è stato fornito indubbiamente da Gregory Bateson, che ha criticato con grande decisione il dualismo mente-corpo e si è impegnato a rendere interdipendenti ed interconnessi mondi che la cultura e l’educazione hanno separato: il mondo delle forze fisiche e degli oggetti viventi, il mondo del pensiero e dell’apprendimento e il mondo dell’evoluzione. Lo stesso rapporto tra l’uomo e il computer costituisce una rete connettiva in cui l’ambiente ha un ruolo fondamentale; afferma infatti Bateson in Verso un’ecologia della mente (Steps to an Ecology of Mind):


Consideriamo ora per un momento se un calcolatore pensi. Io direi di no. Ciò che ‘pensa’ e procede per ‘tentativi ed errori’ è l’uomo più il calcolatore più l’ambiente. E le linee di demarcazione tra uomo, calcolatore e ambiente sono del tutto artificiali e fittizie: sono linee che tagliano i canali lungo i quali vengono trasmesse le informazioni o le differenze; non sono confini del sistema pensante. Quello che pensa è il sistema totale , che procede per tentativi ed errori, ed è costituito dall’uomo più l’ambiente15.
Questo sistema totale o complesso sta ad indicare, secondo Bateson, l’errore decisivo di chi crede ad una mente separata dal corpo, dalla società e dalla natura. Un tale errore si riflette chiaramente nella teorizzazione dell’apprendimento scisso dai contesti e dalle esperienze: questo è, secondo la terminologia di Bateson, proto-apprendimento (un tipo di apprendimento quasi esclusivamente meccanico), cui l’autore contrappone il deutero-apprendimento, vale a dire l’”apprendere ad apprendere” caratterizzato dalla flessibilità comunicativa, dalla liberazione dalla trama delle abitudini, dall’intersezione con le “reti di relazioni emotive” e con il “flusso degli eventi”, dalla capacità di percepire ed agire in termini di contesti. Pertanto, Bateson individua uno stretto rapporto tra apprendimento, comunicazione, cibernetica nel disegno dell’unità tra mente e natura; l’ecologia della mente, anzi, si basa sulla loro necessaria unità, perché quando essa si spezza viene meno anche la possibilità di costruire e di utilizzare quadri e contesti di riferimento, con conseguenze negative in particolare sulle modalità di apprendimento.

Proprio la definizione di un nuovo contributo della cibernetica all’apprendimento (in cui si realizza l’interazione dell’uomo con l’ambiente, della mente con il corpo) permette di chiarire ulteriormente la conversione a livello pedagogico-didattico del modello computazionale, tipico della tecnologia informatica ed elettronica, in modello dell’apertura al corporeo. Una didattica rinnovata dovrebbe, secondo alcuni studiosi, puntare al superamento - o quanto meno all’integrazione - del tradizionale apprendimento cerebrale (fondato sull’astrazione) in favore di un apprendimento corporale (fondato sull’immersione). E’ questa la tesi di fondo di Roberto Maragliano, tra i più “entusiasti” sostenitori di una sorta di scompaginamento dei processi dell’educazione e dell’istruzione legati al testo scritto ad opera delle tecnologie audiovisuali e multimediali. In che senso dovrebbe allora verificarsi questa “eversione” rispetto al modello dell’insegnamento/apprendimento formale e astratto, “gutenberghiano”?

Prima di tutto, occorrerà chiarire il tipo di io cui si indirizzano rispettivamente l’attuale pratica scolastica e le nuove tecnologie: secondo Maragliano,

si potrebbe insomma sostenere che istruzione ed educazione puntano alla costituzione dell’io epistemico, coincidente con i saperi e i valori codificati in base ai quali l’individuo assume una “cittadinanza scientifica” […]; mentre le tecnologie dell’informazione-comunicazione interessano e coinvolgono soprattutto l’io psicologico, cioè l’insieme di schemi, procedure e abitudini che assicurano l’adattamento dell’individuo al mondo materiale16.


Se la formazione dell’io epistemico attiene essenzialmente ai processi di insegnamento/apprendimento di tipo formale e monomediale, la costituzione dell’io psicologico passerà dunque fondamentalmente attraverso i processi di apprendimento di tipo informale e multimediale. Proprio lo “sbarramento” finora istituito tra i due tipi di apprendimento andrebbe, secondo Maragliano, superato o ridimensionato, così come andrebbe combattuta la pretesa che l’unica forma di conoscenza “valida” sia rappresentata dalla comunicazione scritta o monomediale. Il prevalere di una concezione “gutenberghiana” nella definizione delle caratteristiche dell’apprendimento avrebbe infatti comportato una formalizzazione ed astrazione della conoscenza, una sorta di scissione tra la componente epistemica dell’uomo e le sue dimensioni psico-sensoriali. L’opportunità offerta da una didattica multimediale, centrata sull’uso del computer, è appunto l’immersione del soggetto che apprende in una esperienza globale, in cui il sensoriale non sia più sacrificato al primato del pensiero astratto. Le nuove frontiere dell’IA permetterebbero proprio la realizzazione di una nuova didattica centrata sulla valorizzazione del corporeo, in quanto il computer è una macchina in grado di attivare processi mentali e sensoriali di tipo reticolare e non sequenziale, quindi non riconducibili semplicemente alla logica formale e “calcolante”. Anche Maragliano, pertanto, sottolinea come il modello computazionale tipico della computer science si sia progressivamente modificato nel senso di una apertura alla “naturalità” dell’umano, alla multidimensionalità dell’esperienza comune, quotidiana, “mondana”. E’ chiaro allora che, sulla base di queste considerazioni, si propone un radicale rinnovamento dell’azione didattica. Infatti, secondo Maragliano, la pedagogia scolastica
[…] ha tradizionalmente identificato l’insegnamento e di conseguenza l’apprendimento con un impegno volto a produrre decontestualizzazione, formalizzazione, astrazione, e quindi con un’etica segnata da fatica, impegno, dedizione, che relega l’eventuale piacere all’ultimo stadio. La riproposizione acritica di questa estetica [sic?] porterebbe a limitare l’uso del computer alla sua originaria personalità di strumento per contattare ed elaborare conoscenze sotto forma di calcolo, escludendo di metterne in gioco le prerogative di ambiente per una nuova epistemologia caratterizzata da personalizzazione, condivisione, connettività, integrazione, piacere. Non solo, considerando che per il giovane, per la sua parte mondana (non scolastica), il computer è altra cosa, proporglielo ridotto, in sede didattica, a questa sola identità di strumento per programmare operazioni di calcolo (con i numeri ovviamente, ma anche con i testi, le immagini ecc.) non farebbe che aumentare il carico di alienazione dell’attività scolastica.

Si tratta allora di reagire a questo stato di cose, e di mettere in discussione l’ordine pedagogico costituito. Nel proiettarci verso il futuro, questa macchina anfibia ci porta alle radici storiche e ontologiche della formazione, alle dimensioni del dialogo, dello scambio, della crescita comune, ci invita a pensare e problematizzare non solo i “testi” ma anche i “contesti” della formazione. Il suo impiego intelligente consentirebbe allora di recuperare una componente del discorso pedagogico che la ragione gutenberghiana ha messo sotto silenzio17.


Il punto decisivo, su cui è opportuno porre l’attenzione, è dunque la proposta di una nuova didattica non più “gutenberghiana” o non soltanto “gutenberghiana”, in grado di instaurare modalità di pensiero “morbide”, flessibili, reticolari, anfibie appunto. E lo strumento fondamentale di tale rinnovamento sembra essere l’oralità secondaria della nostra era elettronica, che al tempo stesso rimanda e si oppone all’oralità primaria precedente la scrittura. Il dibattito che si è aperto negli ultimi anni in Italia, relativamente all’introduzione delle nuove tecnologie informatiche ed elettroniche nella scuola, si è incentrato in buona misura proprio sulla nozione di oralità secondaria in rapporto alla scrittura ed alla testualità del libro a stampa. Riassumendo le posizioni dei principali protagonisti di tale dibattito, possiamo allora affermare che da un lato abbiamo i sostenitori più o meno entusiasti - a partire appunto da Maragliano - delle opportunità connesse alla tecnocomunicazione, dall’altro coloro che invece tendono a sottolineare i rischi e gli svantaggi sul piano educativo di una adesione acritica alla dimensione multimediale dell’IA.

Le potenzialità positive della nuova oralità elettronica sono ad esempio indicate da Domenico Massaro e Anselmo Grotti nel saggio Il filo di Sofia. Etica, comunicazione e strategie conoscitive nell’epoca di Internet:


[…] Possiamo dire che il nuovo scenario […], lungi dal distruggere alcune pratiche linguistiche tradizionali, quali ad esempio la lettura e la scrittura, le ha liberalizzate […], riproponendo inoltre una forma di nuova oralità, come paradigma tecnoculturale che, sfruttato a pieno, comporta un ampliamento del ventaglio espressivo umano, comprendendo anche il linguaggio dell’immagine e dei suoni.

[…] Grazie alle trasformazioni nella produzione della parola scritta, oggi abbiamo per la prima volta sullo stesso supporto il testo, l’immagine e il suono: siamo di fronte a una rivoluzione, paragonabile per certi aspetti a quella di Gutenberg, che tende a modificare anche le pratiche culturali della lettura. Si tratta di una vera e propria provocazione per il pensiero, in quanto siamo sollecitati a fare l’esperienza di forme nuove di razionalità, più flessibili e aperte alle ragioni del dialogo e dell’interpretazione: una razionalità anfibia, in grado di orientarsi sia sulla solida “terra” che nel fluido “mare”. Configurandosi la scrittura a stampa (il libro) come “terra”, specchio di un’idea di ragione disciplinata (e disciplinare), chiusa all’interno dei margini bianchi che fanno da cornice, circoscrivendo e separando “il mondo del testo” da tutto il resto; e la scrittura ipertestuale (e ipermediale) come “mare” aperto, anzi oceano, in cui non è in gioco solo la trasmissione del messaggio (di tipo unilineare, autore-lettori), ma la comunicazione “da tutti a tutti”, nel continuo fluire delle informazioni e della negoziazione dei significati18.


Insomma, l’esperienza multimediale (ed ipermediale) si porrebbe come luogo della fluidità e dell’interattività, come privilegiamento dell’affettività del vissuto, troppo spesso disconosciuta dalla modalità epistemica del pensiero rappresentata dalla scrittura, come affermano Mario Groppo e Maria Clara Locatelli:
L’oralità secondaria di oggi, riportando il contesto nella comunicazione, ci ha permesso infatti di percepire, quasi per contrasto, il carattere astratto e a volte esasperatamente formale della scrittura. […] Abbiamo potuto scoprire la polivalenza del nostro pensiero, nel suo duplice aspetto narrativo e paradigmatico. Lasciato alle spalle l’atteggiamento scientista che ci ha finora dominati, oggi siamo in grado di apprezzare la ricchezza di entrambi questi tipi di pensiero, che si completano, piuttosto che escludersi a vicenda: l’uno epistemico e denotativo, che decontestualizza per analizzare meglio, l’altro più affettivo e connotativo, che cala i concetti nella complessità del nostro vissuto. La presenza sempre più evidente della multimedialità sembrerebbe privilegiare questo secondo aspetto19.
Le immagini e i suoni, come “immersione” nel contesto, propongono la possibilità di nuove pratiche didattiche, che valorizzerebbero il ruolo attivo del fruitore, non più passivo utente del messaggio monomediale e unidirezionale (autore-lettori) del libro a stampa; addirittura, si parla, sia pure metaforicamente, del libro come “una macchina panottica, che guarda a tutti nello stesso modo, ma che da nessuno si fa vedere fino in fondo”20. Eppure, proprio questa considerazione è contestata e capovolta da chi sottolinea le possibili conseguenze negative di un prevalere della “cultura delle immagini” sui testi scritti, attraverso la diffusione dei computer. Se infatti il computer è, in misura crescente, uno strumento utilizzato per vedere immagini e una parte essenziale della multimedialità consiste nella sostituzione del testo scritto con immagini, non è affatto scontato che tale sostituzione implichi un effettivo arricchimento delle modalità comunicative. Paradossalmente, proprio la “cultura delle immagini” comporterebbe una forma di comunicazione unidirezionale (mentre, come si è visto, i fautori “entusiasti” della didattica multimediale imputano piuttosto al testo scritto il carattere dell’unidirezionalità). Il rovesciamento della tesi corrente è ad esempio proposto da Lucio Russo nel saggio Segmenti e bastoncini. Dove sta andando la scuola italiana?, in cui si afferma:
Un aspetto essenziale della sostituzione dei testi scritti con immagini è l’unidirezionalità della comunicazione che ne risulta. Chi legge sa in genere anche scrivere, ma chi guarda immagini non ne può produrre con la stessa facilità. Quella per immagini è quindi una comunicazione a senso unico, nella quale il ruolo passivo del ricevente non è invertibile. Un messaggio verbale, orale o scritto, essendo costituito da simboli linguistici elaborati dall’uomo, costituisce esplicitamente una comunicazione tra uomini, che per sua natura può essere analizzata e discussa con lo stesso strumento linguistico usato dall’autore. Un’immagine viene invece percepita come un oggetto non modificabile della realtà esterna e quindi le impressioni e le associazioni d’idee provocate dall’autore della comunicazione restano quasi sempre inespresse e non analizzabili.

[…] Le immagini (e, più in generale, le tecniche multimediali) possono svolgere un ruolo essenziale nell’allargare il mondo dell’esperienza individuale e vanno quindi certamente utilizzate nell’insegnamento. Dobbiamo però scegliere se continuare a usare la razionalità per analizzare, criticare, scegliere e in alcuni casi costruire il mondo sempre più ricco e complesso delle realtà potenzialmente percepibili oppure limitarci a subirlo come consumatori passivi.



Nel primo caso occorre attrezzarsi con strumenti concettuali tanto potenti quanto è richiesto dalla complessità della nuova tecnologia. Solo nel secondo caso possiamo scegliere di sostituire le immagini (e le realtà virtuali) ai messaggi verbali, accettando la deconcettualizzazione e il crollo della capacità critica che necessariamente accompagna l’indebolimento degli strumenti linguistici21.
Le indicazioni di Lucio Russo, condivise anche da altri studiosi particolarmente attenti al tema della multimedialità (si pensi ad esempio a Tomás Maldonado22), hanno senz’altro il merito di ricordare l’importanza della razionalità formale-scientifica come strumento fondamentale di analisi ed interpretazione della realtà, da non abbandonare in favore di una approssimativa ed acritica adesione al messaggio sensoriale trasmesso dalla comunicazione elettronica. In altri termini, se è condivisibile l’esigenza di un’apertura alla multidimensionalità dell’esperienza, che può essere favorita dalle nuove tecnologie legate all’IA, occorrerà non perdere di vista nell’azione didattica le abilità logico-astratte proprie del pensiero scientifico e storicamente legate all’alfabetizzazione tipografica. L’immersione nell’ambiente multimediale, che caratterizza sempre più precocemente e frequentemente gli studenti attuali, a partire dai primi anni di scolarizzazione, andrebbe “governata” dagli strumenti di una razionalità critica, “portatrice” di significato, di direzionalità, di progettualità. Certamente, questa prospettiva non è di facile realizzazione, ma in ogni caso si può cercare di prefigurare un nuovo dialogo tra riflessione filosofica e una Intelligenza Artificiale che non si limiti a “tradire” quella difesa della ragione che ha caratterizzato i suoi esordi.


Bibliografia
Bateson G. 2000 = Steps to an Ecology of Mind, 1972; trad. it. Verso un’ecologia della mente, Adelphi, Milano.
Dreyfus H. L. 1988 = What Computers Can’t Do, 1979; trad. it. Che cosa non possono fare i computer, Armando, Roma.
Fornero G. 1996 = Intelligenza artificiale e filosofia, in N. Abbagnano, Storia della filosofia, vol. X, La filosofia contemporanea 4 (di G. Fornero e F. Restaino), TEA, Milano.
Gardner H. 1987 = Frames of Mind. The Theory of Multiple Intelligences, 1983; trad. it. Formae mentis. Saggio sulla pluralità dell’intelligenza, Feltrinelli, Milano.
Groppo M. – Locatelli M. C. 1996 = Mente e cultura. Tecnologie della comunicazione e processi educativi, R. Cortina Editore, Milano.
Longo G. O. 1998 = Il nuovo Golem. Come il computer cambia la nostra cultura, Laterza, Roma-Bari.
Maldonado T. 1997 = Critica della ragione informatica, Feltrinelli, Milano.
Maragliano R. 1999 = Nuovo manuale di didattica multimediale, Laterza, Roma-Bari.
Massaro D. – Grotti A. 2000 = Il filo di Sofia. Etica, comunicazione e strategie conoscitive nell’epoca di Internet, Bollati Boringhieri, Torino.
Putnam H. 1998 = Renewing Philosophy 1992; trad. it. Rinnovare la filosofia, Garzanti, Milano.
Russo L. 2000 = Segmenti e bastoncini. Dove sta andando la scuola?, Feltrinelli, Milano.
Searle J. R. 1985 = Minds, Brains and Programs, in “The Behavioral and Brain Sciences”, 3, pp. 417-457, 1980; trad. it. Menti, cervelli e programmi, in D. R. Hofstadter, D. C. Dennett, L’io della mente. Fantasie e riflessioni sul sé e sull’anima, Adelphi, Milano.
Turing A. M. 1985 = Computing Machinery and Intelligence, in “Mind”, 59, pp. 433-460, 1950; trad. it. Calcolatori e intelligenza, in D. R. Hofstadter, D. C. Dennett, L’io della mente, cit..
Winograd T. – Flores F. 1987 = Understanding Computers and Cognition, 1984; trad. it. Calcolatori e conoscenza, Mondadori, Milano.


1 Cfr. Fornero 1996, p. 128.

2 Longo 1998, p. 55.

3 Turing 1985, p. 64.

4 Searle 1985, p. 341 (corsivo nel testo).

5 Fornero 1996, p. 158 (corsivi nel testo).

6 Ibid. p. 149 (corsivo nel testo).

7 Cfr. Dreyfus 1988.

8 Cfr. Winograd, Flores 1987.

9 Longo 1998, pp. 62-63 (corsivi nel testo).

10 Cfr. Putnam 1998.

11 Longo 1998, p. 64 (corsivo nel testo).

12 Sul tema del corpo artificiale si veda Maldonado 1997, in particolare il cap. III, Corpo umano e conoscenza digitale, pp. 136-177.

13 Groppo, Locatelli 1996, pp. 238-239 (corsivo nostro).

14 Cfr. Gardner 1987.

15 Bateson 2000, p. 526 (corsivi nel testo).

16 Maragliano 1999, p. 43 (corsivi nel testo).

17 Ibid. pp. 56-57 (corsivi nel testo).

18 Massaro, Grotti 2000, pp. 59-60 (corsivi nel testo).

19 Groppo, Locatelli 1996, pp. 242-243.

20 Maragliano 1999, p. 52 (corsivo nostro).

21 Russo 2000, pp. 45-46 (corsivo nel testo).

22 Si veda Maldonado 1997, in particolare pp. 127-135.






©astratto.info 2017
invia messaggio

    Pagina principale