Un big data adattivo per un software artigiano



Scaricare 35.65 Kb.
29.12.2017
Dimensione del file35.65 Kb.

It from bit

Un big data adattivo per un software artigiano

La svolta del Ligo (https://it.wikipedia.org/wiki/LIGO) il centro di studi di alta fisica americano che sta festeggiando la straordinaria verifica sperimentale dell’intuizione di Einstein sulle onde gravitazionali, ci conferma che stiamo vivendo uno dei tempi più eccezionalmente prolifici nel campo del saspere della storia dell’umanità.

Per certi versi è vero che altri passaggi, come il mitico rinascimento, ma anche lo scollinamento fra il XIX° e XX° secolo , furono momenti di epocali scoperte scientifiche e grandi avanzamenti del sapere umano.

Oggi, però, abbiamo in mano una cassetta degli attrezzi più complessa e organizzata per trasformare ogni avanzamento della conoscenza in soluzioni che modificano significativamente la nostra vita, condividendo fra una quota ormai sempre più prossima al totale dell’umanità le conseguenze materiali di tali progressi. Anche superandone limiti che credevamo inviolabili.

Un cambiamento che investe direttamente il senso comune. Possiamo dire che oggi, in maniera veloce e tangibile,quello che cambia, con il procedere dell’innovazione scientifica , è proprio il pensiero nelle sue modalità costitutive.

Possiamo dire, ed è forse questa la prima vera innovazione del nostro tempo, che siamo in un’epoca dove il modo stesso di pensare e di comunicare le nostre riflessioni si evolve con l’ambiente circostante. Un’evoluzione che accredita l’ipotesi che i progressi tecnologici abbiano come primo fine proprio l’interferenza e l’adeguamento dei nostri meccanismi neuronali. Il nostro cervello è il vero oggetto del laboratorio cosmico che si sta costituendo.

Panteismo del sapere

Come diceva Jorge Luis Borges “tutto fa parte di tutto”. E il famoso battito di farfalle di Hong Kong che produce uragani a New York, non è solo, e ormai nemmeno principalmente, da identificarsi con le ormai quotidiane perturbazioni economiche , o gli effetti di tensioni politiche e belliche. Il fenomeno più straordinario che sta legando e interconnettendo l’umanità è proprio il sapere. Un sapere che si avvicina alla soglia dell’autogenerazione , dell’automatizzazione proprio delle funzioni discrezionali della specie umana. Il cervello è proprio il destinatario oltre che il mandante di questi processi. Tutto fa parte di tutto.

Se proprio abbiamo bisogno di una dimostrazione pratica di questo panteismo del sapere la possiamo ricavare dal sistema dell’informazione, dove ormai la convergenza, potremo dire la concorrenza, fra autori, nel caso specifico giornalisti, e utenti, lettori e spettatori, sta creando sistemi e linguaggi interconnessi che rendono l’intero pianeta palcoscenico di ogni singola notizia. Al tempo stesso l’informazione ci mostra come i sistemi di produzione e di selezione, comprese le funzioni più discrezionali come la valutazione del peso e dell’importanza di ogni news, sia sempre più affidato a dispositivi di intelligenza artificiale che surrogano l’attività professionale.

Ogni impercettibile avanzamento della potenza di conoscenza si riverbera all’istante su tutto il pianeta. Modificando i comportamenti e gli stili di vita di milioni e milioni di uomini.E spingendo le nostre sinapsi ad inseguire un accellerato flusso di informazioni che assumono sempre più la fisionomia proprio dei processi neurologici.

Il linguaggio di questo processo è il big data.

Come ci stanno spiegando gli scienziati, fra cui la professoressa Alessandra Buonanno, che dirige il Max Planck Institute di Postdam, che ha coordinato la pianificazione delle formule e dei modelli matematici che hanno confermato il fenomeno osservato al Ligo, tutto il prodigio della scoperta sperimentale delle onde gravitazionali è consistito in un unico flusso di dati da raccogliere, catalogare ed analizzare.

L’intera operazione che ha portato all’osservazione dello straordinario impatto fra due buchi nero a 1,3 miliardi di anni luce da noi il 14 settembre dell’anno scorso, e poi la riproposizione sperimentale del fenomeno in laboratorio , con il determinante contributo dei fisici italiani del centro Virgo di Cascina di Pisa, si è tradotta in una gigantesca raccolta di dati. Nulla era altrimenti percepibile o visibile. Tutto si traduceva in un afflusso di informazioni binarie che i complessissimi sistemi di monitoraggio raccoglievano.

Questo ci porta ad una constatazione, tanto banale quanto oggi discriminante per comprendere cosa abbiamo dinanzi: ogni attività dello scibile umano si sta traducendo in un flusso di dati.Chi ne determina la forma e il modo di interpretazione si trova ad essere il padrone della nuova biblioteca di Alessandria

Constatazione banale, ma essenziale per comprendere che quell’eccentrica ,e al momento da molti considerata integrativa e collaterale ,attività di raccolta e lettura dei dati che contraddistingue l’espandersi dell’economia digitale non è una specifica e periferica caratteristica ma è, per dirla con Castells : “l’attività che distingue la specificità della specie umana”. Castells riferiva la sua definizione all’informazione e battezzava come Informazionaslismo il nuovo mondo che ci circondava. A poco più di 15 anni dalla pubblicazione dei suoi tre tomi della Società in rete, possiamo dire che l’informazione sia diventata un derivato di un processo più essenziale e diffuso che è appunto il big data, guidato e configurato dal pensiero computazionale che oggi è il vero alfabeto distintivo della nostra epoca

Ma se il flusso di dati è il linguaggio, il sistema matematico di raccolta e interpretazione è il sistema semantico. Il vero elemento discriminante che da valore e funzione al dato è proprio la procedura matematica di interpretazione . Da questa funzione dalle sue logiche e dai suoi modelli cognitivi,discendono la natura . i linguaggi di lettura dei dati e il ruolo strategico che la decifrazione veloce dei flussi assume in una cultura e in un paese.

Siamo ad una torsione ed una conferma del quadro generale del sistema economico sociale del pianeta. L’economia manifatturiera, che ha condotto lo sviluppo e il benessere di una quota rilevante dell’umanità ad alti livelli, viene sostituita non da una generica società della conoscenza. Dominata da saperi e competenze, ma da uno specifico e particolare modalità rappresentativa del reale,un linguaggio appunto, attraverso il quale confluiscono tutte le funzioni di controllo, analisi, trasformazione, e riorganizzazione del pianeta che è il big data.

Esattamente quella materia, quell’onda gravitazionale, potremmo dire suggestionati dall’ultima scoperta, che ha prodotto e alimentato la rete.



La lezione di Babbage

Questo ci fa pensare che la pervasività della rete, la sua straordinaria forza di coinvolgimento, la sua capacità di riclassificare e riformattare ogni attività umana, sia proprio il risultato ,e non la causa, di questo dominio del linguaggio computazionale. A conferma della lucidissima, e per nulla paradossale, intuizione di un altro precursore e fabbricante della modernità come Charles Babbage, il padre del calcolo automatizzato, che, agli inizio del XIX° secolo prevedeva che “E’ la scienza del calcolo che diviene sempre più necessaria ad ogni passo del nostro progresso, e che in ultima istanza deve governare tutte le applicazioni della scienza alle arti della vita”.

Una visione che abbiamo visto confermarsi ad ogni passaggio storico e scientifico. Sia nel corso dell’’800, in cui prese forma e assetto la rete di matematici che cominciò a calcolare il modo; sia nel successivo tremendo inizio di secolo, a ridosso della prima guerra , quando Einstein, parallelamente a Poincarrè in Francia, intuì i principi della relatività, a aprì la strada alla fisica contemporanea ed alla matematizzazione del sapere. Poi, sospinto dalla convergenza della scienza nei processi produttivi che determinò la fisionomia della tecnologia, attraverso il secondo conflitto mondiale , prese forma il pensiero computazionale con le prime riflessioni di Vannuvar Bush e poi con le proiezioni informatiche di Alan Turing e Claude Shannon che cominciarono a pianificare le loro visioni sull’automatizzazione del pensiero .

Proprio gli anni del secondo conflitto mondiale, e quelli immediatamente successivi ,segnati dalla guerra fredda fra i due blocchi est/ovest, incubarono, con una incredibile permanenza di forme di dialogo e confronto fra gli scienziati dei campi opposti,che continuarono a seguirsi ed a parlarsi, il nostro mondo digitale.

“ Shanon- scrisse nel 1943 Turing in visita ai Bell Labs negli usa dove incontro il grande matematico americano- non vuole dare solo dati al suo cervello artificiale, vuole dargli cultura”. E’ il battesimo dell’ingegnerizzazione dell’intelligenza artificiale. Ma soprattutto inizia in quegli anni, nei centri di ricerca che inevitabilmente , in tempo di guerra, erano orientati all’azione militare.

Come è noto Turing era il responsabile del famoso progetto Enigma, per decrittare i sistemi di crittografia dei servizi segreti nazisti, mentre negli USA la fisica e la matematica erano mobilitate nel progetto Manhattan per la bomba atomica. Ma , nonostante l’emergenza bellica, appare evidente che ai grandi registi della ricerca matematica era chiarissimo che il vero obbiettivo era quello di ripensare e riordinare il mondo. Il motore di questa nuova , ambiziosissima, fase di civiltà umana che oggi definiamo il tempo digitale, era ed è tutt’ora l’informazione. Esattamente nell’accezione che abbiamo richiamato della professoressa Buonanno che riferendosi all’impresa della verifica delle onde gravitazionali spiega che è stato tutto un gioco di trasmissione e interpretazione di dati, ossia di informazione.



Intelligenza è informazione

L’idea stessa di informazione come processo di implementazione delle nuove relazioni sociali ed economiche nasce proprio negli anni 40. Come spiegava Richard Dawckins, uno dei più accreditati teorici dell’evoluzione “Al cuore di ogni cosa vivente non è fuoco, non un alito caldo, non una scintilla di vita,bensì informazione, parola, istruzioni.se si vuol comprendere la vita non si pensi a a gel e fanghi vibranti e pulsanti, bensì alla tecnologia dell’informazione”.

Una tecnologia quella d’informazione che Vannuvar Bush nel suo saggio As We may think (http://www.theatlantic.com/magazine/archive/1945/07/as-we-may-think/303881/) pubblicato nel luglio del 1945 , a pochi giorni dall’esplosione della prima bomba atomica, da Atlantic Review,individua come la strategia per devitalizzare il blocco sovietico, il cui potere e richiamo era basato sul lavoro manifatturiero.

Un termine , quello dell’informazione, che nasce come sinonimo di intelligenza. In Inglese è un’identità semantica: Intelligente Service è tradotto servizi d’Informazione. Più raro ,ed ormai in disuso, in italiano dove per altro nacque invece il sodalizio fra i due concetti Informazione/intelligenza,che risale ai grandi della nostra letteratura come l’Ariosto e lo stesso Machiavelli che più volte nelle sue lettere adotta il termine intelligenza proprio per informazione, come ricorda James Gleick nel suo saggio L’Informazione (Milano, 2012, Feltrinelli) . E mentre nel mondo anglo americano i saperi informatici diventavano computer scienze ,proprio in Italia e Francia fin dall’inizio erano classificati sotto il concetto di Informatica, la cui radice non lascia dubbi sulle origini.

La rete dunque non è ne principalmente ne storicamente il portato di fenomeni di origine militare o l’indotto di processi di semplice individualizzazione, prodotti con la scomposizione delle vecchie procedure produttive di massa, ma si concretizza come il consolidamento, la cristallizzazione avrebbe detto Marx, di una complessa e determinata volontà di riordinarie assetti e gerarchie sociali , mediante un linguaggio complessivo che , espandendosi e intrecciandosi con ogni tipologia di attività umana, contamina ogni anfratti della società attraverso la centralità del sapere e la diffusione del suo primario linguaggio che è lo scambio di dati.

Il big data non si propone dunque come la conseguenza o l’epifenomeno di una tecnologia, ma è la nuova ontologia del sapere. Il dato, il bit nella sua forma più corrente, diventa il modo in cui si riorganizza la nostra vita.

Come sintetizzò la sua idea di vita, al termine della sua lunga e meravigliosa esistenza di scienziato John Archibald Wheeler, il più longevo dei collaboratore di Albert Einstein, morto nel 2008,”it from bit” (http://www.physicsoftheuniverse.com/scientists_wheeler.html) intendendo che ogni cosa è informata,che l’informazione nella sua particella più elementare dà origine ad ogni cosa-ogni particella, ogni campo di forza, anche lo stesso continuo spazio-temporale”.

Il motore della svolta di Einstein fin da allora era esattamente quello: il calcolo e la misurazione dei dati, quel processo che abbiamo visto Manuel Castels definirà molto dopo come informazionalismo,per indicare la contaminazione dei bit con ogni forma di produzione di ricchezza e di relazione.

Se dunque la natura dei nuovi processi sociali, di cui le attività cognitive sono solo una parte, è l’informazione, meccanicamente il trasferimento e trattamenti dei dati, dunque ogni mutazione e cambiamento in questa sfera modifica le relazioni e le gerarchie sociali. Il punto nodale di questo ragionamento è che la matematizzazione dei processi di soluzione e automatizzazione delle criticità umane non è un processo di semplificazione procedurale e di limitazione dei conflitti ma piuttosto il contrario: siamo nel campo di una nuova forma di lotta sociale e culturale di cui i dati sono l’oggetto e il soggetto contemporaneamente.

La Sfera di Bruno rotola ancora

Una premonizione di questa logica la ritroviamo in un pensatore determinante del Rinascimento italiano come fu Giordano Bruno. Le sue Opere Magiche furono forse il primo pensiero non lineare della narrazione europea. Ma è soprattutto nella sua cosmogonia che rintracciamo una visione illuminante della rete attuale: nell’infinito spazio possiamo definire centro nessun punto ,o tutti i punti :per questo lo definiamo sfera il cui centro è ovunque.

Una geografia delle relazioni che immediatamente contestava e ribaltava l’assetto verticale dei poteri del tempo, dalla chiesa all’impero.ma che oggi ci sostiene in una logica policentrica riferita proprio ai processi cognitivi dei sistemi digitali e in particolare dei modelli di decifrazione dei big data. I nuovi centri da aggirare e accerchiare sono proprio le cattedrali degli algoritmi che parlano ai nostri cervelli.

Le visioni esoteriche di Bruno, insieme alle bussole geopolitiche ambivalenti di machiavelli o all’elaborazione sulle mnemotecniche di Pico della Mirandola ci confortano nel sentirci come europei, ed italiani in particolare cittadini a pieno titolo dei nuovi mondi digitali,e non solo profani in cerca di alfabetizzazione. E ci confermano il carattere conflittuale delle teorie matematiche e delle pratiche algoritmiche, come proprio negli anni 40 si dimostrò.

Clamorosa fu infatti la reazione che si registrò oltre cortina all’esplosione delle scienze dell’informazione. Già il termine, scienza dell’informazione, veniva espunto dall’ortodossia in quanto sospetto, per l’evidente richiamo alla libertà di comunicare. Inoltre la chiusura della società sovietica, con il contenimento delle tecniche di informatizzazione, a cominciare dalle reti telefoniche, penalizzava fortemente il mondo della ricerca nazionale che si vedeva incalzata e superata dagli scienziati occidentali..

Ma proprio nel cuore del sistema sovietico nasce la centralità dell’algoritmo, con le elaborazioni di Andrei NiKolaievic Kolmogorov, il più talentuoso matematico russo della seconda parte del ‘900 che ,riuscendo a sopravvivere alle continue purghe staliniane, portò i suoi studenti a ripensare le teorie di Shannon e Turing ,arrivando ad individuare dopo le teorie combinatorie e probabilistiche , regno proprio delle scuole angloamericane, il campo algoritmico come terreno per automatizzare le soluzioni delle criticità. Si apriva così, bizzarramente proprio a Mosca, il grande scenario della complessità come nuova scienza sociale: quanto più semplice è un oggetto tanto meno informazione veicola, spiega Kolmogorov , e procede “un oggetto che possa essere prodotto da un algoritmo breve ha poca complessità; invece un oggetto che richiede un algoritmo lungo tanti bit quanto l’oggetto stesso ha la complessità massima”. Sembra la matrice della sociologia americana di Parson e Marshall più che un meccanismo teorico del centralismo societico. In realtà Kolmogorov coglie nella complessità del processo algoritmico una via decisionale non sostenibile per le democrazie liberali.

Si realizza così una istintiva convergenza fra le ansie verticistiche del totalitarismo staliniano e le pulsioni tecnocratiche dei matematici americani.

Si aspre la strada ad un neo tecnicismo scientifico, come racconta Nicholas Carr nel suo saggio La gabbia di vetro ( Milano 2015, Cortina editore) :Ingegneri e programmatori accentuano i problemi nascondendo agli operatori il funzionamento delle loro creazioni, trasformando così ogni sistema in un’espugnabile scatola nera”

Un approccio che sposta la linea del potere oltre i recinti del gioco democratico trasparente. E che rende per altro sempre più fragile e vulnerabile la nuova società automatizzata. Come conferma il direttore del dipartimento dei fattori Umani dell’Università dello Iowa John Lee “ se una persona non comprende gli algoritmi che sta utilizzando non ha alcun modo per anticipare le azioni e i limiti dell’automazione

Ma oltre una valutazione di sicurezza si pone una questione di forza, nel senso di un potere non trasparente che affiora dagli automatismi.

Se la complessità di un sistema algoritmico, dunque di una modalità di analisi e misurazione dei dati, è una risorsa, e lo è, possiamo anche dire che si tratta di un elemento neutro? Questo è il vero buco nero del mondo informatico. La grande densità di senso che viene veicolata dalle sue procedure e formule e al tempo stesso la grande asetticità socio politica dei suoi sistemi.

Il Big data :Causa o conseguenza?

Il big data è un fenomeno puramente procedurale? Privo di ogni implicazione valoriale e sociale? Vi sono modalità e tecniche di raccolta dati univoche e oggettive in ogni contesto?

Queste domande ci portano al cuore del tema che oggi è di fronte a noi: la relazione ai fini della sovranità dei sistemi pubblici e statuali fra la potenza di calcolo e la discrezionalità delle singole comunità. In sostanza torniamo al tema della neutralità della scienza, e più specificatamente di come i sistemi algoritmici veicolino una visione del mondo e un sistema valoriale attraverso la procedure e la logica che promuovono mediante le soluzioni adottate.

Un tema che se oggi può apparire astratto o fumoso, era invece ben presente all’origine del processo di sviluppo degli attuali contesti informatici. Tanto è vero che proprio Shannon nel suo testo fondamentale che da base teorica e pratica all’automatizzazione del pensiero,The Matematical Theory of Comunication, ha avvertito lsa necessità ,con fare brusco e imperativo, di sgombrare il campo dagli interrogativi e le osservazioni che cominciavano ad addensarsi attorno alla strategia numerica, affermando l’irrilevanza del significato per il problema ingegneristico.

Si alzava un muro dinanzi alla dimensione sociale dell’informatica.

Prevalse allora l’impostazione di determinismo matematico di Shannon, anche per il contesto geopolitico in cui nacque l’informatica moderna,segnato dall’antagonismo prima militare della II# guerra mondiale e poi ideologico della guerra fredda.

Una scelta che ha accompagnato e caratterizzato per i 20 lustri che sono seguiti l’informatizzazione del mondo.

Rimane incredibile come in quegli anni si sia dibattuta una questione di una rilevanza cosi determinante per la nostra vita completamente al di fuori di ogni circuito democratico o trasparente. Cola la più completa “distrazione” delle forze politiche e delle relative opinioni pubbliche.

Solo un ristretto nucleo di esperti e decisori, in una gerarchia che non è stata certo insensibile all’epilogo della discussione, ha potuto influire su impostazioni e organizzazioni che hanno predeterminato tutto lo sviluppo successivo del mondo tecnologico: da una parte l’apparato militare , chechiedeva sistemi di precisione, programm,abilità e di riproduzione automatica delle forme più devastanti di combattimento, dall’altra i ceti imprenditoriali, che volevano rispondere alla conflittualità del mondo del lavoro e perseguivano il sogno di Machines without men,( https://books.google.it/books?id=KO3XJnBROeMC&pg=PA81&lpg=PA81&dq=machines+without+men+fortune+1946&source=bl&ots=zBrQ08sexy&sig=C31pxl_NzClIOQspfZ8WsNZZ9AQ&hl=it&sa=X&ved=0ahUKEwj-u7-p0fTKAhVMAxoKHYCACoQQ6AEILDAD#v=onepage&q=machines%20without%20men%20fortune%201946&f=false) come titolava nel 1946 la copertina di Fortune.

Possiamo oggi dire che la struttura e i meccanismi dei processi innovativi che hanno accompagnato la transizione dall’analogico al digitale nascano esclusivamente sotto le sollecitazioni di questi due mondi e conservano linguaggi e modalità discendenti da questa origine.

La rete poi è riuscita a contaminare questo nocciolo duro di visione del mondo, con l’ondata dell’open source, ed ha determinato dualismi e ibridazioni che provocano instabilità e oscillazione al sistema. I vari passaggi che possiamo oggi misurare, dal modello mainstream di IBM degli anni 60 ,che cancella l’eccezione della Programma 101 di Adriano Olivetti , allo statuto proprietario di Microsoft nel decennio successivo ,che impone il monopolio attraverso le compatibilità del proprio sistema operativo , fino alla rottura iconografica della Apple di Steve Jobs, per arrivare poi al rinascimento dei diversi formati e standard che si coagulano nel software condiviso di Google e delle prime piattaforme social del 2000,ci conducono al consolidarsi di pochi centri dell’algoritmo che sono appunto gli Over The Top della rete ,che riconducono a modelli commerciali e sociali proprietari soluzioni come il social, il cloud e la research power.

Veicolo e effetto di questo processo el,littico che dal dominio originario delll’IBM torna al monopolio di Facebook e Google, è proprio il big data che permette la personalizzazione di un servizio sulla base della configurazione di un bisogno tramite lo stesso big data.

Ma il centro propulsivo del processo è la natura e funzione dell’algoritmo.

Il significato come conflitto

Solo soluzione meccanica di un semplice e schematico meccanismo attuativo o indotto valoriale, diciamo pure ideologico, di un sistema che tramite la predisposizione di una soluzione tecnica impone un pensiero? Un dilemma che inevitabilmente investe la dinamica dei poteri collettivi prima ancora che dei diritti individuali

Oggi ,su questo approccio, cominciano ad articolarsi forme di resistenza, contrapposizione, conflitto non rispetto alla rete ma nel cuore della rete.

Come scrive Jean-Pierre Dupuy, filosofo francese e storico della cibernetica, dinanzi ai mille fuochi di contestazione dei monopoli dell’algoritmo pensando al determinismo di Shannon “ era inevitabile che il significato di aprisse un varco per rientrare….. anche perché Il nostro è un modo sul quale pretendiamo di avere sempre più informazione, ma che ci sembra sempre più privo di significato”. Anche perché, aggiunge, illuminando il vero processo sociale innestato dalla rete il filosofo dell’informazione ed epistemologo Fred Dretske(http://www.informationphilosopher.com/knowledge/philosophers/dretske/) “ la bellezza è nell’occhio dell’osservatore, e l’informazione è nella testa del ricevente”.

Così, potremmo aggiungere, il senso e valore del dato è nella cultura del fruitore. Un’affermazione che apre una prospettiva diversa rispetto al modello che ci propongono gli OTT (over The Top della rete). A cominciare dall’indifferenza rispetto ai poteri e alle culture locali che segnava i colossi digitali. Facebook, Google ,Amazon e tutti i grandi service provider che attraversano le comunità nazionali di tutto il mondo esasperano, come nessuna Standard Oil si sognava mai di fare, l’idea di una transnazionalità che copre la loro totale irriducibilità alle leggi e norme territoriali. Linguaggi, forme, procedure, valori e concetti vengono acquisiti, catalogati, combinati e selezionati senza alcuna considerazione ne per la provenienza ne per la destinazione.

Persino i comportamenti commerciali, a cominciare dagli aspetti fiscali, indicano una estraneità di questi gruppi alle leggi nazionali. E il trattamento dei dati è l’oggetto e la forma di questa sovrannazionalità dei monopoli della rete. I dati che vengono indotti dalle infinite operazioni digitali che compiamo quotidianamente - 8 miliardi di download di video al giorno, centinaia di milioni di incontri reali o virtuali, e fra poco un ulteriore moltiplicazione di tutto per mille con l’entrata in funzione di Internet delle cose- sfuggono ad ogni convenzione. Vengono estratti e archiviati a prescindere dalla consapevolezza e consensualità degli utenti, trasferiti in luoghi non dichiarati, sottratti ad ogni controllo e verifica. Soprattutto vengono trattati ed elaborati con modalità non trasparenti ,per ottenere informazioni e servizi non previsti in contratto. Il dato è dunque materia non negoziabile per le banche dati. La rete viene considerata una extraterritorialità, uno statuto oltre la legge.

Qualcosa comunque sta mutando. L’Unione Europea e singoli stati, in particolare Francia, Germania e Italia, stanno ponendo il tema della sovranità commerciale e fiscale nei confronti di questi soggetti digitali. Ma più in generale si sta affermando il concetto di sovranità nazionale del traffico di dati. L’India ha sospeso l’attività di Facebook sul suo territorio perché il social network non assicurava la net neutrality nel flusso dei dati. La Germania ha sollecitato più volte Google a rendere espliciti e trasparenti i dispositivi vir5tuali e i software che raccolgono e trattano i dati dei cittadini tedeschi.la corte europea ha imposto ai gruppi digitali di rinegoziare la convenzione sullo stoccaggio dei dati. Ma se l’azione degli stati è sempre sospetta quando investe ambiti e modelli comunicativi, perché forte è il ricordo delle tentazioni autoritarie, quello che segna un vero cambio di culture e atteggiamento è proprio nel senso comune nei comportamenti di milioni di navigatori che vedono nei brand digitali a cui delegavano solo qualche anno fa la loro emancipazione dalle strettoie dei sistemi mediatici locali minacce e insidie alle identità e autonomie operative.

Il punto ora è capire se l’equilibrio fra autonomia delle comunity in rete e sovranità delle comunità reali sul territorio si possa definire solo sulle procedere fiscali o di archiviazione e non debba , inesorabilmente toccare anche il motore di tutto il processo: il software.

Dalle lezioni Americane di Italo calvino fino al fondatore di Netscape Marc Andreersen , ci dicono che il software si sta mangiando il mondo.

Ogni giorno possiamo constatare come aumentino sempre più le attività e le decisioni che deleghiamo ad un software. E sempre più usufruiamo dell’automatizzazione di funzioni e decisioni in virtù di sistemi algoritmici. Questo è il nuovo principio vitale del processo che negli anni 40 fu sviluppato ed elaborato da la scuola di Shannon e Turing. Ma proprio la pervasività di questo modo di organizzare la vita, mediante istruzioni matematiche che generano altre soluzioni matematiche, quale è il software, solleva il tema che Shannon aveva escluso dal suo orizzonte: il significato. Meglio ancora la teoria che prevalse nella nuova scienza algoritmica prevede che il significato sia azione, ossia che la soluzione di un problema che l’algoritmo assicura con le sue istruzioni sia di persè il significato, escludendo altre problematizzazioni. Se c’è soluzione non c’è discussione. La soluzione diventa un assioma. Come sintetizza Alexander Gallowey (http://steinhardt.nyu.edu/faculty/Alexander_Galloway ) “ il codice digitale è l’unico linguaggio che è eseguibile….Il codice è una macchina per convertire il significato in azione”

Questa definizione ci mostra esattamente il senso comune del mondo digitale costruito su una progressione di soluzioni algoritmiche. Mai discutibili nel merito, ma solo proceduralmente.

Quanto è invece comprensibile e negoziabile, il significato di un sistema digitale, sia esso di pura comunicazione , o di intervento più delicato come le forme di biotecnologie che riprogrammano intere parti di vita umana?

Infatti la discussione sui big data perde la sua oggettività funzionale se viene condotta invece che nel primitivo contesto comunicativo nell’ambito delle biotecnologie genetiche. Come dice uno dei padri della mappatura del genoma Craig vender : il computer non serve per giocare alla comunicazione ma per riprogrammare la vita umana.

Il computer riprogramma la vita

Il principale scenario dove si proietteranno le caratteristiche dei processi algoritmici è infatti quello biogenetico. In quel contesto, dove la posta in gioco è la stessa vita umana e la riproduzione della specie, che si possono cogliere con evidenza etica ed ontologica gli aspetti positivi e negativi delle scienze basate sull’intelligenza artificiale. Buono o cattivo? Pubblico o privato ? Trasparente o riservato? Negoziabile o deterministico? Sono dualismi che nell’attuale preponderante contesto multimediale, dove si misura la sovrapposizione dei socialnetwork ai media tradizionali, e si discute della violazione della privacy o dell’arroganza sul copy right, sembrano sbiadire nell’ideologismo. Chi comanda nel processo di automazione dei pensieri? Quale algoritmo condiziona i nostri comportamenti? Domande che non superano l’indifferenza tecnologica del popolo digitale. Ma nel prossimo mondo delle biotecnologie , dove nanotecnologie e procedure di chirurgia genetica stanno evolvendo verso forme sempre più invasive nella strutture e sempre più accessibili e frendly, gli stessi quesiti appaiono più drammatici.

Pensiamo allo scenario che si è aperto nei mesi scorsi con l’avvento del CRISPR(Clustered Regularly Interspaced Short Palindromic Repeats) http://www.addgene.org/CRISPR/?gclid=Cj0KEQiA6IC2BRDcjPrjm_istoUBEiQASrLz1mk638Q8mLk0hxSks0M6f_pr5wP9zsXlx-CyTAuaKY0aAlua8P8HAQ , una procedura che apre definitivamente la porta alla fase matura del digitale. L'impronunciabile acronimo indica la nuova tecnica di tagli e cuci del DNA, la nuova chirurgia genetica, che permette di intervenire, con inedita precisione, sulla stringa del genoma, incidendo esattamente nel punto che si vuole modificare. La novità sta più che nelle possibilità che dischiude la tecnica nella sua estrema facilità d'uso. Diciamo che è nato il personal computer del genoma, con tanto di copia e incolla ,che autorizza anche semplici studenti universitari di realizzare manipolazioni genetiche fino ad oggi molto complesse.

Come sempre in questi casi le straordinarie potenzialità terapeutiche della genetica si intrecciano , strettamente, alle apprensioni per nuove forme di eugenetica aggressiva. Torna di forte attualità il monito che ci venne da un lucidissimo protagonista del digitale come Bill Joy, uno dei fondatori della Sun Microsystem, che già nell’aprile del 2000 dalle colonne insospettabili di Wired (http://www.wired.com/2000/04/joy-2/ ) ragionava sul perché “Il futuro non avrà più bisogno di noi”. Proprio un sacerdote di quella religione ci annunciava che in mancanza di un presidio critico, di un sistema cognitivo adeguato alle accelerazioni tecnologiche, in pochi decenni, 40 anni calcolava Bill Joy al tempo del suo articolo, saremmo stati emarginati dalla sovranità sul nostro corpo e sulle prospettive della specie umana. Proprio la natura dei sistemi automatici, la struttura logica degli algoritmi che li sostenevano, ci avrebbero condotti in una fase in cui la proliferazione di nuove volontà computazionali non sarebbe stata più controllabile.

Esattamente come nel fenomeno osservato e riprodotto in laboratorio delle onde gravitazionali, in cui un buco nero assorbe e ingoia l’altro, producendo quelle onde gravitazionale che abbiamo finalmente registrato e decifrato, si profila una dinamica in cui il sapere dell’umanità potrebbe essere assorbito e controllato da sistemi intelligente auto riprodotti.

Come sempre, ci avverte Arthur Clarck il capostipite della fantascienza tecnologica, “qualunque tecnologica tecnicamente avanzata è inizialmente indistinguibile dalla magia”. E di prodigi che sono diventati start up ormai ne abbiamo visti davvero tanti. E forse quelli che non abbiamo visto pubblicamente sono i più minacciosi. La storia di questi ultimi 20 anni dovrebbe averci vaccinato dalla facile tentazione di scrolalre le spalle e consolarci pensando che siamo lontani da quegli scenari.

Ma qual è la vera alternativa? Cosa può trasformare il cloud di queste suggestioni in una concreta strategia che assicuri progresso e sicurezza? Questa è il vero tema su cui temprare una nuova leva di intellettuali e di analisti della società. Sarebbe forse più produttivo che almeno una parte di quel fiorilegio di analiticshow sulla tecnologia che ormai occupa università e edifici pubblici ogni giorno potesse essere diretto anche ad una riflessione critica di sistema sulle opzioni alternative che l’omologazione del pensiero computazionale dominate comporta.

Una responsabilità non marginale nel non aprire squarci dialettici nel determinismo cognitivo dei sistemi algoritmici è proprio di quella comunità hacker che ancora si crogiola nell’estetismo di esibizioni eversive, o nel piacere di coptazioni ben retribuite nei grandi gruppi multinazionali. In entrambi i casi l’abilità e il sapere che è accumulato in quei gruppi rimane sempre dentro il recinto delle compatibilità del sistema tecnologico.



Il dualismo dell’algoritmo

Uno spiraglio invece rimane aperto sullo stretto confine della rielaborazione della nuova sociologia digitale. La convergenza di competenze strettamente tecnologiche, che riflettono sulla direzione che la rete sembra aver preso nella scia dei grandi gruppi proprietari, come Evgenij Morozov ( http://www.wired.it/play/libri/2016/02/09/cyberspazio-non-esisite-morozov/) co n il suo leviatano digitale o il già citato Nicolas Carr ( http://www.repubblica.it/cultura/2015/05/15/news/nicholas_carr_noi_sudditi_inconsapevoli_in_una_societa_automatizzata_-114423984) e la sua teoria de la gabbia di vetro. Due autori che rappresentano un filone di approccio critico alla natura filosofica e sociologica dei meccanismi digitali. Accanto a questo filone un’altra scuola di pensiero, il cosidetto accellerazionismo (http://www.dirittiglobali.it/2014/11/diagramma-flusso-liberta/ ) un orientamento che assume i meccanismi digitali, a cominciare dall’algoritmo, come macchine di produzione da analizzare nei meccanismi e nelle relazioni sociali che determinano, superando il metodo puramente linguistico della prima Media Theory.

Due sono le categorie di algoritmi classificate: gli algoritmi informazionali, che traducono informazioni in informazioni, che traducono un flusso di dati in un altro flusso di dati, e algoritmi estrattivi, per produrre informazioni su informazioni, sulla base di un’azione di accumulo ed estrazione appunto di dati dagli utenti. I primi sono dei veri e propri agenti sociali, che rimodellano quello che Zygmunt Bauman definisce la vera finalità della società digitale: produrre senso comune. I secondi invece, sono il vero propellente del sistema. La densità del processo estrattivo di meta dati disvela, lo spiega bene nel suo saggio Gli algoritmi del capitale Matteo Pasquinelli ( Ombre corte editore, Verona 2014), “le nuove prospettive sull’economia e sulla governance dei mezzi di produzione”.E’ il fenomeno che l’Economist nel 2010 definì “Industrial revolution of data”. Un processo materialmente produttivo, ingegnerizzato secondo metodologie e gerarchie industriali. Questo è oggi il big data, non una frenetica circolazione di dati da tanti a tanti. I metadati, aggiunge ancora Pasquinelli, “rappresentano la misura dell’informazione,il calcolo della sua dimensione sociale e la sua immediata traduzione in valore”.

Esattamente quanto, con un linguaggio più asetticamente scientifico ci ha riportato la professoressa Alessandra Buonanno ,quando ci ha spiegato che la spettacolare “scoperta” delle onde gravitazionali per forma e organizzazione sociale della ricerca è consistita in un processo di raccolta, selezione e analisi di flussi di dati.

Ma quella selezione e quell’analisi sono state organizzate mediante soluzioni univoche ed oggettive? I sistemi matematici elaborati dalla professoressa erano equivalenti ed omologhi per i loro meccanismi e i risultati porodotti a quelli che potevano essere elaborati in altri centri scientifici di altri paesi o culture?

Nei sistemi esperti, ossia negli ormai diffusissimi sistemi operativi robottizzati che intervengono in numerose fasi della nostra vita, come ad esempio la guida di un aeroplano o la gestone di un patrimonio finanziario, la soggettività delle soluzioni è ormai quanto mai acclarata. La discriminante che separa diversi approcci è quella che gli esperti definiscono il grado di adattabilità di un algoritmo.

In sostanza, lo spiega bene nel suo saggio che abbiamo già citato Nicolas Carr “ nei sistemi adattivi il computer è programmato per dedicare attenzione diretta a chi lo utilizza.La divisione del lavoro fra il software e l’operatore umano viene costantemente adeguata a ciò che accade in ogni preciso istante”

Si afferma così una logica che potremmo definire “artigiana” della produzione automatica. Dove il valore aggiunto non sta nella standizzazione del prodotto, nella sua imposizione a masse di utenti, nello sviluppo di calcoli che individuano soluzioni mediane a cui far adattare i clienti. Come in molti altri prodotti industriali, anche per il software arriva la seconda fase, in cui più che la sua economia di scala per una commercializzazione di massa, in cui è decisivo il costo del lavoro e la prototipazione iniziale, conta la capacità, potremmo dire il gusto , di un adattamente on demand per ogni singolo utente, è quello che nel campo della moda o dell’arredamento abbiamo chiamato il design. Ecco proprio il design, l’eleganza del software, l’abilità a rendere leggero, sostenibile e adattivo ogni dispositivo rispetto all’imprevedibilità di ogni utente, che apre una nuova fase nel mondo digitale.

L’uso dell’aggettivo artigiano accanto al sostantivo logica non è una forzatura. Il concetto di artigianato come declinazione della produzione industriale lo abbiamo già conosciuto in campi vitali della economia manifatturiera: abbiamo già detto arredamento, abbigliamento ma anche architettura, automotive, sistemi a controllo numerico. Come spiegava Adriano Olivetti per la sua Programma 101, “essere anche bella è una disciplina che aiuta a rendere l’oggetto funzionale e complementare ad ogni singolo utente”. Steve Jobs colse quest’insegnamento quando faceva ridisegnare le schede dei microprocessori che dovevano essere montate dentro al MC II. Non era pignoleria, o paranoia, ma ponderata strategia per dare personalizzazione al computer.

Questa contrapposizione fra sistemi adattivi e sistemi tecnologicamente vincolati la possiamo vedere con più evidenza nel campo delle stampanti a 3D. proprio l’implementazione di sistemi che accorciano la filiera, e rendono centrale nella catena del valore l’ideazione rispetto alla realizzazione, porta il singolo progettista, l’artigiano dell’innovazione, a poter pretendere di adattare innanzitutto lo strumento produttivo, nel caso specifico la stampante a 3D e il suo sistema operativo.



Il modello digitale attuale non è la fine della storia. “ i sistemi esperti- scrive ancora John Lee- si comportano come delle protesi alle quali venga chiesto di rimpiazzare il ragionamento umano, ritenuto erroneo e inconsistente, con algoritmi umani più precisi”. In un contesto in cui, proprio per una domanda di individualizzazione dei comportamenti e di personalizzazione delle soluzioni questa strategia rischias di rallentare il processo innovativo. Mentre, ancora una volta, adattabilità delle tecniche alla differenziazione cognitiva dell’operatore umano è ancora il motore più affidabile per procedere sulla strada del futuro.

Ben Tranel, uno dei più geniali architetti contemporanei, ricostruendo le modalità di progettazione della Shangai Tower. Lo spettacolare grattacielo a spirale che ormai è un’icona della città, rivela di come più volte i progettisti hanno dovuto abbandonare i software di disegno computerizzato per procedere nel loro lavoro e conclude:una linea tracciata può essere varie cose, mentre una linea digitalizzata può essere solo una cosa”


Condividi con i tuoi amici:


©astratto.info 2019
invia messaggio

    Pagina principale