Archivi categoria: Filosofia

Critica della democrazia digitale, con Fabio Chiusi

reblogLa democrazia è una tecnologia. Un artefatto concettuale, che poi diventa metodo e prassi. Strumento di civiltà che la collettività sceglie da sé, per sé stessa. Qualcosa che abbiamo inventato progettato e cerchiamo di applicare, su cui possiamo intervenire per migliorarla. Un modo storico per garantire una maggiore qualità dell’Abitare, seguendo certi valori che riteniamo prioritari. Nel tempo, cambiano i valori, cambiano i modi. Oggi si parla di democrazia digitale. E forse la narrazione di queste nuove forme di partecipazione e rappresentatività e decisionalità merita uno sguardo capace di discernere, una critica.

Per Vicino/lontano e Friuli Future Forum domani alle 18.00 alla Libreria Tarantola a Udine chiedo a Fabio Chiusi di raccontare ombre e luci di una innovazione tecnosociale che riguarda tutti noi.

vicinolontano.it/eventi/critica-della-democrazia-digitale/

Prevedere il mondo

Nel 2008 scrivevo su questo blog una cosa intitolata alla Petabyte Age, seguendo le suggestioni di un articolo alquanto provocatorio di Chris Anderson: qui il link.
Là si trattava di riformulare l’epistemologia della scienza, perché nell’epoca odierna dei Big Data e delle capacità computazionali e algoritmiche il procedimento mentale e operativo del descrivere il mondo e prevedere le conseguenze delle modificazioni (roba di scienza, sì) è profondamente cambiato.
Estremizzando, non è più necessario porre una domanda al mondo e formulare un’ipotesi da falsificare, come il metodo scientifico ci insegna.
Semplicemente processando dati, quantità di dati incomprensibili e non analizzabili da pensiero umano (che non riuscirebbe a cogliere nessuna correlazione significativa in essi) è possibile comprendere azioni del mondo, e prevedere i comportamenti dei sistemi complessi. Complessità e semplicità della teoria esplicativa, oppure eleganza, di questo stiamo parlando.
E oggi il discorso torna fuori, trasportato sul piano della ricerca linguistica, nella contrapposizione teorica tra Norvig e Chomsky, per come appare in questo articolo qui pubblicato su Tor.com.
Se parlassimo di fisica classica come qualche secolo fa, oggi Keplero non avrebbe bisogno di porsi il problema dell’orbita dei pianeti, per confutare la loro perfetta circolarità biblica e ipotizzare la forma ellittica: sarebbe sufficiente chiedere a Google le coordinate delle singole posizioni dei pianeti attimo per attimo, e l’ipotesi ellittica emergerebbe semplicemente, come dato della realtà, includendo la prevedibilità dell’evoluzione del sistema.
E se parliamo di grammatiche e di linguaggi, non è più necessario come fece Chomsky cinquant’anni fa ipotizzare strutture generative profonde della mente umana già grammaticalmente orientate, per prevedere quali parole possono occorrere in una frase ancora da pronunciare. Per ogni sequenza di parole, posso statisticamente estrapolare da Internet la parola da aggiungere alla serie, la parola grammaticalmente adeguata, senza conoscere le regole della grammatica, senza possedere preventivamente una teoria riguardo il funzionamento del linguaggio e il significato stesso delle parole che sto utilizzando. L’approccio “Google” non è quello di sviluppare una comprensione più sofisticata del linguaggio, ma quello di raccogliere più dati sul suo funzionamento concreto (quello che si dice e si scrive nel mondo, ora in questo momento) per costruire database migliori, che garantiscano una maggiore predittività.
E’ il sistema che usano i traduttori automatici, i dispositivi di intelligenza artificiale attuali, che si concentrano sugli algoritmi di ricerca e non sulla comprensione delle grammatiche profonde del linguaggio naturale (che non essendo appunto un linguaggio formale, è in sé contradditorio, non sistematizzabile né descrivibile stando all’interno dello stesso. E uscire dal linguaggio per parlare del linguaggio è epistemologia squisita).
E’ necessaria la comprensione umana per stabilire la prevedibilità di un fenomeno? Se la risposta è no, allora la figura dello scienziato va profondamente rivista.

Propaggini incongruenti

Chissà, credo di averne parlato anni fa qui o su altri blog dove scrivo.
Una distinzione tra diverse posture mentali, relativa all’educazione, allo Stato, all’etica, ai comportamenti.
Puoi educare con il senso di colpa, come noi latini, oppure utilizzando la vergogna. 
Il primo è un fatto privato, intimo, e richiede un confessionale (cultura cattolica), il secondo è un fatto sociale, non ci si può vergognare da soli, e sociale è anche l’espiazione del “peccato” (orrenda parola), dell’errore commesso. Morale vs. etica.
Nel nord europa vige la disseminazione di un’etica della responsabilità, ovvero si fa in modo che gli individui diventino con l’educazione consapevoli delle conseguenze delle proprie azioni, qui da noi si pone un limite, perché lo Stato è una mamma italiana che ti dice di non fare quella cosa e poi quando tu adolescente ribelle la fai lo stesso la mamma sotto sotto è compiaciuta dell’intraprendenza del figlio, un rabbuffo sorridendo e via, è uno scugnizzo taaaanto simpatico. Incongruenza tra le parole severe e i gesti affettuosi, e quale vuoi che sia il messaggio che passa ai giovani, sul piano educativo? Di fare le cose, soprattutto senza pensare alle conseguenze.
Quindi al nord le autostrade tendenzialmente non hanno limite di velocità massima, da noi sì. E poi nella pratica (fino al tutor, che ha modificato i comportamenti, ovvero con politiche sanzionatorie e non educative) tutti andavano lo stesso a 170 km/h.
E’ proprio una forma mentis, sia chiaro. Della collettività, dell’epoca storica, delle istituzioni. Lo Stato mammone che deve pensare maternalisticamente ai noi poveri adolescenti ribelli, e pone dei limiti per il nostro bene, senza responsabilizzarci, senza fornirci strumenti concettuali metacognitivi che ci rendano in grado di giudicare noi stessi e i nostri comportamenti, rispetto alla socialità, all’etica. Non cresciamo mai, restiamo impaludati nell’osservanza bigotta della regola e l’anelito alla ribellione fine a sé stessa.
Come nota giustamente Mantellini, anche l’ultimo bisticcio sull’app di SWG e il parere dell’AGCom di cui parlavo qui risente di questa postura mentale novecentesca (secolare, direi io, e andrei tanto indietro) dello Stato-Mamma. 
Ma fino a ieri le modalità di funzionamento della società (i processi di formulazione di leggi, i meccanismi della loro applicabilità, la creazione e diffusione di opinione pubblica, i flussi informativi, i percorsi praticabili di partecipazione civica, etc.) erano broadcast, e se spengo un ripetitore su una montagna lascio all’oscuro tutta una valle. Oggi abitiamo in Rete, se non passo per lì arrivo all’informazione da un’altra parte, da un altro nodo, da un altro server, da un’altra persona. E non funziona più.

La par condicio è figlia di un concetto di democrazia non matura che nella seconda metà del secolo scorso ha dominato il pensiero del legislatore: una elite illuminata (o presunta tale) che segnava nella notte il sentiero al popolo verso il buono ed il giusto; una forma di intrusione gentile nelle vite dei cittadini che l’etica cattolica ha molto favorito.

(nella foto, mio padre che fa un backup su carta. Dentro il suo universo di discorso, ha ragione)

Re-framing della collettività

Quelli della Decrescita e i movimenti ecologici mondiali dicono che bisogna ri-colonizzare l’immaginario, per spostare la nostra percezione e quindi progettualità e azioni lontano dalla visione capitalistica/consumistica così come propalata dalla fine della seconda guerra mondiale.
Quelli che si occupano di giornalismo e di editoria dicono che la circolazione fluida della conoscenza, compresi tutti i nuovi fenomeni di crowdsourcing informativo, fact-checking, produzione dei contenuti digitali aumentati e distribuzione su dispositivi elettronici, ha bisogno di fare un salto di qualità, deve rendersi conto che il contesto mediatico è radicalmente cambiato, e bisogna adeguarsi adottando nuovi punti di vista e competenze digitali.
Quelli che seguono l’innovazione nella Pubblica Amministrazione sottolineano come sia necessario ora con sforzo immenso ri-progettare la stessa organizzazione lavorativa, ottimizzare grazie a strumenti di comunicazione conversazionali l’efficienza della macchina passando necessariamente per un cambio di mentalità degli stessi amministratori (funzionari o politici), verso una postura di democrazia e di governo del territorio di tipo partecipativo, abilitato e favorito dalle tecnologie digitali.
Quelli che si occupano dell’Agenda Digitale, delle start-up nel settore ICT, delle smartcities, dei territori connessi, sta ora lottando per ridisegnare le priorità del territorio, sventolando i vantaggi che una buona cablatura può offrire, insieme a pratiche di trasparenza strumenti di sensoristica, partecipazione diretta dei cittadini. E le priorità vanno riordinate nella testa di ognuno e nella cultura di una collettività.
Quelli che fanno consulenza per le imprese, avendo capito quanto le modalità digitali odierne di comunicazione interna e esterna modifichino i comportamenti e la forma stessa dell’azienda per come essa si percepisce sul piano delle relazioni interpersonali e della socialità mediatica, avendo compreso quanto sia importante nel social web marketing lavorare sulla narrazione, sulla partecipazione e sulla appartenenza a una community, sulla sentiment analysis e sulla reputazione, devono gestire il cambiamento del gruppo di lavoro reimpostando dentro la testa dell’imprenditore tutta una visione del mondo, dove oggi i mercati sono conversazioni.
Forse si è capito che bisogna lavorare sul contesto, non solo sul messaggio.
Tutto questo è un re-framing cognitivo, per una collettività, per un’enciclopedia. Serve una nuova cornice dentro cui leggere il mondo, e solo dentro quella realtà mentale sarà possibile progettare iniziative di innovazione sociale adeguate ai nostri tempi, che rispettino gerarchie di obiettivi misurati sulle necessità attuali dei cittadini e dei consumatori.
Una colossale opera semiotica, per rinominare il mondo. 
Programmi narrativi, dove per agguantare i nuovi Oggetti di Valore diventa necessario innanzitutto manipolare lo spazio cognitivo dell’Eroe (ognuno di noi, in fondo) mostrandogli i vantaggi e i benefici di un nuovo mondo possibile dove tutti siamo connessi. Riuscendo a motivare l’Eroe, inneschiamo l’azione e il cambiamento. 
Questa cosa deve sicuramente accadere a livello individuale, però le scuole devono formare cittadini digitali, e la Pubblica Amministrazione in quanto cosa pubblica deve subito adeguarsi e diventare nativamente conversazionale.
Magari come pubblicitari, bisognerebbe indurre un bisogno, perché forse non ci siamo bene accorti che qui tutto è cambiato. Usare strategie di narrazione, appunto. Far leva sulla desiderabilità, sulla convenienza, sull’estetica e sull’etica, sui benefici sociali, perfino sul progresso della specie umana. E diffondere una nuova percezione della realtà, dove la socialità digitale è uno dei fondamenti di qualunque ragionamento.
Eppure basterebbe che riflettessimo (lo dovrebbero fare alle scuole medie, questo) su quanto ci ha cambiato avere in mano uno smartphone connesso, le possibilità oggi praticabili da ognuno di noi nella partecipazione digitale a finalità civiche o anche di produttività e di consumo.
Ci vorrebbero cartelloni sugli autobus (elettrici)  con su scritto “E’ CAMBIATO IL MILLENNIO. Guardati attorno, sei connesso”
Insomma, tutti dovrebbero parlare di questo. Tv, radio, giornali, al bar: mi piacerebbe che per un anno tutti parlassero di quanto è cambiato il mondo.

Sottoesporsi ai flussi

Un lettore mp3 portatile, grande come un pacchetto di fiammiferi, contiene 40.000 canzoni.
Un walkman faceva girare una cassetta, quindi magari qualcosa in più di un’ora e mezza di musica, ma diciamo venticinque (25) canzoni, così per fare numero.
Ora pensate alle vostre strategie affettive nella fruizione sia dell’oggetto hardware, sia del contenuto musicale. Che amore è.
Chiaro, no?

Dalle idee alle persone, dalle persone alle idee

Giovanni Boccia Artieri riflette su Apogeonline sulla forma storica che assume oggi la partecipazione ai movimenti di massa, e quindi mostra l’attivismo della e-partecipation, lo stile nuovo dell’essere impegnati e le potenzialità a cui le azioni civiche online possono dar luogo, nel dialogare con i vecchi dispositivi e sistemi sociali, con il concreto costruire strategie per meglio amministrare la cosa pubblica.

Il dialogo è difficile, perché mancano le parole per dire cose nuove, e perché molti di quelli che dovrebbero ascoltare non hanno orecchi per intendere. Ma ogni nuovo esperimento è benvenuto, perché arricchisce il nostro vocabolario.

Da un’osservazione dell’articolo, prendo spunto: “non ci sono più i movimenti di massa del ‘900”. Sembra banale, sembra “non ci son più le mezze stagioni”, più che altro perché il ‘900 è finito. Ma non si è ben capito cosa significa.  Significa che non c’è più bisogno, com’era sempre successo, di avere delle idee per radunare delle persone.

Cioè, il problema era radunare le persone, ovvero muoverle all’azione. Per innescare un cambiamento – la partecipazione a movimenti di piazza, in questo caso, l’aderire a un’ideologia – bisognava aspettare che due o tre pensatori per ogni generazione riuscissero tramite la filiera editoriale pesante (il cartaceo) e elettronica (la televisione, in tempi recenti) a produrre delle idee-bandiera, attrno alle quali si potesse poi coagulare un sistema di programmi narrativi, un consenso che desse forza.

Le persone erano poche, sparse in giro per il mondo, la diffusione delle idee era lenta, per fare massa critica numerica bisognava avere costanza nell’azione di distribuzione delle nuove ideologie, che però pian piano emergevano, se in grado di occupare bene la loro nicchia ecologica nei sistemi di pensiero di cui ogni epoca si nutre, ciascuna i suoi. Il Cattolicesimo o il Romanticismo o il Sistema della Moda o il brand di un’azienda alla moda (i valori etici e estetici collegati in connotazione, il riflesso sulla nostra identità) sono tutte ideologie, come sistema organizzato di valori e credenze.

E se nel ‘900 avevamo bisogno di ideologie per radunare la gente, e poi sarebbero arrivati i partiti per organizzare il consenso (strutture per la gestione, già forme di “solidificazione” dei movimenti), oggi abbiamo milioni di persone che partecipano con la mente, essendo connessi a Luoghi digitali sociali, e poi magari mettono in moto anche il corpo e si recano alla manifestazioni di piazza, ma in origine è partecipazione “al netto”, non ancora orientata a uno scopo, a una tematica.

Noi abitando in Rete siamo già lì. Pubblicando e commentando qua e là sui social gli accadimenti, replicando a un twit e mettendo un like, già partecipiamo, al punto che è possibile misurare le aggregazioni spontanee, a esempio registrando il successo di iniziative di comunicazione informali come trendingtopics su Twitter o gruppi su Facebook.

Abbiamo la gente, e non abbiamo l’ideologia.

Il sistema sociale che nei secoli abbiamo raffinato per fare emergere idee di miglioramento della qualità del vivere (chiamatelo Progresso, se volete) si è sviluppato tenendo ferma come costante del ragionamento la dimensione geografica del nostro abitare, le distanze dei paesi e delle nazioni, ora caratteristica superata dal nostro essere connessi.

Tutto il calderone della comunicazione complessiva di una società (di nuovo, scegliete voi il grado di pertinenza: se osservare le collettività iperlocali, o i mille rivoli dell’opinione pubblica a livello nazionale, o planetario) è oggi molto più caldo: molto più veloce è il cuocere delle pietanze. Le culture umane nel pentolone, ma sotto abbiamo acceso un fuoco notevole, inventando Internet che tutti e tutto connette simultaneamente, abolendo le distanze.

Ora siamo qui, cosa facciamo? Viviamo di memi? La notiziola che ci fa parlare tutti per un pomeriggio, l’argomento grosso che si trascina in una tregiorni di querelle sui socialnetwork e rimpiattino sulla TV, che poi parla della Rete e quindi la Rete reagisce alle critiche?

Il nostro essere in Rete, l’aver espresso con la nostra presenza (identità digitale riconosciuta) la nostra partecipazione a un’idea o a una proposta di azione legislativa, il nostro aver costituito con le nostre firme o i nostri like un “movimento di massa digitale” che va riconosciuto nella sua efficacia di modificare la narrazione sociale, deve aver la possibilità di incidere sulle scelte della gestione della cosa pubblica.

Bisogna attribuire il ruolo di “parlante ratificato” alla voce che emerge da iniziative organizzate in Rete, sancirne la legittimità del suo dire e essere ascoltato. Fuori da logiche partitiche, perché il modello storico dell’organizzare il consenso tramite queste strutture “solidificanti” dei valori e degli atteggiamenti – su cui poggerebbe poi l’azione politica parlamentare, secondo meccanismi elettorali e criteri di rappresentatività, è appunto ormai storia passata, espressione di un’epoca non connessa.

Il ‘900 aveva sviluppato i suoi sistemi di innovazione sociale, con i suoi tempi e le sue distanze. Noi siamo tutti qui senza geografie e dobbiamo inventare i nuovi modi e modelli per facilitare la partecipazione civica, organizzarla in consenso per darle rilevanza democratica significativa rispetto alle collettività interessate al cambiamento, scoprire per prove e errori come progettare il software sociale che meglio interagisca con l’hardware dei territori e delle collettività che li abitano. Progettazioni sociali che grazie al contributo di tutti ottimizzano l’ingegneria del nostro abitare.

Ri-Eco-lo

Umberto Eco torna a parlare della Rete, ovviamente male. Speriamo di non vederlo costretto a passare la pensione leggendo romanzi cavallereschi e combattendo mulini a vento… oppure speriamo sappia infine rovesciare l’arazzo (sempre Cervantes) per comprendere il vero disegno formato da trama e ordito, osservandolo dalla parte giusta.
Comunque, ne parla anche Sofri qui, riprendendo questa Bustina di Minerva.
Di mio, ho già dato. Ho provato a interpretare la visione di Eco qui, un anno fa su questo stesso blog, e recentemente qui, sul blog dei NuoviAbitanti.
Mi soffermo solo su una frase da lui scritta: “Ormai Internet è divenuto territorio anarchico dove si può dire di tutto senza poter essere smentiti.”
A me sembra che la frase si riferisca all’editoria pre-internet. Provate a sostituire “Internet” con “editoria”. Se uno psicologo per esempio nel 1986 avesse scritto una castronata in un suo libro, cosa avrei potuto fare io per smentirlo? Scrivere un libro? E chi lo avrebbe pubblicato, visto che non sono un docente universitario o uno psicologo di fama? Avrei potuto scrivere un saggio di psicologia e vederlo pubblicato su una rivista scientifica? Cosa avrei potuto fare, scrivere una Lettera al Direttore in un giornale di provincia? La stessa asimmetria nell’autorevolezza della fonte avrebbe compromesso la mia posizione teorica di opposizione, la diffusione e quindi il “valore” percepito sarebbero automaticamente stati ben inferiori.
Dalla reputazione, autorevolezza, non il contrario. Questa è Rete. E la reputazione viene sia dalla qualità dei contenuti che hai saputo esprimere nel tempo, sia dall’atteggiamento di apertura alla conversazione che traspare dal modo  e dallo stile con cui abiti su Web.
Mi vien poi da pensare che per me e per molti che come me da anni cercano di capire cosa sia la Rete, la bellezza di Internet sta esattamente nel contrario di quanto espresso da Eco: innazitutto è finalmente il territorio dove TUTTI possono dire TUTTO e essere letti da TUTTI (senza soglie industriali/editoriali, senza costi di pubblicazione per l’autore e di lettura per il fruitore), e soprattutto è il Luogo dove CHIUNQUE può smentirti, pensa un po’.
Talvolta ti contraddicono a torto, e puoi sempre confutare la critica impegnandoti nel dialogo per lasciar rifulgere la Verità autoevidente e fiammeggiante, talvolta ti contraddicono a ragione, poggiando su fatti e riferimenti inoppugnabili. Scoccia un po’, devi far marcia indietro e riconoscere l’altrui punto di vista, ma di certo lo Scibile umano s’incrementa. Proprio nel confronto intersoggettivo – come nell’etica scientifica, appunto – stiamo contribuendo a incrementare il patrimonio di Conoscenza complessivo posseduto dalla specie umana, foss’anche nei commenti di un blog sperduto eppure sempre raggiungibile da tutti. Una stortura in più che viene raddrizzata, dal primo stupido che passa e vede l’errore, lo fa notare, avviene il riconoscimento e  il patteggiamento da parte dell’Autore che onestamente modifica il suo scritto, e l’Umanità ne guadagna.
Questa io non la chiamo anarchia, la chiamo “emergenza di valori di verità* nei sistemi di credenze diffusi, grazie a un fare comunitario collaborativo”. Una negoziazione. Io non vedo disordine, vedo nuove forme del Sapere, diversamente organizzate.
E quel verbo modale, quel “senza poter essere smentiti”, ancora una volta, rivela la non-comprensione di Eco rispetto a quanto sta succedendo qui dentro. O il suo non-voler riconoscere le nuove regole della Società della Conoscenza.
* non fatemi fare lo spiegone su cosa sia la verità. Vi basti il fatto che l’ho scritto minuscolo.

Muori, cagna

Questa schermata l’ho trovata qui, è una nota su FB.

Sia chiaro: non sto soffiando su nessun fuoco, non mi frega nulla segnalare alcunché al pubblico ludibrio, me ne fotto della morbosità, è già stato fatto prima, mi interessa documentare l’umanità con uno screenshot, i giornali nei boxini ci campano giorni, questo o un altro uguale arriverà anche sui tg alla ricerca di fregnacce per imbonire a’ggente, me ne frego anche di lasciare tutti i nomi delle persone come li vede uno che è iscritto a FB perché se mi dicono che in quel bar ci sono un bel po’ di persone che parlano così io prendo la vespa a vado a vedermi lo spettacolo dinanzi a miei occhi esattamente tale e quale a questo, e poi mi fa ridere, ecco. 
Son ragazzini, ma già non capiscono un cazzo. Parlo dei commenti, avevate capito.
Mi piace l’escalation, il montare del livore, l’immaginazione concentrata sulla punizione e l’epiteto. Puzza d’umanità, qui, molto troppa.
trace!ecart - Giorgio Jannis

Il Senso, tempo e superficie

Qualche anno fa scrisse una cosa che si chiamava “I barbari”, e provava a descrivere i cambiamenti culturali epocali che stiamo vivendo, i nuovi modelli della conoscenza, i nuovi linguaggi dentro cui abitiamo mentre usiamo ancora parole vecchie, che non riescono più a raffigurare il senso esatto di ciò che intendiamo comunicare, non riescono più a cogliere il fluire degli accadimenti.

Oggi Alessandro Baricco, su Wired, ha aggiunto qualcosa a quelle riflessioni, un ragionamento sulla superficie e la profondità, sul senso nascosto delle cose. O meglio, sulla morte apparente attuale di quella tradizione culturale che ci spinge a cercare ciò che vale, le cose preziose, la Verità, nelle profondità dei discorsi o nell’oscurità di libri rari o in altri Luoghi esoterici, celati alla vista, astrusi, complicatissimi.

C’è da dire che l’umanità ha sempre vissuto con questa idea del sapere iniziatico, grammatiche magiche e sacre per leggere il senso segreto delle cose. Stregonerie rituali e iniziazioni, Parmenide e Pitagora, Misteri greci, Gnosi, alchimia, spiritismo, New Age e similia. Sulla superficie, alla luce, abbiamo la chiacchiera e le carabattole. Sotto, nell’oscurità, brillano le vere gemme, ma bisogna saper cercare, ed è faticoso. E forse non è nemmeno per tutti, né cercare né godersi il tesoro.

E questa nostra epoca, dove tutto è in superficie? E’ avvenuto un funerale, da qualche parte? Stiamo elaborando il lutto per la perdita di una dimensione? Cosa traghettiamo nel domani?

Da questi barbari stiamo ricevendo un’impaginazione del mondo adatta agli occhi che abbiamo, un design mentale appropriato ai nostri cervelli, e un plot della speranza all’altezza dei nostri cuori, per così dire. Si muovono a stormi, guidati da un rivoluzionario istinto a creazioni collettive e sovrapersonali, e per questo mi ricordano la moltitudine senza nomi dei copisti medievali: in quel loro modo strano, stanno copiando la grande biblioteca nella lingua che è nostra. È un lavoro delicato, e destinato a collezionare errori. Ma è l’unico modo che conosciamo per consegnare in eredità, a chi verrà, non solo il passato, ma anche un futuro.

Tentacoli

Non serve invocare entità esterne, magari trascendenti.
Semplicemente, il complicato oltre un certo punto di complicatezza diventa complesso.
Certo, le formiche diventano formicaio, gli alberi diventano bosco. Olismo, che dire?
Un fascio di nervi diventa cervello (hardware) e sviluppa coscienza (software), un applicativo utile per far funzionare meglio il sistema.
E sembra la coscienza abbia una sua volontà, magari non ne è cosciente, che la porta a voler replicare il processo anche fuori dalla scatola cranica, adoperandosi per connettere altre coscienze.
La meta del percorso appare lampante.
Innanzitutto la coscienza ha lavorato sui gruppi di umani (hardware) per farci girare sopra linguaggi e comunicazione (software). Ha lavorato sull’empatia, per stabilire sintonia affettiva.
E con tutto un bel dialogo tra tecnologia e conversazioni, ha via via messo in scena la scrittura per darsi memoria e potenziarsi, poi ha sviluppato migliori supporti, pietra papiro argilla pergamena carta, poi la stampa, poi i quotidiani, la nascita dell’opinione pubblica mediatica, il teleascolto e la televisione, i codici digitali, la Rete dove tutti facciamo tutto con tutti insieme e contemporaneamente.
Abbiamo ora la coscienza collettiva, l’Umanità che pensa e si guarda pensare. One man, one world, one people, one net.
E senza nessun ansia omologante, ché qui ci servono molti pensieri diversi in differenti linguaggi.
Perché la coscienza fa così? Cosa vuole, da millenni? E’ una rincorsa per spiccare un salto? Bah, teleologia.
Però questa del connettersi è qualcosa di profondamente wired nel sistema, che ne facciamo?
Un processo sorto per ottimizzare le risorse e garantire maggiori probabilità di sopravvivenza (cervello-mente, individui-gruppi, olismo delle reti) rimane sempre pro life, indipendentemente dalla scala di applicazione?
Siamo agiti da pulsioni cieche, coazioni, che reiterano lo schema automaticamente, indipendentemente dalla qualità del risultato?
Ecco, la parola “qualità” porta con sé un punto di vista, su questo farsi automatico delle connessioni tra umani e mondo e delle relazioni. Etica, morale, giudizio, direzione, storia, cammino, progressione e progresso, finalità, scopo, prendere in mano il volante e decidere dove andare, ora che sappiamo di sapere.
Un mondo migliore, una coscienza planetaria. Siamo costretti a decidere, anche facendo spallucce.

A Bill of Rights in Cyberspace

  1. Abbiamo il diritto di connetterci.
  2. Abbiamo il diritto di esprimerci.
  3. Abbiamo il diritto di parlare nella nostra lingua.
  4. Abbiamo il diritto di riunirci.
  5. Abbiamo il diritto di agire.
  6. Abbiamo il diritto di controllare i nostri dati.
  7. Abbiamo diritto alla nostra identità.
  8. Ciò che è pubblico è un bene pubblico.
  9. Internet deve essere costruita e deve funzionare in modo aperto

Jeff Jervis propone degli emendamenti alla Dichiarazione d’Indipendenza del Cyberspazio di Barlow.

Due rapide osservazioni, che traggo in parte dai commenti presenti sul blog di Jarvis.
La Dichiarazione di Barlow è un testo eccezionale, lungimirante (è del 1996), filosoficamente intriso di cultura visionaria e al contempo concreto nella sua capacità di identificare i nuovi territori e diritti imprescindibili degli abitanti della Rete. Questi emendamenti di Jarvis, nelle sue stesse parole, più che miglioramenti o correzioni li intenderei come attualizzazioni, avendo a mente i pericoli che la libertà su web oggi corre in più parti del mondo.
Sarebbero da aggiungere il diritto di link (che volendo si può intendere come contenuto nel diritto di riunirci in assemblea, nel nostro organizzarci senza organizzazioni che la Rete permette), e l’affermazione secondo cui nessun governo o gruppo commerciale o individuo può rivendicare sovranità di alcun tipo sopra questi territori digitali, asserzione centrale e fondante in Barlow.
Ma qui si apre uno spazio critico.
Jarvis ragiona di libertà di Internet, Barlow parla di indipendenza.
Tant’è che è possibile far notare a Jarvis che è sbagliato esprimere dei diritti (wrong/right) delle persone in una simile Carta, come se ci fosse un’autorità che li concede, da cui noi elemosiniamo. Noi non abbiamo il diritto di connetterci, noi ci connettiamo, punto. Non voglio il diritto di parola, voglio che non mi venga impedito di parlare, visto che io parlo.
Se proprio devo introdurre degli elementi pro-positivi (affermativi) in una Dichiarazione d’Indipendenza, dovrei soltanto esprimere ciò che non deve essere fatto, a esempio chiarire che i governi non devono fare leggi contro la libertà di espressione.
La distinzione tra libertà e indipendenza influenza profondamente la narrazione del soggetto.
Articolando su un quadrato semiotico i conversi, i contrari e i contraddittori del poter-fare (libertà) si comprende la posizione dell’indipendenza come poter non-fare, che garantisce maggiormente uno spazio di manovra etico per il soggetto. Anche perché c’è sempre una storia dove un’autorità sovrastante riesce a trovare qualcosa con cui manipolare il soggetto, un oggetto di valore o anche una semplice provocazione, trasformando il suo garrulo poter-fare in un angosciante dover-fare, a esempio ridisegnando il contesto narrativo attraverso un soffocante non-poter non-fare, ovvero nella situazione dell’obbedienza.
Meglio l’Indipendenza.

 

Inverosimile come la realtà

Ci sarebbe da delineare la differenza tra immaginazione e fantasia, prima di andare avanti a scrivere cose taglienti come un coltello per il burro che però ciurla nel manico, e il manico sarebbe questo blog.
Wikipedia non aiuta, [fantasia] rimanda a [Fantasia_(filosofia)] la quale altro non è che la voce [immaginazione] con un altro titolo, e qui si trovano un po’ di solite cosette filosofiche, trattate con leggerezza. 
Ma io volevo parlare dell’oramai proverbiale frase “la realtà supera l’immaginazione”, che ricorrendo alla nota diatriba “è la Natura che imita l’Arte, o viceversa?” può essere in buona misura ridimensionata sottolineando che la realtà se ne frega di essere verosimile.
Infatti, quando un bimbo di 4 anni inventa una storia per nascondere una marachella o un omicida di qualunque età inventa una storia per nascondere una maraca (che immagino essere il non-vezzeggiativo di marachella), cercherà comunque di tessere una trama verosimile, perché ne va di mezzo la credibilità. 
Questo mi porterebbe a indagare la correlazione tra verosomiglianza e credibilità, e quindi a discettare di universi di discorso, attese del lettore, orizzonti di senso, contesti narrativi, disgiunzioni isotopiche e enciclopedie echiane, sociologie della ricezione, dell’interpretazione come negoziazione tra i parlanti, ma in questo momento ho in mente solo il panino speck e stracchino che sto mangiando.
Il fatto è che quando raccontiamo una storia, o ci immaginiamo qualcosa che possa accadere o essere accaduto, cerchiamo di essere verosimili. Pensiamo già da dentro un’orizzonte di verosomiglianza, ci diamo delle regole e siamo creativi dentro le regole del vero. Che poi non è vero per niente, essendo pur sempre una storia che ci raccontiamo a noi stessi. 
Roba vecchia, eh, ci pensò quello scettico insuperabile di Cartesio col suo dubbio radicale quattrocento anni fa a stabilire che noi possiamo avere certezza di quello che pensiamo, ma nessuna verità di come il mondo là fuori sia messo.
Poi arriva la Natura che ci mostra un ornitorinco, e la reazione fu è incredibile, perché è inverosimile che un’animale faccia le uova e allatti i piccoli eccetera eccetera. 
Ahimè, la Natura, la Realtà se ne sbatte altamente le chiappe con una zampa palmata di ornitorinco femmina della nostra incredulità. 
La realtà non ha bisogno di essere verosimile, tutto qui. 
Il verosimile è cosa umana, la realtà no, ahah. Evviva gli universi del discorso. “Realtà” e “verosimiglianza” abitano in posti diversi, sia fuori di noi sia dentro i linguaggi che usiamo. E cerchiamo di uscire da questi angusti pensieri antropocentrici, suvvia.
Prendiamo spunto dalla cronaca, invece, per allargare il nostro concetto di realtà possibile.
Dice Metilparaben: “Per un attimo ho avuto la tentazione di fare un altro generatore automatico, ma l’idea del capo del Consiglio superiore dei lavori pubblici arrestato per corruzione nell’ambito di un’inchiesta sul G8 che organizza incontri omosessuali occasionali avvalendosi della collaborazione di un nigeriano appartenente al coro San Pietro è praticamente inarrivabile anche adoperando tutta la fantasia possibile.
Mi sa che per questa volta passo.”

A inventarla, ti direbbero non è credibile, è inverosimile. E invece.
Essì, è proprio bella la realtà quando ti fa inciampare, e sbatti il ginocchio contro la credenza.

Quell’idiota mi ha colpito

Su Facebook migliaia di cretinetti all’ora cliccano per diventare fan di pagine inneggianti a quel problematico che ha colpito berlusconi.
E’ realtà, mi chiedo ancora, quella dentro Facebook? Come fare la tara di protagonismi, emulatori, giocherelloni, menti leggere, obnubilati facinorosi, dinamiche di gruppo? Qual è l’effetto di realtà che a ricaduta questo evento mediatico suscita, per come viene ripreso su altri socialcosi e sulle televisioni, sui giornali? Conferma o sconferma? Quanto puoi usare queste informazioni per costruire una tua strategia del dire, a supporto di una tua tesi?

A caldo, leggo due post che si interrogano sul valore di quelle immagini, sulla loro capacità di veicolare effetti di realtà, nel mondo delle apparenze mediatiche. Matteo Pelliti e Giovanni Polimeni.
Si parla di svelamento in senso filosofico, si parla di autenticità del dolore su una maschera, e si tratta di interrogativi che ci siamo sempre posti, i quali nell’epoca della rappresentazione simbolica dei massmedia si moltiplicano come immagini tra specchi che si riflettono.
E berlusconi è persona abituata a costruire fiction, cresciuto nella cultura dell’apparenza, dalle tecniche di vendita alle messinscene politiche, dal romanzo della sua vita ai lifting ai teatrini della personalità.

Ma quella faccia insanguinata non mi sembra più maschera, quel dolore non è fiction. Capitava nei romanzi e nelle opere teatrali russe o nordiche di fine Ottocento, di sicuro in Cechov o Strindberg o Ibsen, che d’un tratto un fatto necessario, un accadimento, uno sguardo autentico d’un personaggio incrinasse irreparabilmente le credenze esistenziali del protagonista, ne minasse radicalmente i convincimenti, facesse crollare improvvisamente i castelli di parole su cui tutti noi costruiamo noi stessi. Squarci di realtà, imprevisti e imprevedibili, fratture profonde del senso.

Credo berlusconi dovrà intimamente fare i conti con questa realtà, prima o poi. Sempre più gli arrivano addosso (la moglie, le imputazioni, ora le ferite fisiche) fatti che non possono essere giocati dentro cornici finzionali, dentro narrazioni dove da gran regista può modificare a piacimento il punto di vista del lettore, le quinte degli scenari, l’interpretazione che intende veicolare sugli eventi. E per contrappasso dantesco a lui re egomaniaco dell’apparenza gli arriva addosso proprio un simulacro, un simbolo commerciale di quella Milano che lo ha visto nascere come personaggio pubblico, tiratogli da un poveretto le cui prime parole sono state “io non sono nessuno”. Sono quelle che chiami beffe del destino, e dovrebbero far riflettere.

Sempre che le classiche modificazioni gerontologiche della personalità non abbiano solidificato completamente il delirio narcisistico, fissando e rendendo inattaccabile la sua identità costruita perfino a segni evidenti di mancata sintonizzazione col mondo.
Nel qual caso, prepariamoci ancora una volta a vedere quali strategie retoriche, quali universi di discorso, quali frame di narrazione dovranno essere allestiti per rendere plausibile il racconto della lesa maestà. Possano quel dolore e quello sbigottimento sul suo viso insegnargli qualcosa.

Alix

Cosa volete mai che Alice scopra al di là dello specchio? La Matrice, ovvio (a pensarci dopo averlo visto). Oh, qual squisito mash-up letterario. In fondo, un centone. Blob, è un altro sinonimo. Ma non confondiamo il titolo dell’opera con il tipo di opera, se non nei casi di vampirizzazione. Anche il titolo può essere parte del lavoro di rimescolamento, in effetti, e non solo essere appiccicato in seguito. Beh, però di quest’opera un titolo non c’è, non lo trovo sulle fonti – io l’ho trovata da Phonkmeister. Through the Looking-Glass, and What Alice Found There, come il titolo originale, o “Squarciare il velo di Maya”, van tutti bene. E se fossimo tutti chiamati a contribuir all’opra, intitolandola per come ci racconta? Che vita, eh? In fondo il cucchiaio non esiste, il problema è chiamarlo cucchiaio… ve lo dice un nominalista di mille anni fa come sono io, o se vi piace Protagora tuffatevi negli abissi. Misuro quel che non è, perché non sono. Sono il mio non-essere la matrice, ma neanche la facoltà del Senso. Poi per alcuni proprio questo potrebbe già essere un problema, perché “l’uomo non è il centro della vita, la misura delle cose, ma è totalmente e soltanto parte della natura“. Tanto, la vera Matrix non può essere detta. E purtuttavia mi tocca metterci un nome, maledetta nominatio rerum. E quella che può essere detta non è la vera Matrice, maledetto Tao. Anche se dico “la trama del caos” non cambia niente, se non che al mondo esiste un’affermazione in più, un suono in più che muove molecole d’aria secondo una forma, quindi il mondo è cambiato.

Per l’appunto gangherologico, l’interfaccia è lo specchio, sappiamo. Che non è un segno, a quanto pare. Conoscenza irriflessa.
Io la chiamo Alix, ‘sta tipa. Eh, che sintesi.

Petabyte Age e metodo scientifico

Ne parlò Luca DeBiase un paio di settimane fa, poi Sergio Maistrello ne diede anch’egli indicazione, approfondendone qualche aspetto.
Poi recentemente Bonaria Biancu me lo segnalò come qualcosa che avrebbe potuto interessarmi, e infatti così fu.
Qui finisce la parte con i passati remoti.
Sto parlando di un articolo di Chris Anderson (qui trovate l’originale) dedicato alle nuove metodologie di ricerca scientifica rese possibili dai supercomputer e dagli algoritmi di data-mining e map-reducing di Google, dove sostanzialmente si dice che non è più necessario, secondo il vecchio modello di indagine scientifica, porre inizialmente un’ipotesi sul funzionamento di qualcosa ed in seguito procedere con le verifiche per saggiarne l’attendibilità.

Sia ben chiaro, da molto tempo l’epistemologia ha chiarito che le “spiegazioni scientifiche” non sono altro che “verità locali” utili per spiegare un fenomeno, tant’è che ci son state situazioni storiche in cui tutto l’insieme delle credenze, ovvero lo sfondo/contesto su cui le affermazioni acquistano senso, è stato messo a soqquadro da qualche innovazione concettuale o tecnologica oppure concettuale indotta dalle scoperte che la tecnologia, come protesi dell’occhio e della mano quindi tecnologia dell’intelligenza, ha reso possibili.
Per dire, nessuno scienziato serio afferma oggi che l’acqua bolle a cento gradi.
Per dire, il problema non è il fatto che l’acqua bolle a cento gradi, quanto la fiducia cieca di certi scienziati arroganti nell’affermare che questo fenomeno è sempre accaduto e sempra accadrà e quindi corrisponde a una “verità” universale assoluta.
Come per il teorema di Pitagora, basato sui postulati di Euclide: qualcuno a metà Ottocento si è accorto che Pitagora non funzionava se il triangolo è disegnato su una sfera, e tutto questo ha portato rapidamente alla formulazione di geometrie non-euclidee e alla crisi dei fondamenti matematici, costringendo la scienza ad ammettere che tutte le credenze precedentemente possedute altro non erano che una verità locale, un caso particolare (quel luogo della mente dove la somma degli angoli interni di un triangolo è 180°) di una realtà/pensiero molto più complesso.
Le affermazioni scientifiche scommettono sui principi e sui modi di funzionamento dei fenomeni naturali, e epistemologia moderna esige che gli scienziati siano criticamente consapevoli della portata euristica limitata del loro affermare, tutto qui. Pensiero debole. “Per quanto ne sappiamo, funziona così”: questa è una frase scientifica corretta.
Tra l’altro un grandissimo del’epistemologia del Novecento, Thomas Kuhn, ha mostrato come le rivoluzioni scientifiche avvengano per rottura – non semplice allargamento/superamento – dei paradigmi concettuali, in quei momenti storici in cui una intera visione-del-mondo (l’insieme delle credenze sul com’è è fatto il mondo e come funziona, le categorie stesse della sua pensabilità) deve essere smantellata e ricostruita alla luce di nuovi atteggiamenti metodologici, spesso indotti dalle stesse nuove scoperte che più progredite tecnologie hanno reso disponibili.
E qui torniamo (sorry, ma la filosofia della scienza e del linguaggio sono vecchie passioni) all’articolo di Anderson su come il nostro vivere nell’era dei Petabyte condizionerà e forse modificherà radicalmente il modo di fare scienza. In sostanza, mi sembra si affermi che la triade ipotesi-modello-esperimento sia in realtà figlia di un’epoca in cui non era nemmeno pensabile il prendere in considerazione masse sterminate di dati, di gran lunga superiori alle capacità di elaborazione cognitiva umana, per la mancanza di una tecnologia (gli algoritmi di ricerca di Google e i supercomputer) in grado di trarre correlazioni statistiche significative.
Quindi gli scienziati degli ultimi quattrocento anni, prigionieri inconsapevoli del loro paradigma concettuale, hanno elaborato e utilizzato il metodo scientifico (che il Novecento ha sottoposto a vaglio critico con l’epistemologia) quale unica possibilità di incrementare la conoscenza “certa”. Non c’era altro modo, il pensiero non aveva altre possibilità metodologiche di afferrare qualcosa della cosiddetta realtà. Il concetto di causa-effetto poi, profondamente radicato in noi nonostante critiche filosofiche millenarie, portava sempre guardacaso a pensare situazioni sperimentali vincolate all’elaborazione di ipotesi che poi potessero essere saggiate nei test di laboratorio. Da come scrivo, mi sembra chiaro che si stia sfiorando la tautologia, perché l’impostazione stessa dell’esperimento era sempre frutto di un pensiero “interno” ad una rappresentazione concettuale predefinita (nella mente del ricercatore, nella sua visionedelmondo), dove certe ipotesi potevano nascere ed altre no.
Se potevo porre un’ipotesi, mi stavo comunque muovendo all’interno del noto, o comunque lì vicino (vedi abduzione, di quell’altro grandissimo che è Peirce), perché non è umano indagare l’ignoto partendo da ciò che non so.
Anderson invece ci mostra come recenti progressi scientifici siano stati compiuti ignorando completamente il significato e la struttura di ciò che si andava indagando. Anzi, questo fatto di non porre a priori ipotesi interpretative è tra l’altro di squisita di metodologia semiotica, laddove buona narratologia invita a sospendere le domande sul senso di un testo, per prendere in considerazione le componenti morfologiche e sintattiche prima ancora di quelle semantiche.
Poter setacciare enormi masse di dati (ma avete presente un petabyte?) alla ricerca di correlazioni statistiche significative, indipendentemente dal contenuto che questi dati veicolano, vuol dire far emergere configurazioni di senso da sistemi complessi senza che ciò che emerge sia condizionato dal tipo di interrogazione che faccio, dall’ipotesi euristica che cerco di indagare, dallo sguardo con cui accolgo i fenomeni, dando così necessariamente loro un nome prima ancora di sapere di cosa si tratti, rendendoli eloquenti soltanto per come sono capace di leggerli (mi sovviene Lombroso, in qualche modo, e l’attribuire tratti caratteriali sulla base di conformazioni craniche)

Con una vecchia battuta, sappiamo che il senso di una domanda è la direzione in cui cercare la risposta, perché la domanda (la forma della domanda) orienta la risposta, suscita uno sguardo specifico a scapito di tutto quello che rimane fuori dal pensiero interrogante; se invece l’indagine la compie qualcosa di inumano, possono emergere aspetti della realtà che per definizione noi umani al momento non possiamo cogliere, visto che per conoscere dobbiam fare domande, e per fare domande ci costruiamo un modello a partire dalle nostre pre-comprensioni e insomma non possiamo uscire da noi stessi. Tutto qui: qualcuno è in ansia? Cosa può imparare la scienza da Google?

E allora, ho tradotto l’articolo di Anderson, aiutandomi con GoogleTranslate, ma non veniva bene, poi con BabelFish (yes, 42) l’ho un po’ sistemato, e lo metto qui.

LA FINE DELLA TEORIA
Il profluvio di dati renderà il metodo scientifico obsoleto?
di Chris Anderson

“Tutti i modelli sono errati, ma alcuni sono utili”

Così affermò George Box 30 anni fa, e aveva ragione. Ma che scelta avevamo? Soltanto i modelli, dalle equazioni cosmologiche alle teorie di comportamento umano, sembravano poter consistentemente, anche se imperfettamente, spiegare il mondo intorno noi. Finora. Oggi le aziende come Google, che si sono sviluppate in un’era di dati sovrabbondanti, non devono accontentarsi di modelli errati. Effettivamente, non devono affatto accontentarsi dei modelli.

Sessanta anni fa, gli elaboratori digitali hanno reso le informazioni leggibili. Venti anni fa, Internet le ha rese raggiungibili. Dieci anni fa, i primi crawlers dei motori di ricerca hanno reso [Internet] un’unico database. Ora Google e le aziende simili stanno setacciando l’epoca più “misurata” della storia umana, trattando questo corpus voluminoso come laboratorio della condizione umano. Sono i bambini dell’epoca del Petabyte (Petabyte Age).

L’epoca del Petabyte è differente perché il “di più” è differente. I kilobyte sono stati immagazzinati sui dischetti. I megabyte sono stati immagazzinati sui dischi rigidi. I terabyte sono stati immagazzinati nei disc-arrays. I Petabytes sono immagazzinati nella nuvola. Mentre ci siamo mossi lungo quella progressione, siamo passati dall’analogia della cartella (folder) all’analogia dell’archivio all’analogia delle biblioteche a – bene, con i petabyte siamo fuori dalle analogie organizzative.

Alla scala del petabyte, le informazioni non sono una questione di semplici tassonomie a tre e quattro dimensioni e ordini, ma di statistiche dimensionalmente non conoscibili. Richiedono un metodo interamente differente, che ci richiede di lasciar perdere l’idea di poter imbrigliare i dati come qualcosa che possa essere visualizzato nella relativa totalità. Ci costringe in primo luogo a osservare matematicamente i dati, e solo in seguito stabilire un contesto [per la loro interpretazione]. Per esempio, Google ha conquistato il mondo della pubblicità con nient’altro che matematica applicata. Non ha finto di conoscere qualcosa circa la cultura e le convenzioni della pubblicità – ha semplicemente supposto che avere migliori dati, con migliori attrezzi analitici, avrebbe condotto al successo. E Google ha avuto ragione.

La filosofia fondante di Google è che non sappiamo perché questa pagina è migliore di quellaltra: se le statistiche dei collegamenti ricevuti [incoming links] dicono così, va già bene. Nessun’analisi semantica o causale è richiesta. Ecco perché Google può tradurre le lingue senza realmente “conoscerle” (data un’uguale mole di dati, Google può tradurre facilmente Klingon in Farsi come può tradurre il francese in tedesco). E perché può abbinare gli annunci pubblicitari ai contenuti senza alcuna conoscenza o presupposizioni circa gli annunci o il contenuto.

Parlando alla Conferenza “Emerging Technology” di O’Really questo marzo passato, Peter Norvig, direttore di ricerca di Google, ha offerto un aggiornamento alla massima di George Box: “Tutti i modelli sono errati e sempre più potrete farne a meno [succeed without them]”.

Questo è un mondo in cui le quantità enormi di dati e di matematica applicata sostituiscono ogni altro attrezzo che potrebbe essere applicato. Supplendo a ogni teoria di comportamento umano, dalla linguistica alla sociologia. Dimentica la tassonomia, l’ontologia e la psicologia. Chi sa perché le persone fanno le cose che fanno? Il punto è le fanno, e possiamo seguirli e misurare tutto con una fedeltà senza precedenti. Con abbastanza dati, i numeri parlano da soli.

Tuttavia, il grande obiettivo qui non è la pubblicità. È la scienza. Il metodo scientifico è costruito intorno alle ipotesi verificabili. Questi modelli, per la maggior parte, sono sistemi visualizzati nelle menti degli scienziati. I modelli allora quindi testati e gli esperimenti confermano o falsificano i modelli teorici di come il mondo funziona. Ciò è il modo in cui la scienza ha funzionato per centinaia di anni.

Gli scienziati sono formati per riconoscere che una correlazione non è una causa, che nessuna conclusione dovrebbe essere tratta semplicemente sulla base di una correlazione fra X e Y (potrebbe essere una semplice coincidenza). Invece, devono essere compresi i meccanismi soggiacenti in grado di collegare i due fenomeni. Una volta che avete un modello, potete con una certa fiducia collegare gli insiemi di dati. I dati senza un modello sono soltanto rumore.

Ma dovendo affrontare enormi quantità di dati, questo tipo di approccio scientifico – supposizione ipotetica, modello, test – sta diventando obsoleto. Consideriamo la fisica: i modelli newtoniani erano approssimazioni grossolane della verità (errati al livello atomico, ma ancora utili). Cento anni fa, la meccanica quantistica su base statistica ha offerto una immagine molto migliore – ma la meccanica quantistica è un altro modello e, pur essendo difettoso, è senza dubbio una rappresentazione [caricature] di una realtà di fondo più complessa. La ragione per cui la fisica è andata ricercando nella speculazione teorica grandi modelli n-dimensionali unificati durante le ultime decadi (“la bella storia” di una disciplina affamata di dati) è che non sappiamo fare gli esperimenti che falsificherebbero le ipotesi – le energie sono troppo alte, gli acceleratori troppo costosi, ecc.

Ora la biologia sta puntando nella stessa direzione. I modelli che ci hanno insegnato a scuola riguardo i caratteri “dominanti” e “recessivi” dei geni, che ci conducono verso un processo rigorosamente mendeliano, sono risultato essere una semplificazione ancora maggior della realtà che le leggi del Newton. La scoperta delle interazioni geni-proteine e di altre funzioni della epigenetica ha sfidato la visione del DNA come destino e perfino introdotta la prova che l’ambiente può influenzare le caratteristiche ereditarie, il che era considerato geneticamente impossibile.

In breve, più comprendiamo la biologia, più ritroviamo (interpretiamo) noi stessi da un modello in grado di spiegarla.

Ora esiste un modo migliore. I Petabytes ci permettono di dire: “La correlazione è abbastanza.” Possiamo smettere di cercare nuovi modelli. Possiamo analizzare i dati senza ipotesi circa cosa potrebbero mostrare. Possiamo gettare i numeri nei più centri di calcolo il mondo abbia mai veduto e lasciare che le procedure statistiche trovino i modelli in cui la scienza non può trovare.

Il migliore esempio pratico di questo è il sequenziamento “shotgun” del genoma di J. Craig Venter. Aiutato da sequenziatori a alta velocità e da supercomputer che analizzano statisticamente i dati che redigono, Venter è passato dal sequenziare organismi individuali ad ordinare gli interi ecosistemi. In 2003, ha cominciato a sequenziare gran parte dell’oceano, ritracciando il viaggio del capitano Cook. E in 2005 ha cominciato a sequenziare l’aria. Nel processo, ha scoperto migliaia di specie precedentemente sconosciute di batteri e di altre forme di vita.

Se le parole “scoprire una nuova specie” vi riportano alla mente Darwin e illustrazioni di uccelli, forse siete bloccati nel vecchio senso di fare scienza. Venter può non dirvi quasi niente circa le specie che ha trovato. Non sa a che cosa assomigliano, come vivono, o qual è la loro morfologia. Non ha Neppure il loro intero genoma. Tutto che ha è un segnale di ritorno [blip] statistico – una sequenza unica che, essendo diverso da ogni altra sequenza nel database, deve per forza di cose rappresentare una nuova specie.

Questa sequenza può correlarsi con altre sequenze che assomigliano a quelle delle specie che conosciamo meglio. In quel caso, Venter può fare alcune congetture circa gli animali – ad esempio il fatto che convertano la luce solare in energia in un modo particolare, o che discendono da un antenato comune. Ma oltre a quello, non ha migliore modello di questa specie di quello che Google ha della vostra pagina di MySpace. Sono soltanto dati. Ma analizzandoli con risorse computazionali di qualità-Google, Venter ha fatto avanzare la biologia più di chiunque altro della sua generazione.

Questo genere di pensiero è sul punto di diventare mainstream. In febbraio, il National Science Foundation ha annunciato il Cluster Exploratory, un programma che finanzia ricerca destinata a “girare” su una piattaforma di computazione distribuita a grande scala, sviluppata da Google e IBM insieme con sei università pilota. Il cluster consisterà di 1.600 processori, parecchi Terabyte di memoria e centinaia di Terabyte di archivio, insieme al software, dove saranno compresi Tivoli dell’IBM e versioni opensource del Google File System e MapReduce. I primi progetti di ricerca prevedono simulazioni del cervello e del sistema nervoso e altre ricerca biologiche che si pongono da qualche parte tra il wetware (gli umani) e il software.

Imparare a usare un “calcolatore” di questa scala può essere una sfida. Ma l’occasione è grande: la nuova disponibilità dei gran quantità dei dati, con gli attrezzi statistici per sgranocchiare questi numeri, offre un intero nuovo modo di comprendere il mondo. La correlazione sostituisce la causa e la scienza può avanzare anche senza modelli coerenti, teorie unificate, o senza avere realmente nessuna alcuna spiegazione meccanicistica.

Non c’è motivo di aderire ai nostri vecchi metodi. È tempo di chiedere: che cosa può imparare la scienza da Google?