Archivi categoria: Filosofia

Inverosimile come la realtà

Ci sarebbe da delineare la differenza tra immaginazione e fantasia, prima di andare avanti a scrivere cose taglienti come un coltello per il burro che però ciurla nel manico, e il manico sarebbe questo blog.
Wikipedia non aiuta, [fantasia] rimanda a [Fantasia_(filosofia)] la quale altro non è che la voce [immaginazione] con un altro titolo, e qui si trovano un po’ di solite cosette filosofiche, trattate con leggerezza. 
Ma io volevo parlare dell’oramai proverbiale frase “la realtà supera l’immaginazione”, che ricorrendo alla nota diatriba “è la Natura che imita l’Arte, o viceversa?” può essere in buona misura ridimensionata sottolineando che la realtà se ne frega di essere verosimile.
Infatti, quando un bimbo di 4 anni inventa una storia per nascondere una marachella o un omicida di qualunque età inventa una storia per nascondere una maraca (che immagino essere il non-vezzeggiativo di marachella), cercherà comunque di tessere una trama verosimile, perché ne va di mezzo la credibilità. 
Questo mi porterebbe a indagare la correlazione tra verosomiglianza e credibilità, e quindi a discettare di universi di discorso, attese del lettore, orizzonti di senso, contesti narrativi, disgiunzioni isotopiche e enciclopedie echiane, sociologie della ricezione, dell’interpretazione come negoziazione tra i parlanti, ma in questo momento ho in mente solo il panino speck e stracchino che sto mangiando.
Il fatto è che quando raccontiamo una storia, o ci immaginiamo qualcosa che possa accadere o essere accaduto, cerchiamo di essere verosimili. Pensiamo già da dentro un’orizzonte di verosomiglianza, ci diamo delle regole e siamo creativi dentro le regole del vero. Che poi non è vero per niente, essendo pur sempre una storia che ci raccontiamo a noi stessi. 
Roba vecchia, eh, ci pensò quello scettico insuperabile di Cartesio col suo dubbio radicale quattrocento anni fa a stabilire che noi possiamo avere certezza di quello che pensiamo, ma nessuna verità di come il mondo là fuori sia messo.
Poi arriva la Natura che ci mostra un ornitorinco, e la reazione fu è incredibile, perché è inverosimile che un’animale faccia le uova e allatti i piccoli eccetera eccetera. 
Ahimè, la Natura, la Realtà se ne sbatte altamente le chiappe con una zampa palmata di ornitorinco femmina della nostra incredulità. 
La realtà non ha bisogno di essere verosimile, tutto qui. 
Il verosimile è cosa umana, la realtà no, ahah. Evviva gli universi del discorso. “Realtà” e “verosimiglianza” abitano in posti diversi, sia fuori di noi sia dentro i linguaggi che usiamo. E cerchiamo di uscire da questi angusti pensieri antropocentrici, suvvia.
Prendiamo spunto dalla cronaca, invece, per allargare il nostro concetto di realtà possibile.
Dice Metilparaben: “Per un attimo ho avuto la tentazione di fare un altro generatore automatico, ma l’idea del capo del Consiglio superiore dei lavori pubblici arrestato per corruzione nell’ambito di un’inchiesta sul G8 che organizza incontri omosessuali occasionali avvalendosi della collaborazione di un nigeriano appartenente al coro San Pietro è praticamente inarrivabile anche adoperando tutta la fantasia possibile.
Mi sa che per questa volta passo.”

A inventarla, ti direbbero non è credibile, è inverosimile. E invece.
Essì, è proprio bella la realtà quando ti fa inciampare, e sbatti il ginocchio contro la credenza.

Quell’idiota mi ha colpito

Su Facebook migliaia di cretinetti all’ora cliccano per diventare fan di pagine inneggianti a quel problematico che ha colpito berlusconi.
E’ realtà, mi chiedo ancora, quella dentro Facebook? Come fare la tara di protagonismi, emulatori, giocherelloni, menti leggere, obnubilati facinorosi, dinamiche di gruppo? Qual è l’effetto di realtà che a ricaduta questo evento mediatico suscita, per come viene ripreso su altri socialcosi e sulle televisioni, sui giornali? Conferma o sconferma? Quanto puoi usare queste informazioni per costruire una tua strategia del dire, a supporto di una tua tesi?

A caldo, leggo due post che si interrogano sul valore di quelle immagini, sulla loro capacità di veicolare effetti di realtà, nel mondo delle apparenze mediatiche. Matteo Pelliti e Giovanni Polimeni.
Si parla di svelamento in senso filosofico, si parla di autenticità del dolore su una maschera, e si tratta di interrogativi che ci siamo sempre posti, i quali nell’epoca della rappresentazione simbolica dei massmedia si moltiplicano come immagini tra specchi che si riflettono.
E berlusconi è persona abituata a costruire fiction, cresciuto nella cultura dell’apparenza, dalle tecniche di vendita alle messinscene politiche, dal romanzo della sua vita ai lifting ai teatrini della personalità.

Ma quella faccia insanguinata non mi sembra più maschera, quel dolore non è fiction. Capitava nei romanzi e nelle opere teatrali russe o nordiche di fine Ottocento, di sicuro in Cechov o Strindberg o Ibsen, che d’un tratto un fatto necessario, un accadimento, uno sguardo autentico d’un personaggio incrinasse irreparabilmente le credenze esistenziali del protagonista, ne minasse radicalmente i convincimenti, facesse crollare improvvisamente i castelli di parole su cui tutti noi costruiamo noi stessi. Squarci di realtà, imprevisti e imprevedibili, fratture profonde del senso.

Credo berlusconi dovrà intimamente fare i conti con questa realtà, prima o poi. Sempre più gli arrivano addosso (la moglie, le imputazioni, ora le ferite fisiche) fatti che non possono essere giocati dentro cornici finzionali, dentro narrazioni dove da gran regista può modificare a piacimento il punto di vista del lettore, le quinte degli scenari, l’interpretazione che intende veicolare sugli eventi. E per contrappasso dantesco a lui re egomaniaco dell’apparenza gli arriva addosso proprio un simulacro, un simbolo commerciale di quella Milano che lo ha visto nascere come personaggio pubblico, tiratogli da un poveretto le cui prime parole sono state “io non sono nessuno”. Sono quelle che chiami beffe del destino, e dovrebbero far riflettere.

Sempre che le classiche modificazioni gerontologiche della personalità non abbiano solidificato completamente il delirio narcisistico, fissando e rendendo inattaccabile la sua identità costruita perfino a segni evidenti di mancata sintonizzazione col mondo.
Nel qual caso, prepariamoci ancora una volta a vedere quali strategie retoriche, quali universi di discorso, quali frame di narrazione dovranno essere allestiti per rendere plausibile il racconto della lesa maestà. Possano quel dolore e quello sbigottimento sul suo viso insegnargli qualcosa.

Alix

Cosa volete mai che Alice scopra al di là dello specchio? La Matrice, ovvio (a pensarci dopo averlo visto). Oh, qual squisito mash-up letterario. In fondo, un centone. Blob, è un altro sinonimo. Ma non confondiamo il titolo dell’opera con il tipo di opera, se non nei casi di vampirizzazione. Anche il titolo può essere parte del lavoro di rimescolamento, in effetti, e non solo essere appiccicato in seguito. Beh, però di quest’opera un titolo non c’è, non lo trovo sulle fonti – io l’ho trovata da Phonkmeister. Through the Looking-Glass, and What Alice Found There, come il titolo originale, o “Squarciare il velo di Maya”, van tutti bene. E se fossimo tutti chiamati a contribuir all’opra, intitolandola per come ci racconta? Che vita, eh? In fondo il cucchiaio non esiste, il problema è chiamarlo cucchiaio… ve lo dice un nominalista di mille anni fa come sono io, o se vi piace Protagora tuffatevi negli abissi. Misuro quel che non è, perché non sono. Sono il mio non-essere la matrice, ma neanche la facoltà del Senso. Poi per alcuni proprio questo potrebbe già essere un problema, perché “l’uomo non è il centro della vita, la misura delle cose, ma è totalmente e soltanto parte della natura“. Tanto, la vera Matrix non può essere detta. E purtuttavia mi tocca metterci un nome, maledetta nominatio rerum. E quella che può essere detta non è la vera Matrice, maledetto Tao. Anche se dico “la trama del caos” non cambia niente, se non che al mondo esiste un’affermazione in più, un suono in più che muove molecole d’aria secondo una forma, quindi il mondo è cambiato.

Per l’appunto gangherologico, l’interfaccia è lo specchio, sappiamo. Che non è un segno, a quanto pare. Conoscenza irriflessa.
Io la chiamo Alix, ‘sta tipa. Eh, che sintesi.

Petabyte Age e metodo scientifico

Ne parlò Luca DeBiase un paio di settimane fa, poi Sergio Maistrello ne diede anch’egli indicazione, approfondendone qualche aspetto.
Poi recentemente Bonaria Biancu me lo segnalò come qualcosa che avrebbe potuto interessarmi, e infatti così fu.
Qui finisce la parte con i passati remoti.
Sto parlando di un articolo di Chris Anderson (qui trovate l’originale) dedicato alle nuove metodologie di ricerca scientifica rese possibili dai supercomputer e dagli algoritmi di data-mining e map-reducing di Google, dove sostanzialmente si dice che non è più necessario, secondo il vecchio modello di indagine scientifica, porre inizialmente un’ipotesi sul funzionamento di qualcosa ed in seguito procedere con le verifiche per saggiarne l’attendibilità.

Sia ben chiaro, da molto tempo l’epistemologia ha chiarito che le “spiegazioni scientifiche” non sono altro che “verità locali” utili per spiegare un fenomeno, tant’è che ci son state situazioni storiche in cui tutto l’insieme delle credenze, ovvero lo sfondo/contesto su cui le affermazioni acquistano senso, è stato messo a soqquadro da qualche innovazione concettuale o tecnologica oppure concettuale indotta dalle scoperte che la tecnologia, come protesi dell’occhio e della mano quindi tecnologia dell’intelligenza, ha reso possibili.
Per dire, nessuno scienziato serio afferma oggi che l’acqua bolle a cento gradi.
Per dire, il problema non è il fatto che l’acqua bolle a cento gradi, quanto la fiducia cieca di certi scienziati arroganti nell’affermare che questo fenomeno è sempre accaduto e sempra accadrà e quindi corrisponde a una “verità” universale assoluta.
Come per il teorema di Pitagora, basato sui postulati di Euclide: qualcuno a metà Ottocento si è accorto che Pitagora non funzionava se il triangolo è disegnato su una sfera, e tutto questo ha portato rapidamente alla formulazione di geometrie non-euclidee e alla crisi dei fondamenti matematici, costringendo la scienza ad ammettere che tutte le credenze precedentemente possedute altro non erano che una verità locale, un caso particolare (quel luogo della mente dove la somma degli angoli interni di un triangolo è 180°) di una realtà/pensiero molto più complesso.
Le affermazioni scientifiche scommettono sui principi e sui modi di funzionamento dei fenomeni naturali, e epistemologia moderna esige che gli scienziati siano criticamente consapevoli della portata euristica limitata del loro affermare, tutto qui. Pensiero debole. “Per quanto ne sappiamo, funziona così”: questa è una frase scientifica corretta.
Tra l’altro un grandissimo del’epistemologia del Novecento, Thomas Kuhn, ha mostrato come le rivoluzioni scientifiche avvengano per rottura – non semplice allargamento/superamento – dei paradigmi concettuali, in quei momenti storici in cui una intera visione-del-mondo (l’insieme delle credenze sul com’è è fatto il mondo e come funziona, le categorie stesse della sua pensabilità) deve essere smantellata e ricostruita alla luce di nuovi atteggiamenti metodologici, spesso indotti dalle stesse nuove scoperte che più progredite tecnologie hanno reso disponibili.
E qui torniamo (sorry, ma la filosofia della scienza e del linguaggio sono vecchie passioni) all’articolo di Anderson su come il nostro vivere nell’era dei Petabyte condizionerà e forse modificherà radicalmente il modo di fare scienza. In sostanza, mi sembra si affermi che la triade ipotesi-modello-esperimento sia in realtà figlia di un’epoca in cui non era nemmeno pensabile il prendere in considerazione masse sterminate di dati, di gran lunga superiori alle capacità di elaborazione cognitiva umana, per la mancanza di una tecnologia (gli algoritmi di ricerca di Google e i supercomputer) in grado di trarre correlazioni statistiche significative.
Quindi gli scienziati degli ultimi quattrocento anni, prigionieri inconsapevoli del loro paradigma concettuale, hanno elaborato e utilizzato il metodo scientifico (che il Novecento ha sottoposto a vaglio critico con l’epistemologia) quale unica possibilità di incrementare la conoscenza “certa”. Non c’era altro modo, il pensiero non aveva altre possibilità metodologiche di afferrare qualcosa della cosiddetta realtà. Il concetto di causa-effetto poi, profondamente radicato in noi nonostante critiche filosofiche millenarie, portava sempre guardacaso a pensare situazioni sperimentali vincolate all’elaborazione di ipotesi che poi potessero essere saggiate nei test di laboratorio. Da come scrivo, mi sembra chiaro che si stia sfiorando la tautologia, perché l’impostazione stessa dell’esperimento era sempre frutto di un pensiero “interno” ad una rappresentazione concettuale predefinita (nella mente del ricercatore, nella sua visionedelmondo), dove certe ipotesi potevano nascere ed altre no.
Se potevo porre un’ipotesi, mi stavo comunque muovendo all’interno del noto, o comunque lì vicino (vedi abduzione, di quell’altro grandissimo che è Peirce), perché non è umano indagare l’ignoto partendo da ciò che non so.
Anderson invece ci mostra come recenti progressi scientifici siano stati compiuti ignorando completamente il significato e la struttura di ciò che si andava indagando. Anzi, questo fatto di non porre a priori ipotesi interpretative è tra l’altro di squisita di metodologia semiotica, laddove buona narratologia invita a sospendere le domande sul senso di un testo, per prendere in considerazione le componenti morfologiche e sintattiche prima ancora di quelle semantiche.
Poter setacciare enormi masse di dati (ma avete presente un petabyte?) alla ricerca di correlazioni statistiche significative, indipendentemente dal contenuto che questi dati veicolano, vuol dire far emergere configurazioni di senso da sistemi complessi senza che ciò che emerge sia condizionato dal tipo di interrogazione che faccio, dall’ipotesi euristica che cerco di indagare, dallo sguardo con cui accolgo i fenomeni, dando così necessariamente loro un nome prima ancora di sapere di cosa si tratti, rendendoli eloquenti soltanto per come sono capace di leggerli (mi sovviene Lombroso, in qualche modo, e l’attribuire tratti caratteriali sulla base di conformazioni craniche)

Con una vecchia battuta, sappiamo che il senso di una domanda è la direzione in cui cercare la risposta, perché la domanda (la forma della domanda) orienta la risposta, suscita uno sguardo specifico a scapito di tutto quello che rimane fuori dal pensiero interrogante; se invece l’indagine la compie qualcosa di inumano, possono emergere aspetti della realtà che per definizione noi umani al momento non possiamo cogliere, visto che per conoscere dobbiam fare domande, e per fare domande ci costruiamo un modello a partire dalle nostre pre-comprensioni e insomma non possiamo uscire da noi stessi. Tutto qui: qualcuno è in ansia? Cosa può imparare la scienza da Google?

E allora, ho tradotto l’articolo di Anderson, aiutandomi con GoogleTranslate, ma non veniva bene, poi con BabelFish (yes, 42) l’ho un po’ sistemato, e lo metto qui.

LA FINE DELLA TEORIA
Il profluvio di dati renderà il metodo scientifico obsoleto?
di Chris Anderson

“Tutti i modelli sono errati, ma alcuni sono utili”

Così affermò George Box 30 anni fa, e aveva ragione. Ma che scelta avevamo? Soltanto i modelli, dalle equazioni cosmologiche alle teorie di comportamento umano, sembravano poter consistentemente, anche se imperfettamente, spiegare il mondo intorno noi. Finora. Oggi le aziende come Google, che si sono sviluppate in un’era di dati sovrabbondanti, non devono accontentarsi di modelli errati. Effettivamente, non devono affatto accontentarsi dei modelli.

Sessanta anni fa, gli elaboratori digitali hanno reso le informazioni leggibili. Venti anni fa, Internet le ha rese raggiungibili. Dieci anni fa, i primi crawlers dei motori di ricerca hanno reso [Internet] un’unico database. Ora Google e le aziende simili stanno setacciando l’epoca più “misurata” della storia umana, trattando questo corpus voluminoso come laboratorio della condizione umano. Sono i bambini dell’epoca del Petabyte (Petabyte Age).

L’epoca del Petabyte è differente perché il “di più” è differente. I kilobyte sono stati immagazzinati sui dischetti. I megabyte sono stati immagazzinati sui dischi rigidi. I terabyte sono stati immagazzinati nei disc-arrays. I Petabytes sono immagazzinati nella nuvola. Mentre ci siamo mossi lungo quella progressione, siamo passati dall’analogia della cartella (folder) all’analogia dell’archivio all’analogia delle biblioteche a – bene, con i petabyte siamo fuori dalle analogie organizzative.

Alla scala del petabyte, le informazioni non sono una questione di semplici tassonomie a tre e quattro dimensioni e ordini, ma di statistiche dimensionalmente non conoscibili. Richiedono un metodo interamente differente, che ci richiede di lasciar perdere l’idea di poter imbrigliare i dati come qualcosa che possa essere visualizzato nella relativa totalità. Ci costringe in primo luogo a osservare matematicamente i dati, e solo in seguito stabilire un contesto [per la loro interpretazione]. Per esempio, Google ha conquistato il mondo della pubblicità con nient’altro che matematica applicata. Non ha finto di conoscere qualcosa circa la cultura e le convenzioni della pubblicità – ha semplicemente supposto che avere migliori dati, con migliori attrezzi analitici, avrebbe condotto al successo. E Google ha avuto ragione.

La filosofia fondante di Google è che non sappiamo perché questa pagina è migliore di quellaltra: se le statistiche dei collegamenti ricevuti [incoming links] dicono così, va già bene. Nessun’analisi semantica o causale è richiesta. Ecco perché Google può tradurre le lingue senza realmente “conoscerle” (data un’uguale mole di dati, Google può tradurre facilmente Klingon in Farsi come può tradurre il francese in tedesco). E perché può abbinare gli annunci pubblicitari ai contenuti senza alcuna conoscenza o presupposizioni circa gli annunci o il contenuto.

Parlando alla Conferenza “Emerging Technology” di O’Really questo marzo passato, Peter Norvig, direttore di ricerca di Google, ha offerto un aggiornamento alla massima di George Box: “Tutti i modelli sono errati e sempre più potrete farne a meno [succeed without them]”.

Questo è un mondo in cui le quantità enormi di dati e di matematica applicata sostituiscono ogni altro attrezzo che potrebbe essere applicato. Supplendo a ogni teoria di comportamento umano, dalla linguistica alla sociologia. Dimentica la tassonomia, l’ontologia e la psicologia. Chi sa perché le persone fanno le cose che fanno? Il punto è le fanno, e possiamo seguirli e misurare tutto con una fedeltà senza precedenti. Con abbastanza dati, i numeri parlano da soli.

Tuttavia, il grande obiettivo qui non è la pubblicità. È la scienza. Il metodo scientifico è costruito intorno alle ipotesi verificabili. Questi modelli, per la maggior parte, sono sistemi visualizzati nelle menti degli scienziati. I modelli allora quindi testati e gli esperimenti confermano o falsificano i modelli teorici di come il mondo funziona. Ciò è il modo in cui la scienza ha funzionato per centinaia di anni.

Gli scienziati sono formati per riconoscere che una correlazione non è una causa, che nessuna conclusione dovrebbe essere tratta semplicemente sulla base di una correlazione fra X e Y (potrebbe essere una semplice coincidenza). Invece, devono essere compresi i meccanismi soggiacenti in grado di collegare i due fenomeni. Una volta che avete un modello, potete con una certa fiducia collegare gli insiemi di dati. I dati senza un modello sono soltanto rumore.

Ma dovendo affrontare enormi quantità di dati, questo tipo di approccio scientifico – supposizione ipotetica, modello, test – sta diventando obsoleto. Consideriamo la fisica: i modelli newtoniani erano approssimazioni grossolane della verità (errati al livello atomico, ma ancora utili). Cento anni fa, la meccanica quantistica su base statistica ha offerto una immagine molto migliore – ma la meccanica quantistica è un altro modello e, pur essendo difettoso, è senza dubbio una rappresentazione [caricature] di una realtà di fondo più complessa. La ragione per cui la fisica è andata ricercando nella speculazione teorica grandi modelli n-dimensionali unificati durante le ultime decadi (“la bella storia” di una disciplina affamata di dati) è che non sappiamo fare gli esperimenti che falsificherebbero le ipotesi – le energie sono troppo alte, gli acceleratori troppo costosi, ecc.

Ora la biologia sta puntando nella stessa direzione. I modelli che ci hanno insegnato a scuola riguardo i caratteri “dominanti” e “recessivi” dei geni, che ci conducono verso un processo rigorosamente mendeliano, sono risultato essere una semplificazione ancora maggior della realtà che le leggi del Newton. La scoperta delle interazioni geni-proteine e di altre funzioni della epigenetica ha sfidato la visione del DNA come destino e perfino introdotta la prova che l’ambiente può influenzare le caratteristiche ereditarie, il che era considerato geneticamente impossibile.

In breve, più comprendiamo la biologia, più ritroviamo (interpretiamo) noi stessi da un modello in grado di spiegarla.

Ora esiste un modo migliore. I Petabytes ci permettono di dire: “La correlazione è abbastanza.” Possiamo smettere di cercare nuovi modelli. Possiamo analizzare i dati senza ipotesi circa cosa potrebbero mostrare. Possiamo gettare i numeri nei più centri di calcolo il mondo abbia mai veduto e lasciare che le procedure statistiche trovino i modelli in cui la scienza non può trovare.

Il migliore esempio pratico di questo è il sequenziamento “shotgun” del genoma di J. Craig Venter. Aiutato da sequenziatori a alta velocità e da supercomputer che analizzano statisticamente i dati che redigono, Venter è passato dal sequenziare organismi individuali ad ordinare gli interi ecosistemi. In 2003, ha cominciato a sequenziare gran parte dell’oceano, ritracciando il viaggio del capitano Cook. E in 2005 ha cominciato a sequenziare l’aria. Nel processo, ha scoperto migliaia di specie precedentemente sconosciute di batteri e di altre forme di vita.

Se le parole “scoprire una nuova specie” vi riportano alla mente Darwin e illustrazioni di uccelli, forse siete bloccati nel vecchio senso di fare scienza. Venter può non dirvi quasi niente circa le specie che ha trovato. Non sa a che cosa assomigliano, come vivono, o qual è la loro morfologia. Non ha Neppure il loro intero genoma. Tutto che ha è un segnale di ritorno [blip] statistico – una sequenza unica che, essendo diverso da ogni altra sequenza nel database, deve per forza di cose rappresentare una nuova specie.

Questa sequenza può correlarsi con altre sequenze che assomigliano a quelle delle specie che conosciamo meglio. In quel caso, Venter può fare alcune congetture circa gli animali – ad esempio il fatto che convertano la luce solare in energia in un modo particolare, o che discendono da un antenato comune. Ma oltre a quello, non ha migliore modello di questa specie di quello che Google ha della vostra pagina di MySpace. Sono soltanto dati. Ma analizzandoli con risorse computazionali di qualità-Google, Venter ha fatto avanzare la biologia più di chiunque altro della sua generazione.

Questo genere di pensiero è sul punto di diventare mainstream. In febbraio, il National Science Foundation ha annunciato il Cluster Exploratory, un programma che finanzia ricerca destinata a “girare” su una piattaforma di computazione distribuita a grande scala, sviluppata da Google e IBM insieme con sei università pilota. Il cluster consisterà di 1.600 processori, parecchi Terabyte di memoria e centinaia di Terabyte di archivio, insieme al software, dove saranno compresi Tivoli dell’IBM e versioni opensource del Google File System e MapReduce. I primi progetti di ricerca prevedono simulazioni del cervello e del sistema nervoso e altre ricerca biologiche che si pongono da qualche parte tra il wetware (gli umani) e il software.

Imparare a usare un “calcolatore” di questa scala può essere una sfida. Ma l’occasione è grande: la nuova disponibilità dei gran quantità dei dati, con gli attrezzi statistici per sgranocchiare questi numeri, offre un intero nuovo modo di comprendere il mondo. La correlazione sostituisce la causa e la scienza può avanzare anche senza modelli coerenti, teorie unificate, o senza avere realmente nessuna alcuna spiegazione meccanicistica.

Non c’è motivo di aderire ai nostri vecchi metodi. È tempo di chiedere: che cosa può imparare la scienza da Google?

Tecnologia e istruzione: una visione buddista

Luca Chittaro racconta l’incontro che il Dalai Lama ha avuto con gli studenti di Udine.
Interpellato sulla tecnologia e l’istruzione, quest’ultimo dice:

Grazie alla tecnologia, viviamo in un mondo sempre piu’ interconnesso. Dobbiamo riflettere sugli effetti di ogni nostra azione su tutti e su tutto il mondo perche’ siamo sempre piu’ interdipendenti. La globalizzazione ci richiede di introdurre il concetto di “responsabilita’ globale”. Dobbiamo puntare al benessere globale, sentirci come genere umano parte di una cosa sola. Non essere compassionevoli solo in cambio di una gratificazione di nostri piccoli desideri. Il raggiungimento del benessere deve passare attraverso l’azione, non solo preghiera, speranza e aspettative. Dobbiamo conoscere la realta’, avere una “visione realistica della realta’” e l’istruzione e’ il fattore chiave per raggiungere questo obbiettivo. Quando come studenti avrete terminato l’universita’ e vi troverete a risolvere problemi, abbiate una visione piu’ panoramica possibile, cioe’ olistica, della realta’; non focalizzatevi solo su singoli aspetti specifici.
Istruzione e tecnologia in se’ non hanno un valore ne’ negativo ne’ positivo. Cio’ che ne determina il valore e’ lo stato mentale di chi le applica.

Tracciare la vita

Sappiamo esistere da tempo la possibilità di inserire dei microcongegni elettronici negli oggetti che ci circondano, in modo da comunicare con questi via radiofrequenza.

Ogni oggetto potrebbe raccontare immediatamente la sua identità e la sua storia, dove è stato prodotto, che viaggio ha fatto per arrivare davanti a noi, e un mucchio di altre cose (i problemi sulla privacy sono dietro l’angolo, sì).

Immaginiamo di poter sapere istantaneamente la marca di vestiti più indossata dal pubblico della Scala o del concerto di Vasco Rossi, oppure di conoscere in tempo reale l’esatta disponibilità di merci in un magazzino; proviamo a pensare ad una situazione quotidiana, come al supermercato, dove sarebbe sufficiente passare con il carrello pieno davanti alla cassa, per avere immediatamente il conto della spesa esatto, visto che il detersivo e le brioche sono provvisti di RFID, ovvero di un “identificatore in radiofrequenza”

Bruce Sterling, noto ai più per la sua attività di scrittore cyberpunk negli anni ’80, sta cercando di intrecciare le possibilità offerte dalla RFID con altre tecnologie emergenti relative sia al processo di produzione dell’oggetto/bene di consumo, sia alla sua identificazione e geolocalizzazione.

In particolare, poter tracciare un oggetto con tecnologie GPS Global Positiong System o il poter usare i motori di ricerca per trovare indizi della vita dell’oggetto, porta al concetto di SPIME enunciato dallo stesso Sterling, per definire quell’oggetto ancora teorico che può essere tracciato appunto nel tempo e nello spazio nel corso del suo intero ciclo di vita.

Immaginate di chiedere a Google dove sono le vostre scarpe da ginnastica, e sentirvi rispondere “Le tue scarpe da ginnastica sono sotto il letto”

Spime – Wikipedia, the free encyclopedia