Archivi categoria: Interfacce

Quest’interfaccia non mi è nuova

Ne parlava anche Pierre Lévy, ma la suggestione arriva da più lontano. Noi siamo interfacce, parti del nostro corpo sono delle interfacce, come gli occhi e il naso e i sensi, ma anche come i polmoni, la pelle. Anche le stazioni e gli aeroporti sono interfacce, in scala socioterritoriale. Ma per restare sull’individuo, anche gli organi genitali sono interfacce. Tutte cose che trasportano traducono connettono, e in quanto in tal modo o tal altro conformate contribuiscono a dare senso alla relazione (interumana, o uomo-macchina) che veicolano, lasciano tracce di “semantica naturale” nella semiosi che poi innescano, nell’interpretazione degli eventi.
Stazioni ferroviarie architettonicamente differenti organizzano diversamente i flussi di socialità al proprio interno, e fondano esperienze-utente affettivamente e cognitivamente differenti, nella relazione con gli altri e con il mondo.
L’usabilità di un software può decretarne il successo, molto più della sua effettiva efficacia come strumento per produrre/distribuire documentazione o operatività; il merito è di chi ha disegnato l’interfaccia grafica.
La conformazione fisica dei nostri organi sessuali ha portato molte culture a fondare dicotomie assiologiche forti tra penetrazione/ricezione, attivo/passivo.

Eppoi, come dire, ciascuno di noi conosce bene la propria interfaccia gonadica, ci giochicchiamo da sempre. Vi è dimestichezza, comodità psicologica all’interazione, feedback. La mia mano conosce il mio pisello, lo ammetto. E tu donna che leggi, la tua mano conosce la tua patata, è indubbio.

Andate a vedere il video qui, da MailofDay, poi tornate.

Ecco quindi che il joystick dei videogiochi assume decisamente forma fallica, e ne replica le modalità d’interazione classica, ovvero andare su e giù con la manina.
La curva di apprendimento è un concetto obsoleto, nessuno può dire di trovare ostica l’interfaccia.
Immagino si possa realizzare anche la versione “patata”.

Horse Latitude

Come già l’altr’anno, oggi sono andato a Pordenone nel liceo dove insegna Pier e lui assente (saluto i prof che erano presenti, Alessandro e Enrico) ho tenuto la mia lectio magistralis sul Senso della Cultura Tecnologica moderna e dell’Abitare sociodigitale, secondo approccio gangherologico. Dilagando per quasi tutte le due ore, e studenti e studentesse che eravate presenti commentate pure questo post, o qualunque altro, per farmi domande relative o no.
Sono andato anche a mangiare pastalpesto e due fritole a casa di Sergio, quindi non sono nemmeno uscito dalla modalità “digital world” che avevo settato mentalmente per fare lezione nella mattinata e ho continuato per due ore a chiacchierare amabilmente in gergo da webaddicted.

In realtà, questo post era per prendere appunti.
Qui Gigi Cogo racconta delle dinamiche del web 2.0 a supporto dei servizi di eGovernment, e riesce a illustrare il farsi strada dei nuovi approcci comunicativi, delle nuove necessarie posture conversazionali nella cultura di gruppo delle Pubbliche Amministrazioni.

Carlo Infante su PerformingMedia espone e suggestionea incastrando bene le pratiche di Rete, di multimedialità e di territorio dentro i nuovi scenari che geoblogging e media locativi rendono visibili e vivibili – “scrivere storie nelle geografie”. Carlo andrebbe con la forza costretto a produrre idee relative a possibili applicazioni ev’ryday-life delle tecnologie georeferenziali, a inventarsi situazioni e messe in scena di comportamenti umani interfacciati.

Sergio Maistrello mette giù un sacco di idee sulle nuove dinamiche del giornalismo più o meno web e sul problema della disintermediazione della comunicazione istituzionale, partendo dalla riorganizzazione profonda dei modi di interpellazione dell’interlocutore e dei contenuti espressi dai siti governativi americani in seguito all’elezione di Obama.

Poi avevo messo da parte una serie di link su argomenti tipo “tracciabilità”, ovvero indicazioni su argomenti che riuscissero a mostrare qualcosa di robe come mappature di comunità (indifferentemente su terra, web o supporti mobili), borghi digitali, webcittadinanza, utilizzo di cellulari come sensori (ne parlavo qui), anzi i cittadini stessi sono i sensori, ma si può mettere dei rilevatori anche sui piccioni e farli comunicare in tempo reale su wifi cittadino le condizioni ambientali (quota di anidride carbonica, per esempio) dei quartieri. Trovate tutto qui, da Vodaphone.

La Nokia non sta ferma, figuriamoci, e come sappiamo dopo Nokia Sensors per rilevamenti ambientali (cerchiamo di fornire contesto al nostro dire, mettiamo dentro il messaggio il più possibile della situazione enunciativa) lancia MyMobile, che però è un webserver da mettere dentro il nostro telefonino, così possiamo arrivarci dentro via web, navigando. Ma siccome sul telefono è possibile mantenere ad esempio gallerie fotografiche pubbliche di foto nostre originali, oppure fare un blog (sì, dentro il cellulare) o condividere un calendario, ecco che abbiamo per le mani un modo nuovo di “darsi” degli individui dentro la rete, innescando community (frequentazioni, partecipazioni, appartenenze) basate sulle reti cellulari.
Esistono anche le community geograficamente strettissime, ad esempio quelle basate sullo scambio bluetooth tra i cellulari, così quando entrate in discoteca o in pizzeria avete già sul visore del telefono la mappa situazionale dei personaggi presenti, con i loro profili, e strumenti di interazione. Esempio di queste tecnologie sono Mobiluck e Crowdsurfer, e anche i cellulari social sono cosa che già abita il presente, anche se al momento servono a cuccare in modo creativo.

Ancora tre link: urban-atmospheres.net locative-media.orge urban-atmospheres.net
per ragionare sempre di nuove forme di abitanza digitale, interessanti. La locuzione “media locativi” non mi sembra male, peraltro.

Chiaramente, mentre sto per chiudere il post arriva Google (ne parlano qui) con il suo nuovissimo GoogleLatitude, che appunto è un marcatore social di presenza basato su Google Maps. Scaricate il nuovo GMaps 3.0 per cellulari, lui rileva la vostra posizione sul pianeta via GPS o sui wifi o sulle reti cellulari, e la riporta sulle mappe satellitari. Poi spedite l’invito ai vostri contatti gmail, quelli che volete, e anche loro se accettano compariranno come avatar sulla mappa geografica, simboleggiando la loro posizione (la quale può essere anche mentita, impostando una posizione manualmente). La mappa poi la vedete sul cellulare o anche via web (non italia ancora), come widget dentro la iGoogle.

Se per districarvi tra tutte queste indicazioni e suggestioni vi serve una mappa mentale, traggo da qui alcune indicazioni di Buzan in persona su come impostare i nodi di primo livello.

Here are some additional tips from Buzan on the types of words that tend to make effective basic ordering ideas:

  • Divisions: chapters, lessons or themes
  • Properties: characteristics of things
  • History: a chronological sequence of events
  • Structure: how things are formed or arranged
  • Function: what things do
  • Process: how things work
  • Evaluation: how good, beneficial or worthwhile things are
  • Classification: how things are related to each other
  • Definitions: what things mean
  • Personalities: what roles or characters people have

Spicciolame

Pasteris dice che

CriticalCity ha vinto i Kublai Awards 2009
CriticalCity è una piattaforma di riqualificazione urbana ludica e partecipata. E’ un progetto innovativo per mettere al centro i cittadini e trasformarli in motore attivo della trasformazione sociale, culturale e fisica del territorio urbano. Molti cittadini non sono soddisfatti della condizione della propria città, molti la vivono a fatica, la subiscono ma non sanno da dove cominciare, non hanno a disposizione uno strumento semplice per poter agire direttamente sulla propria città e fare qualcosa – anche di piccolo – per cambiarla, per renderla più vivibile, migliore. CriticalCity risponde al bisogno di potersi impegnare per la propria città e pensa che il modo più efficace per riuscire in questo sia di trasformare questa attività in un gioco.

Mi sono iscritto come Solstizio, dalle mie parti non c’è nessuno, proverò a capire come funzia.

Poi c’è questo brano di McLuhan del 1963, pubblicato da repubblica.it e arrivatomi via ValterBinaghi. C’è tutta una critica iniziale, sulla natura depauperante delle tecnologie di connettività – il sistema nervoso extracorporeo, nato con il telegrafo. Poi distingue

“… La nuova tecnologia elettronica, però, non è un sistema chiuso. In quanto estensione del sistema nervoso centrale, essa ha a che fare proprio con la consapevolezza, con l’ interazione e con il dialogo.”

E qui McLuhan, diciamolo, è eccezionale per la lucidità con cui riesce a rendere pertinenti le peculiarità dei new media dei suoi tempi (frutto di precise innovazioni tecnologiche) rispetto alle considerazioni sul funzionamento delle collettività umane. Con una visione moderna, di sistema e di processo – anche se ci sento dentro una figuratività metaforica un po’ ottocentescamente organicista o hegeliana, mah – riesce a cogliere l’emergere della consapevolezza collettiva nei sistemi mediatici planetari, proprio come un sistema nervoso sufficientemente complicato ad un certo punto sviluppa forme di coscienza, come strumento per meglio gestire quella complicatezza che ormai si può chiamare complessità. Si giunge all’autocoscienza, anche per il fatto che le tecnologie fulcro del cambiamento sociale attuale sono proprio le tecnologie della comunicazione e dell’informazione.

“Nell’era elettronica, la stessa natura istantanea della coesistenza tra i nostri strumenti tecnologici ha dato luogo a una crisi del tutto inedita nella storia umana. Ormai le nostre facoltà e i nostri sensi estesi costituiscono un unico campo di esperienza e ciò richiede che essi divengano collettivamente coscienti, come il sistema nervoso centrale stesso.”

Sta parlando di internet, è chiaro. Considerando evolutivamente il sistema televisivo come sviluppo degli organi di senso del corpo sociale (e negli Stati Uniti dei primi sessanta c’era già un sistema rediotelevisivo paragonabile all’italia degli anni Ottanta, per varietà di voci e capillarità), ad un certo punto si arriverà alla nascita di un sistema nervoso centrale, un Luogo di elaborazione dei flussi informativi, e si tratta di un Luogo sociale. Sul problema della scrittura e dell’oralità potremmo confrontarci con letteratura più recente, ma porre l’accento sui gruppi in relazione ai media è mossa notevolissima.
“La scrittura, in quanto tecnologia visiva, ha dissolto la magia tribale ponendo l’accento sulla frammentazione e sulla specializzazione, e ha creato l’ individuo. D’ altra parte, i media elettronici sono forme di gruppo.”

“Siamo diventati come l’ uomo paleolitico più primitivo, di nuovo vagabondi globali; ma siamo ormai raccoglitori di informazioni piuttosto che di cibo. D’ ora in poi la fonte di cibo, di ricchezza e della vita stessa sarà l’ informazione.”

“Quando nuove tecnologie si impongono in società da tempo abituate a tecnologie più antiche, nascono ansie di ogni genere. Il nostro mondo elettronico necessita ormai di un campo unificato di consapevolezza globale; la coscienza privata, adatta all’uomo dell’era della stampa, può considerarsi come un cappio insopportabile rispetto alla coscienza collettiva richiesta dal flusso elettronico di informazioni. In questa impasse, l’unica risposta adeguata sembrerebbe essere la sospensione di tutti i riflessi condizionati.
Penso che, in tutti i media, gli artisti rispondano prima di ogni altro alle sfide imposte da nuove pressioni. Vorrei che ci mostrassero anche dei modi per vivere con la nuova tecnologia senza distruggere le forme e le conquiste precedenti. D’altronde, i nuovi media non sono giocattoli e non dovrebbero essere messi nelle mani di Mamma Oca o di Peter Pan. Possono essere affidati solo a nuovi artisti.”

Qui credo emerga un problema. Noi non conosciamo le potenzialità della nostra coscienza, nella sua abilità di coordinare flussi informativi, di farci restare attenti rispetto all’umwelt, come fossimo scimmie che in una foresta cercano sempre il profilo della tigre tra le foglie. Per il nostro essere animali, questa è facoltà necessaria per la sopravvivivenza (al punto che uno che legge il giornale in autobus è visto con un po’ di riprovazione, diceva Goffman, perché non può svolgere la funzione sociale di “sorvegliante” della situazione), e la coscienza come meccanismo serve anche a questo. En passant, sia chiaro che la coscienza per come ce la raccontano Hofstadter e Dennett può essere anche caratteristica di un formicaio, se non delle singole formiche, in relazione ai comportamenti adottati, quindi evitiamo di antropomorfizzare il discorso come al solito.
Ma il fatto è che se dentro un mondo virtuale in 3D, magari con visore e guanto, se mi dimezzano la forza di gravità ci metto un attimo ad adeguarmi. I bambini precocissimi non fanno fatica a interagire con flussi informativi, anche attraverso interfacce non pensate per loro (un telecomando del decoder o un software che si chiama Ufficio).
Se guardate i flash giornalistici di notte alla tv, vedrete uno schermo pieno zeppo di informazioni su molti flussi diversi (la voce dello speaker, le immagini alle sue spalle, i boxini con le quotazioni dell aborsa e il meteo in parte, nel sottopancia scorrono veloci altre news) eppure non facciamo fatica a seguire tutto. La nostra coscienza sembra essere sovradimensionata, capace di gestire anche quello per cui non è nata. Oppure semplicemente le sue facoltà non vanno pensate in termini di quantità, ma di algoritmi di funzionamento. Oppure meglio ancora, cerchiamo di capire che specie umana e tecnologie sono in simbiosi, da secoli. La pensabilità della tecnologia determina le direzioni verso cui la troviamo, spesso serendipicamente facendo lo sgambetto alla prevedibilità – d’altronde, la realtà notoriamente non ha nessun obbligo di essere verosimile, non siam mica a teatro qui – allo stesso modo in cui gli artefatti che ci circondano determinano le direzioni del nostro pensare. Perché stiamo dialogando con l’ambiente, e le tecnologie sono le parole dei nostri discorsi, dove traggo identità di me dal loro risuonare.
E guarda caso, nel mutuo reciproco evolversi degli Umana e dell’ambiente di vita, si scoprono facoltà cognitive che non si pensava esistessero (sì, sto ancora pensando al bambino di quattro anni che vi maneggia il MediaCenter in salotto con la stessa dimestichezza di un bibliotecario con un master in digital library) che si rivelano adeguate a fronteggiare le nuove forme di complessità degli ambienti mentali, fisici e digitali.
Nel parlare di coscienza privata e collettiva, McLuhan non poteva che pensare da dentro l’orizzonte della pensabilità del 1961, anche se in maniera eccezionale nella sua capacità di tratteggiare scenari futuri a partire da pochi segnali deboli. Qui forse ha tenuto ferma nel suo ragionamento una costante, la forma e le funzioni di quello che chiama coscienza, che invece è da considerarsi anch’essa una variabile, per il suo evolversi e mostrare nuove facoltà quando chiamata a fare il suo lavoro di “centro regìa” nel gestire flussi provenienti da ovunque, dentro e fuori su molti canali diversi.
Ma la coscienza e il mondo co-evolvono, non c’è bisogno di ipotizzare tragiche morti di coscienza individuale a favore di coscienze collettive. L’interazione dialogica tra sistema nervoso e oggetti è cosa sottile. Ad esempio, tutta la folksonomia è una risposta concettuale e operativa (forse addirittura non-pensabile nel 1961) che prova a fare luce su certi fenomeni socioculturali che si collocano su faglie di confine tra contesto individuale di significazione e i comportamenti degli oggetti culturali negli ecosistemi della conoscenza.

Gli artisti che scavano sotto i riflessi condizionati mi puzza ancora di romanticismo, mi sembra il solito Picasso che “dipinge quello che vede, non quello che sa”. Poi vengono gli straniamenti, poi le installazioni come indagine sul contesto di rappresentazione, i meticciamenti e le sinestesie. Questo ci porterebbe sui linguaggi della creatività, e via andare. Ma resteremmo ancora bloccati in una dialettica di contesti di pensabilità degli oggetti e dei comportamenti impostata su vecchie concezioni del mondo e della socialità e dello scambio informativo. Al momento, i migliori artigiani che conosco sono la sterminata massa anonima di sviluppatori software che di notte, nel buio dei profondi anni Ottanta o primi Novanta, hanno sviluppato il mondo digitale che ora abitiamo. Dell’arte parliamo più avanti.

E infine questa recensione di Tito Vagni ad un libro di Piero Vereni, “Identità catodiche. Rappresentazioni mediatiche di appartenenze collettive” che è un titolo di quelli giusti densissimi ma “catodiche” non mi piace, ma non credo che parli solo di tecnologia digitale, quindi figuriamoci se posso giudicare un libro dal titolo, toccherà fare un salto in libreria. La recensione è interessante, incollo anche qui alcuni concetti con la normale colla CtrlV.
… Esiste però un filo conduttore costituito dal ruolo determinante che i mezzi di comunicazione hanno assunto nella vita quotidiana e la necessità, per le scienze sociali, di guardare ai media come al luogo privilegiato dell’analisi sociale.

… ricostruzione dettagliata dei lavori di “antropologia dei media”, termine con cui individua un filone di studi derivante dalla contaminazione tra antropologia linguistica e cultural studies, che tenta di comprendere il rapporto tra sistema dei media e sistemi culturali

… “di fronte ai nuovi media siamo tutti primitivi, dato che tutti abbiamo bisogno di elaborare strategie d’uso e di significazione originali che abbiano e producano un senso dentro il sistema culturale che viviamo”

… mostra particolare attenzione al modo in cui l’introduzione di un mezzo di comunicazione ridisegni l’organizzazione dello spazio o, utilizzando le parole di Meyrowitz, riesca a proiettare l’abitare “oltre il senso del luogo”.

… la presenza della tecnologia nella vita quotidiana si è fatta talmente massiccia da rendere impertinenti alcune analisi sociali che eludono il ruolo dei media

Tutto interessante.

Appunti su mobizen

Abbiamo i citizen, che diventano netizen, e se mettiamo l’accento sul dispositivo che usiamo per essere always-on, ragioniamo sul telefonino mobail mobile.
Eran tutte notizie una dopo l’altra, lì sull’aggregatore, collegate tra loro sia per la contiguità del loro apparire nella mia vita sia per l’argomento comune trattato, e quindi mi son messo a seguire le briciole in giro.
Un oggetto tecnologico postindustriale può essere identificato anche grazie alla presenza di sensori e display, necessari per poter interfacciare il sistema nervoso umano con queste scintille di intelligenza sparse negli oggetti, nel dominio della teleoperatività e dell’immateriale.
Se pensate all’interfaccia di un’automobile, i pedali e il volante e il cambio non stanno per le funzioni che svolgono, sono essi stessi parti del meccanismo. Premere il pedale della frizione vuol dire azionare un sistema di leveraggio, ma siamo sempre fisicamente connessi con la frizione vera e propria. L’indicatore della benzina è fisicamente connesso al galleggiante nel serbatorio, e questo fa di lui un indice. Potrebbe non esserci nessun codice, in quanto segnale potrebbe semplicemente mostrare una correlazione tra la lancetta e uno stato del mondo (del serbatoio). Poi le macchine son diventate elettroniche, e tra i sensori e i display e la nostra interazioni si sono intromesse centraline e processori e codici, quindi oggi se guardo l’indicatore della benzina non vedo “direttamente” il comportamento il galleggiante, ma un sua rappresentazione, un segno.
Gli oggetti moderni hanno display e sensori, per maneggiare ciò che non posso né vedere né toccare.
Però ultimamente i telefonini hanno un bel display. Su cellulari di fascia media si possono vedere i film, almeno ragionando in maniera dignitosa di punti per pollice, e sempre più offrono schermi sensibili al tocco che porta la qualità dell’interazione su altre strade prima impensabili di user-experience. Migliorano le interfacce, migliora la connettività, i telefoni diventeranno una via règia per accedere ai sogni della Rete.
Ma guardiamola dal punto di vista della Nuvola, che si vede nutrita da milioni di point-of-presence, come tentacoli che brancolano nel buio, come i ragnetti che cercano TomCruise nascosto nella vasca da bagno con il ghiaccio, quegli stessi telefonetti che abbiamo in tasca, oggetti da visualizzare come sensori calati nella realtà fisica, porte di passaggio, da cui noi già comunichiamo molto, la nostra posizione in GPS o triangolata nelle celle, quindi i nostri movimenti come flusso sui territori, il nostro usare questi terminali per immettere informazioni come testo e foto, per comunicare.
E bello sarebbe se questi telefoni possedessero più sensori dell’ambiente: ad esempio potrebbero essere attrezzati per fare rilevazioni sull’inquinamento atmosferico, e potremmo avere delle mappe in tempo reale su un pagina web con tutti i dati ben visualizzati e geotaggati, e via a incrociare i dati.
I cellulari stanno agli umani come gli RFID (arfidi, o meglio àrfidi) stanno agli oggetti. Per descriverci, usano musica e fotografie e contatti relazionali, a cui oggi si aggiungono gli applicativi web installati, le reti sociali frequentate nel mondo digitale ovvero la nostra identità digitale. Sono sempre con noi, e danno informazioni su di noi (la cui portata dovremmo poter controllare) e ora diventano gli strumenti migliori per avere sensori del contesto.

In realtà, bisognerebbe che i telefonini parlassero molto, lasciassero tracce e informazioni su di sé, sul proprio uso, sul proprietario, senza rivelarne l’identità. Correlazioni statistiche a bizzeffe. Mappa dinamica dell’umore di una nazione, secondo certi aspetti e capacità.

Tutto ciò è partito da un articolo di PuttingPeopleFirst, poi ho visto Sterling che parla di telefonini qui, qui su mobileactive si studiano le “dynamics of the role of mobile phones in enhancing access to and creating information and citizen-produced media”, gli usi attuali e possibili per promuovere citizen media – c’è anche un simpatico pdf da scaricare A Mobile Voice: The Use of Mobile Phones in Citizen Media, per finire con Nokia che parla di sensori.

Scrivendo questo post, mi è venuto in mente che si potrebbe mettere su un sito una mappa mondiale capace di render conto delle suonerie che usiamo sui nostri cellulari. Ovviamente bisognerebbe che i nostri cellulari, in forma anonima, spedissero la suoneria che usiamo per le chiamate e per i messaggi ad un sito, e avremmo su uno schermo una rappresentazione del paesaggio sonoro, geotaggato. Monitorare i cambiamenti d’umore. Quanto variano nel corso dell’anno i ritmi che usiamo, che bpm abbiamo oggi di media a Udine, e quanto era lo scorso weekend conforntato con ferragosto? Qual è la colonna sonora di un centro commerciale o di una scuola?

Ripeto: tecnologia tracciante

Già qui parlavo di tecnologia tracciante, perché sta diventando un problema impellente.
Anni fa seguire i blog e gli altri luoghi personali di espressione era piuttosto semplice, si partiva dai segnalibri sul browser, si leggevano i post dei propri autori preferiti, poi magari dai commenti o dal blogroll si passava ai blog che in qualche modo riprendevano la conversazione interessante, e si riusciva ad avere in questo modo una visione complessiva della tematica trattata e di tutte le risposte e le suggestioni da quest’ultima innescate. Pareva perfin di vedere il “farsi” dell’opinione pubblica, sotto i nostri occhi, nella negoziazione interpersonale dei punti di vista, nel dialogo litigate e amori compresi, nell’emergere di posizioni etiche e successivi aggiustamenti.
Sappiamo che feed e aggregatori hanno moltiplicato il flusso, hanno reso più facile seguire i blog, ma a loro modo, pur essendo solo una tecnologia aggregante, già lasciano spazio a una piccola deriva dell’interpretazione, perché sottraggono informazioni di contesto al messaggio che ci arriva, quelle grafiche e stilistiche che circondano il post (il cotesto) sul blog originale.
Già ci furono discussioni in Rete su questo leggere fuori contesto, ad esempio per il fatto che i contatori visite non potevano più segnare tutte le letture del blog, visto che molti i messaggi di quel blog li leggevano sull’aggregatore. Infatti ora teniamo in considerazione i sottoscrittori dei feed, per ragionar sul numero di lettori complessivo di un blog.

Ma il vero problema sono i commenti.
Perché oggi i commenti ad un post non sono costretti a vivere sull’indirizzo web che ospita quel blog, ma possono vedere la luce in molti diversi ambienti digitali, ad esempio sulle community o sui flussi di lifestreaming, perché tutti quelli cha hanno un blog riportano il proprio feed anche dentro questi ambienti, ed è qui che mi imbatto nei loro post, è qui che commento, non sul blog originale.
Oddio, una certa dimestichezza nelle dinamiche comunicative online ci guida, consapevolmente o meno, a scegliere dove rispondere, a seconda ad esempio della mole di contenuto che devo esprimere nel mio commento oppure per il tono che intendo utilizzare: fa parte delle grammatiche relazionali in Rete avere una certa competenza digitale, la quale via via ci suggerisce se articolare la nostra risposta come battuta di una riga, come mail privata al bloggante, come commento sul blog, come intervento sul gruppo in una community.

In un ecosistema della conoscenza, il valore di un blog è dato dalle discussioni che riusciva a far emergere nei commenti, e dai link con cui magari il post specifico veniva segnalato in Rete, su altri blog. Mille discussioni nascevano e magari camminavano altrove con le loro gambe, ma i commenti rimanevano lì sull’origine, sedimentazioni di significati e punti di vista contestualmente disponibili.

La questione si può ancora complicare, come si vede da questa discussione su FriendFeed di PseudoTecnico, perché ci si può legittimamente interrogare sul significato che possiedono i commenti effettuati “fuoriblog” ad esempio su FF stesso, ed è perfino possibile chiedersi qualcosa sulla libertà che ci si può prendere di riportare altrove dei commenti ad un articolo su un blog, e
continuare discussioni che da quel punto lì vivono in maniera relativamente autonoma dall’argomento del blog originale.
Se leggete la discussione su FF, vedrete che si giunge anche a parlare di pubblico&privato, di liceità, di confusione.

Non è argomento banale, con questa esplosione di Luoghi ne va un po’ di mezzo la possibilità di “tirare le fila del discorso”, di dare visibilità stabile ad un nodo della discussione collettiva, a meno che in maniera simile a quello che è successo con gli aggregatori non sia possibile disporre di una tecnologia in grado di tracciare tutte le risposte e tutti i commenti e tutte le segnalazioni e tutto quello che in qualche modo nel futuro sarà connesso con il post che sto scrivendo, tipo questo.

Quindi, qui sotto questa riga io dovrei ora attaccare un widget, un pezzo di codice supertrackback capace di mostrare in modo dinamico (autoaggiornandosi) tutti i riferimenti a questo post sparsi in giro nel Web, così la gente clicca e rimane sintonizzata e partecipa ovunque.

Mappe, aggregatori, punti di vista

In quell’Impero, l’Arte della Cartografia raggiunse tale perfezione che la mappa d’una sola Provincia occupava tutta una Città, e la mappa dell’impero, tutta una Provincia. Col tempo, codeste Mappe Smisurate non soddisfecero e i Collegi dei Cartografi eressero una Mappa dell’Impero, che uguagliava in grandezza l’Impero e coincideva puntualmente con esso. Meno Dedite allo Studio della Cartografia, le Generazioni Successive compresero che quella vasta Mappa era Inutile e non senza Empietà la abbandonarono alle Inclemenze del Sole e degl’Inverni.

Borges, sì. Capace di iniettare nell’immaginario una dialettica tuttora viva, che già riecheggiava negli slogan delle contestazioni giovanili di 40anni fa. La mappa non è il territorio. E se il territorio è digitale? Le mappe della Rete sono estese come la Rete? Se mettiamo lì un aggregatore che riproponga magari con qualche rappresentazione grafica tipo metafora spaziale se non addirittura corrispondenza geografica (occhio che il segno diventa indice, in quanto “fisicamente” connesso con il luogo di produzione) tutto ciò che viene pubblicato in Rete, avremmo per le mani il Web senza il social, visto che sarebbe solo vetrina e non luogo di interazione. Se poi il fantomatico aggregatore offrisse anche la possibilità di commentare, e tutti commentassimo lì, avremmo il serbatoio mondiale delle idee, e sulla superficie del calderone vedremmo formarsi e scomparire forme riconoscibili, configurazioni di senso, reti relazionali. Più di qualcuno ha immaginato questo calderone come un alambicco, da cui tramite la circolina per la condensazione sia poi possibile distillare e tracciare nuovi apporti culturali, nuove invenzioni, nuove parole per definire concetti prima nebulosi, vedere insomma in tempo reale lo scibile vivere. Non solo la storia delle idee, ma la vita delle idee.

Ma anche il pensiero che pensa gli aggregatori e i contenitori forse è pensiero vecchio, come quello degli imperatori e dei cartografi di corte, giunti al paradosso di avere una mappa grande come il territorio. Poi passa uno e dice: “ma scusate, sulla mappa manca qualcosa… non potete non riportare sulla mappa stessa un manufatto grande come il territorio stesso, cioè questa stessa mappa!”; quindi sulla mappa dovrebbe esserci la mappa. Bel problema. Più che altro, irrisolvibile. Perché il problema sta nella stessa “volontà di rappresentazione” (Schopenhauer non ridere), che poi è anche cosa legittima e teniamo presente che qualunque animale evoluto si crea una mappa mentale del proprio territorio di abitanza, ma poi il problema è nelle modalità di rappresentazione, e qui la cosa diventa “simulazione” nel senso buono, e quindi si entra dritti a parlare di modelli, di capacità descrittive euristiche e via così.

E se devo farmi una mappa di quello che si dice in Rete oggi, e magari distillare quelle cose che ritengo pertinenti ad un effettivo incremento della conoscenza, per me?
Oggi Mario Rotta, nella sua one-line di status su FaceBook

vorrebbe proporre a tutti di “condividere conoscenze”: ma chi avrebbe davvero il tempo di farlo?

la questione del tempo è altra bella variabile; io comunque gli rispondo dicendogli

dovrebbe essere possibile costruire conoscenza “articolata” a partire dai contributi one-line di chiunque passa. poi come un gigantesco sillogismo o come un “cadavere eccellente” (narrativamente orientato) alla fine strizzi tutto e distilli tutto e hai incremento dello scibile, foss’anche una virgola in più, però corale.

e lui di rimando

Ma la conoscenza (dico a me stesso, a volte) è “leggera” o “pesante”? Sono frammenti che si ricompongono come polvere attraversata da un campo magnetico o il risultato di azioni deliberate da parte di chi condivide prima di tutto una visione, o quanto meno un formato? Forse, è entrambe le cose…

Mi piace l’idea del campo magnetico sulla limatura di ferro. Crea configurazioni, secondo i punti di vista. Rappresentazione grafica e dinamica dei movimenti attrattivi-repulsivi. Ma riesce forse solo a spiegare il “punto di vista organizzatore” di chi interroga le idee sparse sulla Rete, un principio ordinatore che in fondo (kantianamente, e poi fenomenologicamente) è un soggetto che guarda e dà senso al mondo.

Ma c’è anche il fatto che quella limatura di ferro, quelle idee che circolano su web e nel mondo possiedono delle proprie capacità di legarsi o di respingersi, non tanto in modo dipendente dal significato veicolato quanto dalla forma dell’espressione grazie a cui possono veder la luce, grazie al format e al particolare sistema editoriale che usano. Possono essere voti su una stellina di un video di YouTube, contenuti articolati in un blog o commenti, linee di status dentro i messenger o dentro le comunità digitali.

Quindi, tolta di mezzo l’idea dell’aggregatore universale (è la stessa internet: oggi il territorio è la mappa), rimane da vedere come rendere visibile e social il nostro essere aggregatori unici e originali, ognuno di noi. Avere una bacheca di lifestreaming personale, aperta al web, significa cucire insieme atti-degni-di-menzione con il nostro filo personale e con il nostro stile, e ciascuno di noi avrà una bacheca unica e originale, e la stessa sequenza di segnalazioni e interventi sarà molto eloquente, perché esprime un punto di vista e possiede in sé molte informazioni di contesto, embeddate nelle mie frasi ma facilmente decifrabili.

E quindi se la metafora del campo magnetico e della limatura di idee rende bene l’idea di un pensiero aggregante, però esterno all’umanità e meccanico (tant’è che può essere fatto da un software, come un aggregatore pubblico dei memi, senza occuparsi del “contenuto” messo in Rete), e l’idea di un filtro aggregatore programmato da umano in fondo altro non è che l’espressione di un punto di vista (fondato sulle pertinenze che il “programmatore” ritiene utili), e poi potremmo anche aggiungere l’idea di un aggregatore che autoapprende e via via seleziona con più raffinatezza ciò che può essere considerato “incrementale” rispetto allo scibile che continuamente viene prodotto negli scambi interumani biodigitali, ma alla fin fine quello che torna importante è l’aggiunta personale di ciascuno di noi all’evento, il valore del contesto della pubblicazione, gli ambienti su cui pubblichiamo o ri-pubblichiamo ciò che vogliamo segnalare.

Da queste piccole dislocazioni del senso, re-interpretazioni attraverso la lente unica dei nostri occhiali personali, nel gioco infinito della traccia e dello scarto (trace|ecart, com’è scritto qui nel footer del blog) è possibile ragionare di “condividere conoscenza” e magari anche di “incremento delle idee”. C’è di mezzo l’idea di autorialità, di voce che sempre nasce da un luogo e in un tempo.
Stop al delirio (di cui famosa para-etimologia è “de-leggere”, ovvero quel leggere un po’ sghembo, capace di dare altri nomi alle stesse cose, pareidolicamente – sta finendo l’anno di prova, dovevo giocarmi questo avverbio sennò perdevo il bonus).

Abitare mondi

In un romanzo cyberpunk di William Gibson, a metà anni Ottanta, due protagonisti si incontravano virtualmente in un parco digitale, e la progettazione e la definizione grafica del mondo erano talmente raffinate da permettere di scoprire il cadavere di un’ape tra la ghiaia dei percorsi pedonali.
Qui di seguito, un bell’articolo su Apogeonline, dedicato ai mondi-specchio e ai relativi risvolti sociali. Guardate anche il video, e immaginate il vostro avatar, a voi somigliante o meno, a spasso per la vostra città, che incontra e chiacchiera con amici e conoscenti, che va al cinema e al bar.

Twinity, a spasso per Berlino.
di Giuseppe Granieri

Riflessione digitale del mondo atomico, questo nuovo mondo metaforico permette di socializzare e svolgere attività tra gli spazi e le architetture della città scelta (sono in arrivo anche Londra e Singapore). Parola d’ordine: powered by real life Twinity è un mondo mirror che riproduce (per ora) la città di Berlino, nei sui spazi e nelle sue archetitetture. Ma è anche una piattaforma sociale e uno spazio relazionale. Vi raccontiamo le nostre prime impressioni.

A differenza di Second Life, che con il nome e l’abuso iniziale dell’aggettivo “virtuale” ha sempre creato un’idea erronea di mondo altro rispetto a quello reale, il claim di Twinity è decisamente più efficace: powered by real life. Twinity è uno dei tanti nuovi metaversi che stanno fiorendo ovunque. È, tecnicamente, un mondo mirror perchè è basato sui dati del mondo atomico (Google Earth e Satnav) e tende ad essere una riflessione digitale della realtà materiale. La prima città riprodotta è Berlino (non a caso, data la matrice tedesca del mondo, ideato dalla startup tedesca Metaversum), ma le ambizioni sono molto più grandi: si mira a Londra e, con finanziamenti governativi, a Singapore.

Entrare in Twinity oggi, dunque, ci consente di fare una passeggiata per le strade di Berlino, di cui è stata riprodotta una buona parte con buona accuratezza. Come già con Second Life, va osservato, le architetture che replicano spazi e ambienti delle nostre città non hanno una grande capacità di emozionare o di offrire un forte “senso di essere lì”, soprattutto quando sono realizzate su piattaforme che, non essendo realtà virtuale, tendono a mantenere forte la percezione del medium che usiamo per visitarle. Si tratta, soprattutto per Second Life, della scelta più facile per raccontare un territorio: ma questi primi anni raccontano che il potenziale comunicativo di simili esperimenti è abbastanza basso se limitato alla semplice riproduzione del reale.

Nel caso di Twinity, la logica di geolocalizzione e di replica “a specchio”, può però rivelarsi interessante nel tempo. Sul piano della comunicazione territoriale (e turistica) si tratta di un esperimento ancora rudimentale, forse, ma con buone potenzialità: abbiamo la capacità di muoverci e orinetarci in una simulazione abbastanza realistica degli spazi e dei percorsi all’interno di una città e possiamo quindi cominciare a farci un’idea del posto che visiteremo e che vorremmo visitare. Il costo che si paga, ovviamente, è il basso contenuto creativo ed esperienzale, a tutto vantaggio di un contenuto informativo. Rispetto a Second Life, direi, meno creatività e contaminazione, più voglia di realismo e appeal patinato.

Ma Twinity non è solo una versione in 3D di servizi diversi come Google Earth o come i GIS: è un “mondo” (nel senso esteso di altri ambienti come Second Life o MMOG) e quindi è una piattaforma sociale. In realtà, rispetto a Second Life ci sono molte differenze di approccio: si può scegliere di usare il proprio nome e cognome (e ci sono le opzioni per decidere a chi mostrare il cognome), il sito web ha tutte le caratteristiche dei social network (profilo, messaggi) e anche “dentro” il mondo la parte sociale è gestita con logiche e interfaccia simile in tutto a quanto ci hanno abituato gli strumenti di social networking che utilizziamo ogni giorno.

In generale l’aspetto di social networking è meglio assecondato nel mondo metaforico tedesco laddove per i residenti del mondo Linden spesso ci doveva appoggiare a strumenti esterni (come i social network costruiti su Ning). Poi, naturalmente, anche su Twinity si può prendere casa o avviare attività. E la personalizzazione del proprio avatar è orientata al powered by real life: si può anche modellare il volto del proprio avatar partendo da fotografie. Il client, rispetto a quello di Second Life mi pare abbia raccolto molte esperienze dai client di gioco dei vari MMORPG. Ma è solo per sistemi Windows.

Insomma, la prima impressione è cauta ma positiva, anche se è ancora tutto in beta (pubblica solo da un mesetto) e anche se certe scelte – escludendo la logica mirror e le future finalità di comunicazione territoriale – mi pare appiattiscano Twinity più sul versante relazionale (in versione social network 3D) che su quello di insieme (contenuti, relazioni, design ecc.) che conosciamo in Second Life. Non è ancora un mondo molto popolato: si parla di poche decine di migliaia di utenti registrati (che non sono quelli attivi) e prevedibilmente si tratterà soprattutto di utenti tedeschi, per i quali il metaverso patrio può avere un senso differente. Ma, proprio come ci ha insegnato Second Life, alla fine la qualità di questi mondi è determinata dalla qualità delle idee che le persone vi portano dentro. Tanto più che non staremo mai tutti nello stesso: ognuno cercherà quello che gli è utile o in cui si trova meglio o che asseconda i suoi interessi.

Da tenere d’occhio, in ogni caso.

Obsolescenza tecnologica dei supporti

Dopo la tavoletta d’argilla, la pergamena di pelle, poi la carta di canapa di lino e di papiro, poi Fabriano e quindi la stampa, libri e quotidiani, e il discorso si complica. Ma in futuro molto testo prodotto digitalmente rimarrà digitale, e scivolerà eventualmente su e-book moderni e carta elettronica tipo Iliad, oppure apparirà sugli schermi dei nostri cellulari, oramai diventati protesi tuttofare del nostro vedere e parlare, interfacce della socialità biodigitale.

Nessuna paura, è fisiologico. Solo abbiate cura dei vostri ricordi.

Nel frattempo, anche la pellicola fotografica è quasi oggetto da museo.

Perché Google ha avuto successo?

Google ha compreso prima di tutti le peculiarità degli ambienti digitali, ha inventato nuove forme di marketing, è semplicemente stata capace di “pensare” in un modo nuovo, veramente post-industriale, l’ecosistema costituito dalla rete Internet e le sue dinamiche abitative.
Da questa presentazione, in inglese, si possono ricavare alcune interessanti considerazioni; ad esempio, perché YouTube non è un portale? Perché Microsoft teme Google? Perché Google vuole decisamente muoversi verso il mondo dei cellulari? Perché Google non rende a pagamento i suoi servizi online, come fa a guadagnare? Quando la vera merce di un mondo immateriale diventa l’informazione, come i nostri profili di community e le nostre identità digitali, cosa significa che bisogna imparare a gestire consapevolmente il nostro essere Abitanti digitali?

MittelMedia

Domani c’è un bel convegno a Trieste, si chiama MittelMedia. Pubblicità giornalismo e comunicazione nel futuro dei nostri confini, e mi piacerebbe tanto riuscire ad esserci anche se è di mattina, e avrei da fare due cosette. Me lo segnalano Enrico Marchetto, e Enrico Milic su Bora.la, dove trovate anche il programma.
Servono idee per sopravvivere, avrebbe detto Pelù vent’anni fa, e credo che la possibilità concreta di scambiarsi idee con i vicini dell’Euroregione (magari con il supporto di un buon magazine digitale transfrontaliero, con ancoraggi locali e con una mirata distribuzione su carta) sia un’ottima occasione per trovare risposte “laterali” ai soliti stantii problemi della promozione territoriale e delle collettività.

Segway e apprendimento

Amo il Segway.
E’ un bell’oggetto, vederne circolare molti in centro sarebbe splendido.
Una cosa civile, sarebbe.

A proposito di apprendimento – video via Elena – ecco qui uno scimpanzè che impara ad andarci in quattro minuti, e secondo me se non gli venisse facile per istinto buttarsi giù dal mezzo starebbe anche meno. Cioè, come noi.

Vi posso garantire per aver provato: è un bellissimo esempio di interfaccia trasparente, dopo tre minuti si dimentica il manubrio e lo si guida con il pensiero.

Telefoniamoci

Da mesi sono soddisfatto possessore di un Nokia E71. Va tutto bene, se vi piace prendetelo. A me piace la tastiera estesa qwerty, la buona qualità di foto e video, il fatto che il telefono si connetta wifi. Così passo le giornate in giro a scrivere, a fotografare, e appena trovo una rete aperta carico tutto sui blog, su friendfeed, su flickr o dove mi serve.
All’acquisto, già sapevo che per chattare interfacciandomi con le reti GTalk e Skype avrei dovuto usare Fring, a detta di tutti. E infatti va che è una meraviglia. E da qualche settimana stando dentro un wifi telefono agli amici anch’essi sotto copertura, e chiacchieriamo con buona qualità audio senza pagare nulla, perché il telefono utilizza le tecnologie Voice-over-IP appunto di Google o di Skype.

Mi viene in mente ad esempio che nelle Pubbliche Amministrazioni dovrebbero usare VoIP per le comunicazioni interne, e certamente usare il proprio telefono per chiamare il dirigente in altra sede mette molti meno ostacoli psicologici e tecnici alla fruizione del servizio, rispetto al doversi sedere al pc con cuffie e microfono.

Poi oggi la notizia che Fring e Mobilkom Austria hanno raggiunto un accordo, “… This is the first time a leading mobile network operator has integrated an open mobile VoIP communication and mobile internet community into their business, and represents a sea change in traditional mobile carriers and companies such as fring working together”, e si capisce che Golia Mobilkom ha deciso di allearsi con Davide Fring, non potendo combattere contro chi facilmente permette agli utenti di telefonarsi senza spendere soldi.

Ma in italia (e quasi solamente qui) abbiamo il decreto pisanu, che non permette reti wifi aperte. Una cosa sciocca del 2005, che poi il governo prodi ha prorogato fino al 31 dicembre 2008, benché alleggerendone i vincoli. Certo, è un altro segno di spunta da mettere nell’elenco delle cose che non vanno in italia, e si tratta di qualcosa di una certa importanza, visto che entrare nella Società della Conoscenza senza avere libertà di comunicazione è come partecipare alle corse con i piedi legati.
Intanto in giro per l’Europa parlano e si spediscono file in modo gratuito, stringono le maglie delle reti sociali online, lavorano meglio, sviluppano percorsi di partecipazione a iniziative ad esempio legate all’e-democracy, grazie ai cellulari connessi e alle reti wifi libere. Mah.

Friul-IN

Sabato sera per l’aperitivo sono andato in centro, si trattava di de-virtualizzare i componenti del gruppo Friul-In, professionisti della zona che sono iscritti a LinkedIn.
Ci siamo incontrati al Contarena, storico caffè liberty di Udine di cui ho già avuto occasione di parlare male, proprio mentre sul locale convergeva la solita massa di wannabe calciatori&veline in ansia da prestazione nell’apparire vincenti e lampadati.

Ovviamente, ad un certo punto è partito il dj zarro e parlare seduti dentro intorno al tavolo è diventato impossibile, e allora siamo usciti per strada col bicchiere in mano, scoprendo che nella galleria d’arte a fianco del locale era in corso una inaugurazione, c’era Federico che suonava il sax su basi elettroniche di altri musicisti, e ad un banchetto servivano gratis del buon bianco friulano del Collio, altro che 23 (ventitre) euri per cinque aperitivi (ha pagato Francesco? a buon rendere, anyway).

Vediamo chi c’era, del centinaio dei Friul-ini iscritti al gruppo: Andrea Bertolozzi, Francesco Zorgno, Luca De Michiel, Elena Zadro, Simone Favaro, Davide Nonino con Alessandra, e Fabio Trevisani (ho messo i link lunghi della funzione “cerca”; se mi date il link con l’url breve al vostro profilo, linko meglio).

Per il resto, tutto bene.
Spero che vi sia una ulteriore occasione di incontro, dove sia possibile chiacchierare liberamente con tutti, per approfondire le reciproche competenze e far nascere idee di futura collaborazione.

Easy money

Terra e cielo, dell’essere e del fare accogliente semplicità e creativa facilità, simboli.

Uno poi può anche tentare di fare il guru, tipo con il GTalk badge, ma servirebbe un pagamento semplice e facile per pagare, poco e spesso, una consulenza professionale che vive negli interstizi della rete, tra le nicchie. Qui è tutto fatto a nicchie, ci saran degli interstizi, non posso credere che il Tutto sia disposto a celle d’ape, esagonali. Se invece ci sono ampie distanze tra le nicchie, sicuramente un giorno salteranno fuori le internicchie di internet, e allora il linguaggio avrà una volta ancora raggiunto il suo scopo supremo, farci ridere di come nomina le cose.

Quindi si dovrebbe puntare su dei sistemi di pagamento aggiornati.
Intanto vorrei poter essere pagato come il Telethon, con versamenti di 2 euro per ogni sms che mi mandano al numero che dico io, anzi allestirei cinque numeri diversi con quote diverse di pagamento. O un sms con la parola “pago” e due euro salgono sul mio conto, tolte le spese eh. Tutto tracciato, emetto fattura.

Anche poter commutare una normale telefonata in consulenza professionale, con compenso immediato, sarebbe simpa. I due interlocutori ad un certo punto digitano un numeroverde e qualche codice, che identifica l’IBAN del committente e del cliente e poi spedisce ai due, direttamente alla loro banca, una mail quale segno dell’avvenuta transazione. A quel punto ciascuna delle due parti, a telefonata conclusa, riceve un sms dalla propria banca con la richiesta di autorizzazione al bonifico, si autorizza e festa finita. Un servizio delle banche, dovrebbe essere, e gratuito, visto che è automatizzabile.

E a questo punto sarebbe simpatico anche una specie di carrello della spesa giornaliero, così mentre naviga la gente cliccando compra un libro o una consulenza di dieci minuti, e alla sera controlla su una pagina della propria banca online le richieste di pagamento disseminate sul web, e autorizza effettivamente per ciascuna l’esborso.

Leenti.

Photografo

Ieri sera alla tv guardavo Matrix Reloaded, e ad un certo punto Neo deve andare a trovare l’oracolo, ma prima in anticamera incontra un tipo orientale e si mettono a combattere. Sembrerebbe una situazione narrativa tipo “trappola”, ovvero il tipo parrebbe un nemico, e invece dopo un paio di minuti di balletti kungfu l’orientale (sì, il firewall intorno a Oracolo) blocca tutto e svela di aver voluto sottoporre Neo a una prova, per conoscerlo meglio. Il dialogo dice più o meno “per conoscere veramente una persona devi combatterci contro”, che immagino come variante speculare di quella “per conoscere veramente qualcuno devi farci l’amore”.
Eh, ma quanti tipi di conoscenza ci sono?
Anche l’abitudine nei gesti è una forma di conoscenza, innervata e diventata automatismo, per liberare risorse in RAM. Molto economica, efficiente, purtroppo poco riflessiva.
Immaginatevi quando vi lavate le mani: ripetete da anni gli stessi identici gesti, il movimento delle dita e dei polsi segue pattern collaudati, è come un balletto automatico. Ma questo non dà garanzia di pulizia: alcune zone delle mani rimangono più sporche di altre.
Tant’è che i chirughi nei telefilm si lavano le mani con accuratezza, ponendo viva attenzione ai gesti, guardando le loro stesse mani come se non le conoscessero, proprio per evitare che l’abitudine e i suoi meccanismi ci agiscano a nostra insaputa.

Tant’è che quando leggiamo un giornale il pensiero corre veloce sui concetti, ma se ci imbattiamo in un refuso rapidamente riattiviamo alla coscienza dei livelli di competenza grammaticale che solitamente agiscono in background.

Anche fare arte, intesa come fare concreto artigianale, è una forma di conoscenza, e nel manipolare la sostanza dell’espressione, si tratti di lettere suoni o colori o materia, una persona curiosa nel rendere eloquenti le cose prova a straniare le abitudini percettive, prova a guardare un foglio di carta come se fosse di metallo, prova a scolpire la musica come se fosse marmo, si chiede cosa possa significare portare oggetti d’uso quotidiano in altro contesto o indagare lo spazio dentro e fuori la cornice del quadro o il rapporto tra il colore e la forma.
A me piace essere curioso: è un lavoro affaticante, ma fare lo sgambetto alle abitudini, metterle alla prova e saggiarne la portata conoscitiva, straniare la percezione e la destinazione d’uso degli oggetti che incontro mi fa scoprire cose di me che non sapevo, o che sapevo senza sapere di saperle.

Le grammatiche espressive vanno praticate: le mani gli occhi gli orecchi sanno fare cose che il pensiero non sa, e per meglio giudicare è meglio conoscere.
Ho lavorato in un teatro e costruivo scenografie inchiodando assicelle e tessuti, ogni tanto faccio ancora musica per il piacere di lavorare sugli oscillatori di un synth o di stiracchiare campioni, mi scopro onomaturgo paroliberista quando parlo in pubblico proprio per evitare di ricorrere a frasi fatte (anzi: a locuzioni ormai solidamente sedimentate etc.), ho provato a fare fotografia per cercare di capire qualcosa della luce, della visione e dell’inquadratura, e soprattutto qualcosa di quella pratica alchemica che è sviluppare le foto in bianconero dentro una camera oscura, con gli acidi e le bacinelle e le mollette per appendere le foto.

Questa cosa della fotografia l’ho imparata una dozzina di anni fa grazie a Jacopo De Marco, che è un fotografo vero di quelli che guardano il mondo come i chirurghi suddetti si guardano le mani, come aspettando che le cose stesse, se osservate dal giusto rispettoso punto di vista e senza volerle far parlare a tutti i costi proiettando noi i significati, diventino di per sé eloquenti nel raccontare il senso del loro essere al mondo, gli strati di significato che veicolano semplicemente per il loro essere parte di una circostanza poi enunciata nell’inquadratura di una foto, per le tracce antropiche presenti nelle loro connotazioni.
Sabato scorso sono andato ad una sua mostra, qui a Udine. Mi piacciono, le foto di Jacopo: pur mancando facce e persone, sono come reportage di ambienti relazionali, luoghi di archeologia industriale o di socialità assente, dove però uno sguardo militante e l’attenzione agli aspetti materici dell’espressione – il dettaglio del colore, la fisicità, la grana stessa delle foto – riescono a trasmettere emozioni senza ricorrere a trucchi eye-catching. Raccontano storie di umanità, costruiscono un contesto, fan capire senza urlare, eppure ti arrivano addosso.

Conosco Jacopo: dietro c’è una riflessione, una scelta poetica, uno stile. Da dieci anni vive a Berlino: gli auguro mille momenti di rapimenti creativi con l’occhio incollato al mirino, e di ottenere meritoria visibilità per le sue opere (trovate qualcosa qui, le foto di questo post le ho fatte col cellulare e ovviamente non rendono l’idea).



Dal gangherologo, con affetto

Sebbene innumerevoli esseri siano stati condotti al Nirvana nessun essere è stato condotto al Nirvana

Prima che si passi la porta
si può anche non essere consci che c’è una porta
Si può pensare che c’è una porta da attraversare
e cercarla a lungo
senza trovarla
La si può trovare e
può darsi che non si apra
Se si apre si può attraversarla
Nell’attraversarla
si vede che la porta che si è attraversata
era l’io che l’ha attraversata
nessuno ha attraversato la porta
non c’era porta da attraversare
nessuno ha mai trovato una porta
nessuno ha mai compreso che mai c’è stata porta

R.D.Laing, Nodi

Petabyte Age e metodo scientifico

Ne parlò Luca DeBiase un paio di settimane fa, poi Sergio Maistrello ne diede anch’egli indicazione, approfondendone qualche aspetto.
Poi recentemente Bonaria Biancu me lo segnalò come qualcosa che avrebbe potuto interessarmi, e infatti così fu.
Qui finisce la parte con i passati remoti.
Sto parlando di un articolo di Chris Anderson (qui trovate l’originale) dedicato alle nuove metodologie di ricerca scientifica rese possibili dai supercomputer e dagli algoritmi di data-mining e map-reducing di Google, dove sostanzialmente si dice che non è più necessario, secondo il vecchio modello di indagine scientifica, porre inizialmente un’ipotesi sul funzionamento di qualcosa ed in seguito procedere con le verifiche per saggiarne l’attendibilità.

Sia ben chiaro, da molto tempo l’epistemologia ha chiarito che le “spiegazioni scientifiche” non sono altro che “verità locali” utili per spiegare un fenomeno, tant’è che ci son state situazioni storiche in cui tutto l’insieme delle credenze, ovvero lo sfondo/contesto su cui le affermazioni acquistano senso, è stato messo a soqquadro da qualche innovazione concettuale o tecnologica oppure concettuale indotta dalle scoperte che la tecnologia, come protesi dell’occhio e della mano quindi tecnologia dell’intelligenza, ha reso possibili.
Per dire, nessuno scienziato serio afferma oggi che l’acqua bolle a cento gradi.
Per dire, il problema non è il fatto che l’acqua bolle a cento gradi, quanto la fiducia cieca di certi scienziati arroganti nell’affermare che questo fenomeno è sempre accaduto e sempra accadrà e quindi corrisponde a una “verità” universale assoluta.
Come per il teorema di Pitagora, basato sui postulati di Euclide: qualcuno a metà Ottocento si è accorto che Pitagora non funzionava se il triangolo è disegnato su una sfera, e tutto questo ha portato rapidamente alla formulazione di geometrie non-euclidee e alla crisi dei fondamenti matematici, costringendo la scienza ad ammettere che tutte le credenze precedentemente possedute altro non erano che una verità locale, un caso particolare (quel luogo della mente dove la somma degli angoli interni di un triangolo è 180°) di una realtà/pensiero molto più complesso.
Le affermazioni scientifiche scommettono sui principi e sui modi di funzionamento dei fenomeni naturali, e epistemologia moderna esige che gli scienziati siano criticamente consapevoli della portata euristica limitata del loro affermare, tutto qui. Pensiero debole. “Per quanto ne sappiamo, funziona così”: questa è una frase scientifica corretta.
Tra l’altro un grandissimo del’epistemologia del Novecento, Thomas Kuhn, ha mostrato come le rivoluzioni scientifiche avvengano per rottura – non semplice allargamento/superamento – dei paradigmi concettuali, in quei momenti storici in cui una intera visione-del-mondo (l’insieme delle credenze sul com’è è fatto il mondo e come funziona, le categorie stesse della sua pensabilità) deve essere smantellata e ricostruita alla luce di nuovi atteggiamenti metodologici, spesso indotti dalle stesse nuove scoperte che più progredite tecnologie hanno reso disponibili.
E qui torniamo (sorry, ma la filosofia della scienza e del linguaggio sono vecchie passioni) all’articolo di Anderson su come il nostro vivere nell’era dei Petabyte condizionerà e forse modificherà radicalmente il modo di fare scienza. In sostanza, mi sembra si affermi che la triade ipotesi-modello-esperimento sia in realtà figlia di un’epoca in cui non era nemmeno pensabile il prendere in considerazione masse sterminate di dati, di gran lunga superiori alle capacità di elaborazione cognitiva umana, per la mancanza di una tecnologia (gli algoritmi di ricerca di Google e i supercomputer) in grado di trarre correlazioni statistiche significative.
Quindi gli scienziati degli ultimi quattrocento anni, prigionieri inconsapevoli del loro paradigma concettuale, hanno elaborato e utilizzato il metodo scientifico (che il Novecento ha sottoposto a vaglio critico con l’epistemologia) quale unica possibilità di incrementare la conoscenza “certa”. Non c’era altro modo, il pensiero non aveva altre possibilità metodologiche di afferrare qualcosa della cosiddetta realtà. Il concetto di causa-effetto poi, profondamente radicato in noi nonostante critiche filosofiche millenarie, portava sempre guardacaso a pensare situazioni sperimentali vincolate all’elaborazione di ipotesi che poi potessero essere saggiate nei test di laboratorio. Da come scrivo, mi sembra chiaro che si stia sfiorando la tautologia, perché l’impostazione stessa dell’esperimento era sempre frutto di un pensiero “interno” ad una rappresentazione concettuale predefinita (nella mente del ricercatore, nella sua visionedelmondo), dove certe ipotesi potevano nascere ed altre no.
Se potevo porre un’ipotesi, mi stavo comunque muovendo all’interno del noto, o comunque lì vicino (vedi abduzione, di quell’altro grandissimo che è Peirce), perché non è umano indagare l’ignoto partendo da ciò che non so.
Anderson invece ci mostra come recenti progressi scientifici siano stati compiuti ignorando completamente il significato e la struttura di ciò che si andava indagando. Anzi, questo fatto di non porre a priori ipotesi interpretative è tra l’altro di squisita di metodologia semiotica, laddove buona narratologia invita a sospendere le domande sul senso di un testo, per prendere in considerazione le componenti morfologiche e sintattiche prima ancora di quelle semantiche.
Poter setacciare enormi masse di dati (ma avete presente un petabyte?) alla ricerca di correlazioni statistiche significative, indipendentemente dal contenuto che questi dati veicolano, vuol dire far emergere configurazioni di senso da sistemi complessi senza che ciò che emerge sia condizionato dal tipo di interrogazione che faccio, dall’ipotesi euristica che cerco di indagare, dallo sguardo con cui accolgo i fenomeni, dando così necessariamente loro un nome prima ancora di sapere di cosa si tratti, rendendoli eloquenti soltanto per come sono capace di leggerli (mi sovviene Lombroso, in qualche modo, e l’attribuire tratti caratteriali sulla base di conformazioni craniche)

Con una vecchia battuta, sappiamo che il senso di una domanda è la direzione in cui cercare la risposta, perché la domanda (la forma della domanda) orienta la risposta, suscita uno sguardo specifico a scapito di tutto quello che rimane fuori dal pensiero interrogante; se invece l’indagine la compie qualcosa di inumano, possono emergere aspetti della realtà che per definizione noi umani al momento non possiamo cogliere, visto che per conoscere dobbiam fare domande, e per fare domande ci costruiamo un modello a partire dalle nostre pre-comprensioni e insomma non possiamo uscire da noi stessi. Tutto qui: qualcuno è in ansia? Cosa può imparare la scienza da Google?

E allora, ho tradotto l’articolo di Anderson, aiutandomi con GoogleTranslate, ma non veniva bene, poi con BabelFish (yes, 42) l’ho un po’ sistemato, e lo metto qui.

LA FINE DELLA TEORIA
Il profluvio di dati renderà il metodo scientifico obsoleto?
di Chris Anderson

“Tutti i modelli sono errati, ma alcuni sono utili”

Così affermò George Box 30 anni fa, e aveva ragione. Ma che scelta avevamo? Soltanto i modelli, dalle equazioni cosmologiche alle teorie di comportamento umano, sembravano poter consistentemente, anche se imperfettamente, spiegare il mondo intorno noi. Finora. Oggi le aziende come Google, che si sono sviluppate in un’era di dati sovrabbondanti, non devono accontentarsi di modelli errati. Effettivamente, non devono affatto accontentarsi dei modelli.

Sessanta anni fa, gli elaboratori digitali hanno reso le informazioni leggibili. Venti anni fa, Internet le ha rese raggiungibili. Dieci anni fa, i primi crawlers dei motori di ricerca hanno reso [Internet] un’unico database. Ora Google e le aziende simili stanno setacciando l’epoca più “misurata” della storia umana, trattando questo corpus voluminoso come laboratorio della condizione umano. Sono i bambini dell’epoca del Petabyte (Petabyte Age).

L’epoca del Petabyte è differente perché il “di più” è differente. I kilobyte sono stati immagazzinati sui dischetti. I megabyte sono stati immagazzinati sui dischi rigidi. I terabyte sono stati immagazzinati nei disc-arrays. I Petabytes sono immagazzinati nella nuvola. Mentre ci siamo mossi lungo quella progressione, siamo passati dall’analogia della cartella (folder) all’analogia dell’archivio all’analogia delle biblioteche a – bene, con i petabyte siamo fuori dalle analogie organizzative.

Alla scala del petabyte, le informazioni non sono una questione di semplici tassonomie a tre e quattro dimensioni e ordini, ma di statistiche dimensionalmente non conoscibili. Richiedono un metodo interamente differente, che ci richiede di lasciar perdere l’idea di poter imbrigliare i dati come qualcosa che possa essere visualizzato nella relativa totalità. Ci costringe in primo luogo a osservare matematicamente i dati, e solo in seguito stabilire un contesto [per la loro interpretazione]. Per esempio, Google ha conquistato il mondo della pubblicità con nient’altro che matematica applicata. Non ha finto di conoscere qualcosa circa la cultura e le convenzioni della pubblicità – ha semplicemente supposto che avere migliori dati, con migliori attrezzi analitici, avrebbe condotto al successo. E Google ha avuto ragione.

La filosofia fondante di Google è che non sappiamo perché questa pagina è migliore di quellaltra: se le statistiche dei collegamenti ricevuti [incoming links] dicono così, va già bene. Nessun’analisi semantica o causale è richiesta. Ecco perché Google può tradurre le lingue senza realmente “conoscerle” (data un’uguale mole di dati, Google può tradurre facilmente Klingon in Farsi come può tradurre il francese in tedesco). E perché può abbinare gli annunci pubblicitari ai contenuti senza alcuna conoscenza o presupposizioni circa gli annunci o il contenuto.

Parlando alla Conferenza “Emerging Technology” di O’Really questo marzo passato, Peter Norvig, direttore di ricerca di Google, ha offerto un aggiornamento alla massima di George Box: “Tutti i modelli sono errati e sempre più potrete farne a meno [succeed without them]”.

Questo è un mondo in cui le quantità enormi di dati e di matematica applicata sostituiscono ogni altro attrezzo che potrebbe essere applicato. Supplendo a ogni teoria di comportamento umano, dalla linguistica alla sociologia. Dimentica la tassonomia, l’ontologia e la psicologia. Chi sa perché le persone fanno le cose che fanno? Il punto è le fanno, e possiamo seguirli e misurare tutto con una fedeltà senza precedenti. Con abbastanza dati, i numeri parlano da soli.

Tuttavia, il grande obiettivo qui non è la pubblicità. È la scienza. Il metodo scientifico è costruito intorno alle ipotesi verificabili. Questi modelli, per la maggior parte, sono sistemi visualizzati nelle menti degli scienziati. I modelli allora quindi testati e gli esperimenti confermano o falsificano i modelli teorici di come il mondo funziona. Ciò è il modo in cui la scienza ha funzionato per centinaia di anni.

Gli scienziati sono formati per riconoscere che una correlazione non è una causa, che nessuna conclusione dovrebbe essere tratta semplicemente sulla base di una correlazione fra X e Y (potrebbe essere una semplice coincidenza). Invece, devono essere compresi i meccanismi soggiacenti in grado di collegare i due fenomeni. Una volta che avete un modello, potete con una certa fiducia collegare gli insiemi di dati. I dati senza un modello sono soltanto rumore.

Ma dovendo affrontare enormi quantità di dati, questo tipo di approccio scientifico – supposizione ipotetica, modello, test – sta diventando obsoleto. Consideriamo la fisica: i modelli newtoniani erano approssimazioni grossolane della verità (errati al livello atomico, ma ancora utili). Cento anni fa, la meccanica quantistica su base statistica ha offerto una immagine molto migliore – ma la meccanica quantistica è un altro modello e, pur essendo difettoso, è senza dubbio una rappresentazione [caricature] di una realtà di fondo più complessa. La ragione per cui la fisica è andata ricercando nella speculazione teorica grandi modelli n-dimensionali unificati durante le ultime decadi (“la bella storia” di una disciplina affamata di dati) è che non sappiamo fare gli esperimenti che falsificherebbero le ipotesi – le energie sono troppo alte, gli acceleratori troppo costosi, ecc.

Ora la biologia sta puntando nella stessa direzione. I modelli che ci hanno insegnato a scuola riguardo i caratteri “dominanti” e “recessivi” dei geni, che ci conducono verso un processo rigorosamente mendeliano, sono risultato essere una semplificazione ancora maggior della realtà che le leggi del Newton. La scoperta delle interazioni geni-proteine e di altre funzioni della epigenetica ha sfidato la visione del DNA come destino e perfino introdotta la prova che l’ambiente può influenzare le caratteristiche ereditarie, il che era considerato geneticamente impossibile.

In breve, più comprendiamo la biologia, più ritroviamo (interpretiamo) noi stessi da un modello in grado di spiegarla.

Ora esiste un modo migliore. I Petabytes ci permettono di dire: “La correlazione è abbastanza.” Possiamo smettere di cercare nuovi modelli. Possiamo analizzare i dati senza ipotesi circa cosa potrebbero mostrare. Possiamo gettare i numeri nei più centri di calcolo il mondo abbia mai veduto e lasciare che le procedure statistiche trovino i modelli in cui la scienza non può trovare.

Il migliore esempio pratico di questo è il sequenziamento “shotgun” del genoma di J. Craig Venter. Aiutato da sequenziatori a alta velocità e da supercomputer che analizzano statisticamente i dati che redigono, Venter è passato dal sequenziare organismi individuali ad ordinare gli interi ecosistemi. In 2003, ha cominciato a sequenziare gran parte dell’oceano, ritracciando il viaggio del capitano Cook. E in 2005 ha cominciato a sequenziare l’aria. Nel processo, ha scoperto migliaia di specie precedentemente sconosciute di batteri e di altre forme di vita.

Se le parole “scoprire una nuova specie” vi riportano alla mente Darwin e illustrazioni di uccelli, forse siete bloccati nel vecchio senso di fare scienza. Venter può non dirvi quasi niente circa le specie che ha trovato. Non sa a che cosa assomigliano, come vivono, o qual è la loro morfologia. Non ha Neppure il loro intero genoma. Tutto che ha è un segnale di ritorno [blip] statistico – una sequenza unica che, essendo diverso da ogni altra sequenza nel database, deve per forza di cose rappresentare una nuova specie.

Questa sequenza può correlarsi con altre sequenze che assomigliano a quelle delle specie che conosciamo meglio. In quel caso, Venter può fare alcune congetture circa gli animali – ad esempio il fatto che convertano la luce solare in energia in un modo particolare, o che discendono da un antenato comune. Ma oltre a quello, non ha migliore modello di questa specie di quello che Google ha della vostra pagina di MySpace. Sono soltanto dati. Ma analizzandoli con risorse computazionali di qualità-Google, Venter ha fatto avanzare la biologia più di chiunque altro della sua generazione.

Questo genere di pensiero è sul punto di diventare mainstream. In febbraio, il National Science Foundation ha annunciato il Cluster Exploratory, un programma che finanzia ricerca destinata a “girare” su una piattaforma di computazione distribuita a grande scala, sviluppata da Google e IBM insieme con sei università pilota. Il cluster consisterà di 1.600 processori, parecchi Terabyte di memoria e centinaia di Terabyte di archivio, insieme al software, dove saranno compresi Tivoli dell’IBM e versioni opensource del Google File System e MapReduce. I primi progetti di ricerca prevedono simulazioni del cervello e del sistema nervoso e altre ricerca biologiche che si pongono da qualche parte tra il wetware (gli umani) e il software.

Imparare a usare un “calcolatore” di questa scala può essere una sfida. Ma l’occasione è grande: la nuova disponibilità dei gran quantità dei dati, con gli attrezzi statistici per sgranocchiare questi numeri, offre un intero nuovo modo di comprendere il mondo. La correlazione sostituisce la causa e la scienza può avanzare anche senza modelli coerenti, teorie unificate, o senza avere realmente nessuna alcuna spiegazione meccanicistica.

Non c’è motivo di aderire ai nostri vecchi metodi. È tempo di chiedere: che cosa può imparare la scienza da Google?