
Contrapponiamo l’abbondanza e la scarsità quali meccanismi fondamentali del funzionamento soprattutto economico della società, e molte riflessioni sono state scritte sul valore dell’attenzione in quanto merce e bene scarso: la nostra attenzione è ciò che le piattaforme digitali si disputano per catturarci e tenerci prigionieri nei percorsi di senso delle frequentazioni online quotidiane, percorsi ritagliati con cura per ognuno di noi, secondo interessi cognitivi e affettivi, secondo precise ergonomie dell’interfaccia e sempre migliori profilature utente.
Forse tutto questo è un po’ semplicistico. O almeno, la riflessione potrebbe non cogliere certe interessanti sfumature, cullandosi in simile pretesa linearità d’azione.
Per porre in dubbio, sottoporre a vaglio critico questa spiegazione e narrazione sul funzionamento delle piattaforme, comprese quelle ormai numerosissime dedicate all’Intelligenza artificiale o meglio LLM, dovremmo in qualche modo innanzitutto smettere l’abito di proiettare il ruolo del “capro espiatorio” sulle tecnologie, e liberarci da certi comodi schemi interpretativi dove colpevolizziamo con leggerezza e facilità gli algoritmi biechi e opachi, intrinsecamente subdoli.
Potremmo ragionare, invece, del nostro continuare ad additare e accusare i comportamenti delle piattaforme e delle Intelligenze artificiali – incolpandole della nostra tossicodipendenza – come se quelle fossero soggetti autonomi capaci di intendere e di volere, provvisti per giunta di una propria moralità, assiologie di valori. La qual cosa non è.
Sian ben chiaro: allo stato attuale delle cose in una Intelligenza artificiale non vi è intenzionalità comunicativa.
Risulta una forzatura attribuirle il ruolo di Soggetto quale attore ratificato della comunicazione, o ancora più curioso ipotizzare e cercare di indagare una soggettività banalmente emergente da calcoli statistici probabilistici.
Potrebbe invece rivelare scorci interessanti guardare a queste pratiche di soggettivazione (antropomorfizzazione?) come specchio delle nostre abitudini cognitive ed esistenziali nell’organizzare la nostra quotidianità, compresa questa umanissima abitudine a proiettare la “colpa” all’esterno di noi, individuando appunto un capro espiatorio, per poi rimuovere dalla coscienza l’intero meccanismo di difesa.
Se gli algoritmi sono subdoli perfidi e maligni, se il design dell’interfaccia è manipolatorio, allora ci viene “naturale” giudicare le piattaforme come entità metafisiche, divinità imperscrutabili nelle loro azioni e oscure nelle loro finalità: proprio questa è una narrazione – dove il testo è cosparso di configurazioni discorsive coerenti e orientate, in una isotopia del senso che ci viene “naturale” individuare, e questo è esattamente il problema – piuttosto rassicurante per la nostra psicologia, benché antropologicamente ingenua per lo stesso fatto sopra espresso, ovvero per l’attribuzione di intenzionalità espressiva e poi manipolatoria (una personalità) a strumenti che operano semplicemente per ottimizzazione statistica, in modo inconsapevole.
Quindi: dietro ogni architettura logica siamo portati a individuare una precisa intenzionalità progettuale. al limite della pareidolìa. Ogni aggregazione di dati a sua volta è il risultato di una determinata selezione metodologica. Ogni meccanismo di cernita incorpora una specifica risoluzione operativa. E qualsivoglia risoluzione produce conseguenze concrete. Derubricare tale complessità a una generica esortazione a integrare principi morali nei processi algoritmici denota una sottovalutazione delle dinamiche in atto.
Tutto questo avviene perché l’apparato tecnologico costituisce attualmente uno dei principali teatri di contesa del potere. Chi detiene la facoltà computazionale, chi stabilisce i parametri di raccolta delle informazioni, chi definisce gli scopi di ottimizzazione, esercita un effettivo dominio su ciò che gli individui percepiscono, concettualizzano, memorizzano e divulgano. E ciò si manifesta in ambito economico, informativo, ma altresì culturale e identitario. L’errore in questo scenario è persistere nell’attribuire qualità umane alle entità meccaniche e contestualmente deresponsabilizzare i soggetti agenti.
Dobbiamo prenderci la nostra quota di responsabilità, tutto qui. Abitiamo da molti anni in questi mondi simbolici fatti di bit e di pixel, abbiamo appreso a sentirci comodi in ambienti informativi che via via sono sempre più frammentati e veloci, dove spinti da dopamina cerchiamo gratificazione immediata, dove questi luoghi digitali fatti di video brevissimi e scambi senza profondità sono proprio il tipo di dispositivo adatto, proprio quello che stavamo aspettando e abbiamo progressivamente raffinato, nella storia dei media, e non certo qualcosa di imprevedibile.
L’algoritmo non impone preferenze, semplicemente amplifica pattern comportamentali esistenti, rivelando una nostra domanda culturale di esperienze di vita già orientate al sensazionalismo, all’eterno presente, alla superficie scintillante e sexy dell’engagement rispetto alla lentezza e alla profondità. Ad ogni giro di ruota, ad ogni loop della reiterazione abbiamo conferma e rinforzo, per noi e per gli algoritmi. Discorso spesso affrontato, nelle definizioni di una cultura post-moderna.
Dobbiamo prenderci la nostra quota di responsabilità come atto di coscienza, come presa di coscienza, perché se non ci accorgiamo di quanto sta accadendo siamo complici inconsapevoli di questo nuovo stile del percepire e del conoscere e dell’abitare fisico e digitale, avendo via via delegato alle piattaforme la nostra capacità di filtrare e contestualizzare i messaggi. La nostra vulnerabilità deriva in buona misura dai nostri comportamenti, ed è per questo che è controproducente attribuirla in toto alle piattaforme.
Se vi è qualcosa da indagare questo non si trova negli algoritmi, ma nel riflesso che quelli offrono delle nostre prassi conoscitive ed esistenziali quotidiane.
Comprendere le piattaforme richiede oggi un’antropologia dell’abitare digitale in grado di studiare non cosa la tecnologia ci fa, ma come noi la abitiamo.
Il vero conflitto non è tra l’essere umano e la macchina, ma tra modelli economici che sfruttano l’engagement (verso cui siamo molto ben disposti, e qui ci sarebbe spazio per una ulteriore indagine semiotica riguardante le forme dell’affettività implicite in questo nostro coinvolgimento personale) e le pratiche di autoregolazione collettiva note come ecologia dell’attenzione (Yves Citton) che propone un modello sistemico di convivenza con i media che ricorda la gestione di un ecosistema fragile.
Si tratta di preservare risorse cognitive, di evitare l’inquinamento informativo e di coltivare tempi di assimilazione critica. Proprio il contrario, quindi, dell’economia dell’engagement – pilastro del capitalismo digitale – che invece trasforma l’attenzione in valore misurato sul profitto, in merce, massimizzando l’interazione attraverso algoritmi predittivi che cortocircuitano la volontà razionale, sostituendo la profondità con la ricompensa dopaminergica, con lo scrolling compulsivo. Se la prima invita a rallentare i ritmi e a una dieta mediatica bilanciata e possibilmente critica e meditativa, la seconda opera come una macchina da cibo-spazzatura per la mente, dove ogni click è una moneta d’oro per le piattaforme.
Vi è tuttavia un luogo dove pensiero e macchina si incontrano, un luogo che andrebbe analizzato grammaticalmente e compreso nella sua epistemologia, o almeno nella sua funzione di agente della conoscenza e dell’azione, ovvero l’interfaccia (fisica e concettuale) con annesso il relativo mito della trasparenza.
Le piattaforme digitali si presentano come spazi neutri, anzi ammantati appunto di trasparenza (concetto da approfondire, certo), ma sono in realtà campi di battaglia epistemologici. L’interfaccia non è un semplice strumento: è un sistema di credenze incorporato, progettato e disegnato, che plasma cosa possiamo vedere, come lo interpretiamo e cosa consideriamo “vero” nonché meritevole di menzione, di ulteriore diffusione.
Mentre l’ecologia dell’attenzione reclama filtri epistemici consapevoli – simili a quelli di un bibliotecario esperto – l’economia dell’engagement celebra l’opacità algoritmica, dove l’unica trasparenza ammessa è quella delle metriche di performance (like, condivisioni, tempo di permanenza). Qui, la conoscenza non è più un processo dialettico ma un flusso ininterrotto di dati fatti emozioni regolato da dispositivi commerciali.
Per superare la dicotomia, la trappola binaria presentata come tale, dobbiamo poter accedere a strumenti in grado di maneggiare la complessità.
L’abitare digitale in chiave culturologica non è né giardino zen né discarica tossica: è un ambiente ibrido, dove competono appunto logiche antagoniste. In realtà ogni sistema contiene il germe del proprio contrario: le nuove piattaforme digitali fatte di flussi super frammentati come la nostra attenzione, di video velocissimi e trend da seguire per pochi giorni, potrebbe diventare un laboratorio per nuove forme di alfabetismo visivo-critico. Il paradosso è che la sopravvivenza dell’ecologia dell’attenzione dipende dalla sua capacità di infettare l’economia dell’engagement, mutandone il codice genetico, ricalibrandola, riorientandola.
Antropologia dell’abitare in rete: tra nomadismo e radicamento
Se l’homo economicus dell’engagement è un cacciatore di dopamine, l’homo ecologicus dell’attenzione assomiglia a un giardiniere paziente. Ma la vera sfida è delineare un terzo archetipo: l’homo reticularis, che trasforma la rete in un habitat esistenziale. Questo soggetto non subisce l’ambiente digitale ma lo abita attivamente, combinando la flessibilità del nomade (saltare tra piattaforme, decodificare linguaggi multipli) con la progettualità del costruttore (creare comunità tematiche, sviluppare protocolli di autodifesa cognitiva). In questa prospettiva, i social media diventano arene di sperimentazione antropologica: ogni like è un atto rituale, ogni algoritmo una mitologia operativa, ogni trend un rito di passaggio collettivo.
L’antropologia dell’abitare in rete deve quindi mappare sia le geografie del potere (chi controlla l’infrastruttura?) sia le pratiche di resistenza quotidiana (come sottrarsi al ricatto dell’iperconnessione senza cadere nel luddismo?).
Sembra in realtà che l’economia dell’engagement, pur essendo a oggi il prodotto più sofisticato dell’homo sapiens nella sua fondante dialettica con l’ambiente di vita (e stiamo aspettando le annunciate rivoluzioni in ogni campo portate dall’Intelligenza artificiale), stia riproducendo dinamiche pre-umane: la lotta per l’attenzione ricorda la competizione per le risorse in una savana primordiale, con gli algoritmi nel ruolo di predatori invisibili. L’ecologia dell’attenzione, d’altro canto, rischia di diventare un lusso da élite, un giardino recintato per pochi eletti. La sfida è trasformare la rete in un commons cognitivo, dove l’engagement non sia misurabile in clic ma in profondità di connessione.
Per farlo, servirà più che un algoritmo: servirà un nuovo mito culturale, capace di sostituire al culto della visibilità un’etica della presenza incarnata.
Il futuro non si predice, si prepara (Edgar Morin). E prepararlo significa progettare interfacce che non ci mostrino solo cosa siamo, ma cosa potremmo diventare.
L’antropologia dell’abitare in rete non è una disciplina accademica ma una pratica collettiva. Richiede di ripensare la tecnologia non come destino ma come materiale da costruzione, dove ecologia ed economia non siano rivali ma poli di una tensione creativa. Se sapremo abitare questa contraddizione, forse trasformeremo il digitale da colonia estrattiva in casa comune.