
Una nuova parola: si parla di epistemìa (Quattrociocchi) come della difficoltà di distinguere tra ciò che sembra conoscenza e ciò che lo è veramente. Ovviamente, stiamo parlando delle “verità” e della realtà che ci restituiscono le IA basate su LLM che agiscono come pappagalli stocastici, schemi statistici ricavati dai miliardi di testi consultati, ovvero ripetendo quanto parola per parola si rivela più probabile nella composizione di una frase “ben formata” (le idee verdi dormono furiosamente) e con una logica interna e un significato coerente all’interrogazione.
No, qui non ho intenzione di entrare nella querelle scientifico-filosofica relativa all’intenzionalità del parlante, alla “coscienza” della macchina”, al senso del suo pronunciare sentenze senza evidentemente possedere nozioni contestuali.
Qui la questione è pragmatica, ovvero ragiono delle conseguenze del nostro avere a che fare con un mondo dove i nostri millenari (per non dire milioni anni) strumenti mentali percettivi cognitivi per stabilire in modo socialmente condiviso quali siano i parametri per stabilire cosa sia la verità e la realtà scompaiono, e il vero tumulto avrà luogo nella coesione sociale e nella psicologia individuale.
I testi e i ragionamenti delle IA sembrano credibili e autorevoli, anche quando sono sbagliati: non rivelano disinformazione, sembrano scritti bene, e solo se conosciamo personalmente dei fatti o gli argomenti trattati possiamo controbattere, e tipicamente qui le IA fanno un passo indietro, e riformulano. Ma se non possiedo competenze su quegli argomenti, allora non mi pongo domande, non coltivo il dubbio, prendo tutto per buono senza esercitare la mia capacità critica – e teniamo presente che le IA in qualche modo tendono a confermare le mie convinzioni, desumendo già un orientamento della domanda a partire dallo stile linguistico (implicazioni, assunzioni, incassamenti) con cui questa è posta.
Alla fine io credo di imparare, ma sono solo esposto a una rappresentazione (simulazione, simulacro) del sapere, e sempre di più abdicando alle mie facoltà critiche resterò circuìto dalla perfetta risposta datami in quattro secondi e rinuncerò a verificare le fonti e la plausibilità, mi dimentico che la IA non capisce cosa sta dicendo.
Tra pochi anni tutto qui potrà essere falso (simulazione, simulacro, rappresentazione), e noi vivremo costantemente nello scetticismo più radicale, anche rispetto quanto ci dicono gli altri. Nulla può essere ritenuto “vero”, in un mondo dove la rappresentazione è ovunque e praticamente indistinguibile.
Un conto sono le cose, un conto sono le narrazioni sulle cose.
Io non posso fare esperienza della tua esperienza, posso solo fare esperienza dei tuoi comportamenti (nel linguaggio) scommettendo su un codice nella correlazione tra la tua esperienza e il tuo comportamento: se quel comportamento, quel linguaggio, è emesso da qualcuno senza esperienza (una IA) tutta la scommessa e la fiducia sono infondate.
Nello scetticismo radicale non posso dar credito a nulla, a nessuna realtà fenomenica (e non posso reintrodurre concetti di “Dio, Anima, Mondo”, sorry Cartesio). Non avrò più una base condivisa per azioni interpersonali o comunitarie, perché manterrò sempre una distanza da tutto e tutti. Starò in silenzio, perché se la discussione non risolve più nulla, non vi sarà scopo nel parlare e nel costruire relazioni; perdo la connessione con le persone e gli eventi, perdo interesse e nutro l’indifferenza, se non addirittura diffidenza verso chiunque e verso qualsiasi istituzione, che non potrà più conquistarsi la mia fiducia. Immancabilmente cresceranno ostilità e violenza interpersonale, per imporre il proprio punto di vista sugli altri. La democrazia stessa richiede fiducia, e non l’avremo.
La realtà sta crollando, e avremo rapidamente bisogno di “certificatori di realtà”, meccanismi sociali o istituzioni, processi di validazione della realtà degli accadimenti e del loro significato dentro negoziazioni e patteggiamenti, fuori da procedure facilmente manipolabili dalla tecnocrazia.
