Prevedere il mondo

Nel 2008 scrivevo su questo blog una cosa intitolata alla Petabyte Age, seguendo le suggestioni di un articolo alquanto provocatorio di Chris Anderson: qui il link.
Là si trattava di riformulare l’epistemologia della scienza, perché nell’epoca odierna dei Big Data e delle capacità computazionali e algoritmiche il procedimento mentale e operativo del descrivere il mondo e prevedere le conseguenze delle modificazioni (roba di scienza, sì) è profondamente cambiato.
Estremizzando, non è più necessario porre una domanda al mondo e formulare un’ipotesi da falsificare, come il metodo scientifico ci insegna.
Semplicemente processando dati, quantità di dati incomprensibili e non analizzabili da pensiero umano (che non riuscirebbe a cogliere nessuna correlazione significativa in essi) è possibile comprendere azioni del mondo, e prevedere i comportamenti dei sistemi complessi. Complessità e semplicità della teoria esplicativa, oppure eleganza, di questo stiamo parlando.
E oggi il discorso torna fuori, trasportato sul piano della ricerca linguistica, nella contrapposizione teorica tra Norvig e Chomsky, per come appare in questo articolo qui pubblicato su Tor.com.
Se parlassimo di fisica classica come qualche secolo fa, oggi Keplero non avrebbe bisogno di porsi il problema dell’orbita dei pianeti, per confutare la loro perfetta circolarità biblica e ipotizzare la forma ellittica: sarebbe sufficiente chiedere a Google le coordinate delle singole posizioni dei pianeti attimo per attimo, e l’ipotesi ellittica emergerebbe semplicemente, come dato della realtà, includendo la prevedibilità dell’evoluzione del sistema.
E se parliamo di grammatiche e di linguaggi, non è più necessario come fece Chomsky cinquant’anni fa ipotizzare strutture generative profonde della mente umana già grammaticalmente orientate, per prevedere quali parole possono occorrere in una frase ancora da pronunciare. Per ogni sequenza di parole, posso statisticamente estrapolare da Internet la parola da aggiungere alla serie, la parola grammaticalmente adeguata, senza conoscere le regole della grammatica, senza possedere preventivamente una teoria riguardo il funzionamento del linguaggio e il significato stesso delle parole che sto utilizzando. L’approccio “Google” non è quello di sviluppare una comprensione più sofisticata del linguaggio, ma quello di raccogliere più dati sul suo funzionamento concreto (quello che si dice e si scrive nel mondo, ora in questo momento) per costruire database migliori, che garantiscano una maggiore predittività.
E’ il sistema che usano i traduttori automatici, i dispositivi di intelligenza artificiale attuali, che si concentrano sugli algoritmi di ricerca e non sulla comprensione delle grammatiche profonde del linguaggio naturale (che non essendo appunto un linguaggio formale, è in sé contradditorio, non sistematizzabile né descrivibile stando all’interno dello stesso. E uscire dal linguaggio per parlare del linguaggio è epistemologia squisita).
E’ necessaria la comprensione umana per stabilire la prevedibilità di un fenomeno? Se la risposta è no, allora la figura dello scienziato va profondamente rivista.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *