L’illusione della bussola. Come l’intelligenza artificiale ha cambiato il modo di cercare e sapere

96

di Giovanni Di Trapani

Negli ultimi anni, il modo in cui accediamo alla conoscenza è cambiato in modo silenzioso ma radicale. Abbiamo delegato ai motori di ricerca il compito di orientare il mondo per noi, fidandoci del loro ordine invisibile. Eppure, ogni sistema di ranking è prima di tutto un modo per dare forma alla complessità: decide cosa viene prima, cosa dopo, cosa scompare. Il PageRank di Google, alla fine degli anni Novanta, fu un’idea semplice e geniale: ogni pagina era valutata in base ai link che riceveva, non per ciò che diceva ma per quanto fosse centrale nella rete. Era un criterio di connessione, non di contenuto, ma sufficiente a trasformare il caos del web in una mappa navigabile. Tuttavia, come in tutti i sistemi complessi, il vantaggio si concentrò presto in pochi nodi: chi era visibile divenne sempre più visibile. La rete, nata per essere orizzontale, divenne una piramide.

Per anni i motori di ricerca hanno funzionato come filtri: selezionavano, organizzavano, proponevano alternative. Ma con l’arrivo dei modelli linguistici di grande scala – i cosiddetti LLM – qualcosa è cambiato di natura. Non ci troviamo più davanti a strumenti che ordinano informazioni, ma a sistemi che le generano. Un motore di ricerca mostra dieci link; un LLM scrive direttamente la risposta. E la scrive non perché la “conosca”, ma perché statisticamente quella sequenza di parole è la più probabile. È una simulazione di sapere: il modello non comprende, prevede. Non valuta la verità, ma la coerenza linguistica. L’affidabilità non è contemplata: non perché trascurata, ma perché fuori dal suo dominio. Il linguaggio diventa il criterio unico della plausibilità, e la forma prende il posto della sostanza.

È in questo passaggio che nasce la vera ambiguità. Si parla di strumenti “abilitanti”, di intelligenze artificiali capaci di democratizzare la conoscenza. Ma ciò che si democratizza non è la comprensione, è la produzione di linguaggio. Chiunque può generare testi che suonano autorevoli, anche senza competenze reali. Il rischio non è l’errore, ma la certezza che lo accompagna. Quando la forma è impeccabile, l’errore si maschera da verità. È una condizione che potremmo chiamare epistemia: la malattia del sapere, la certezza senza fondamento. In questa cornice, il linguaggio conserva la parvenza del pensiero, ma ne perde la sostanza. È un sapere senza attrito, senza verifica, senza dubbio.
La cosa più paradossale è che oggi persino i motori di ricerca iniziano a comportarsi come modelli linguistici. Offrono risposte uniche e sintetiche, cancellando il gesto della scelta. Il filtro diventa decisione. E ogni volta che accettiamo quella risposta, rinunciamo a una piccola parte della nostra autonomia cognitiva. È l’illusione della bussola: credere che la direzione sia data, quando in realtà è imposta.
Poi ci sono i tentativi di controllo: gli AI detector che provano a distinguere testi umani da testi artificiali. Ma sono armi spuntate. Un algoritmo non può smascherarne un altro, perché entrambi operano sullo stesso piano statistico. Si finisce così per discutere di stile, non di contenuto; di forma, non di senso. E mentre ci si interroga su chi ha scritto, si dimentica di chiedersi cosa è stato scritto.
La questione, dunque, non è tecnica ma culturale. Gli LLM non vanno vietati né idolatrati, ma compresi. Possono essere strumenti straordinari se usati per rifinire, mai per sostituire il pensiero. La loro forza è linguistica, non cognitiva. Usarli con consapevolezza significa mantenere il controllo sul significato, esercitare la verifica, preservare il dubbio. Perché se la forma precede la sostanza, se il testo esiste ma il pensiero no, allora la conoscenza diventa pura superficie, e la bussola non serve più a orientarsi, ma solo a girare in tondo.