Intelligenza artificiale e indagini: quando la tecnologia diventa una scelta di politica economica

47

Sicurezza, spesa pubblica e sovranità digitale: perché l’AI investigativa non è solo una questione tecnica

di Giovanni Di Trapani

L’intelligenza artificiale sta entrando in modo silenzioso ma strutturale nel cuore delle attività investigative. Analisi automatizzata dei dati, correlazioni tra informazioni eterogenee, individuazione di pattern invisibili all’occhio umano: l’AI promette efficienza, velocità e capacità predittiva. Ma proprio nel momento in cui diventa davvero utile, smette di essere un semplice strumento operativo e si trasforma in qualcosa di diverso: un’infrastruttura di potere. Ed è qui che il tema smette di essere tecnologico e diventa pienamente economico e istituzionale.

Nel dibattito pubblico l’AI è spesso raccontata come un’estensione neutrale delle capacità umane. Nelle indagini, invece, assume una funzione decisiva: produce output che possono orientare scelte investigative e, potenzialmente, incidere sul piano probatorio. Questo passaggio di scala impone una domanda preliminare: chi governa l’intelligenza artificiale che governa i dati? E soprattutto: con quali regole, quali garanzie e quali effetti di lungo periodo sulla spesa pubblica e sulla sovranità decisionale dello Stato?

Il primo nodo è giuridico, ma le sue conseguenze sono economiche. L’AI corre più veloce del diritto. Mancano ancora cornici normative pienamente consolidate che definiscano in modo chiaro come gli esiti prodotti da sistemi di intelligenza artificiale possano essere utilizzati in un processo, come debbano essere verificati, contestati, resi trasparenti nella dialettica tra accusa e difesa. Senza queste garanzie, il rischio è quello di affidarsi a strumenti efficienti sul piano operativo ma fragili su quello istituzionale. Un paradosso che può tradursi in contenziosi, incertezza giuridica e, non ultimo, in costi indiretti per il sistema pubblico. Ma il punto più delicato riguarda i dati. Le indagini lavorano su informazioni sensibili, spesso coperte da segreto investigativo, che descrivono relazioni, comportamenti, profili di vita. L’AI, per funzionare, deve essere addestrata e istruita. Questo significa selezionare basi dati, criteri di apprendimento, priorità analitiche. Non esistono modelli universalmente validi: ogni sistema giudiziario incorpora una propria cultura della prova, una propria idea di responsabilità e di garanzia. Utilizzare soluzioni esterne, progettate altrove, significa importare implicitamente logiche e visioni che non sempre coincidono con quelle dell’ordinamento nazionale.

Emerge, allora, un tema centrale, quello della sovranità digitale, spesso evocato ma raramente declinato in modo concreto. Affidare l’AI investigativa a fornitori esterni non è una scelta neutrale: equivale a creare una dipendenza tecnologica strutturale. Anche quando i contratti promettono sicurezza e riservatezza, resta un’asimmetria di fondo. Chi progetta il sistema ne conosce l’architettura profonda, le logiche di funzionamento, i margini di intervento. Chi lo utilizza, invece, si affida a una “scatola nera” che diventa progressivamente indispensabile. Da un punto di vista economico, questo meccanismo genera lock-in tecnologico. L’intelligenza artificiale non si acquista una volta sola: richiede aggiornamenti continui, riaddestramento dei modelli, integrazione con altri sistemi, formazione del personale. Ogni scelta iniziale orienta flussi di spesa pubblica per anni, talvolta per decenni. In assenza di una strategia pubblica chiara, l’innovazione rischia di trasformarsi in una sommatoria di appalti, con rendite tecnologiche concentrate e margini di manovra sempre più ridotti per l’amministrazione.

L’alternativa esiste, ma richiede una visione di politica industriale. Trattare l’intelligenza artificiale investigativa come infrastruttura critica, al pari delle reti energetiche o dei sistemi di comunicazione strategici, significa investire in soluzioni proprietarie, sviluppate e governate a livello nazionale o almeno europeo. Sistemi progettati per essere verificabili, auditabili, contestabili in sede giudiziaria. Sistemi che non solo proteggano i dati dall’accesso esterno, ma rendano trasparente il loro stesso funzionamento all’interno del processo. La storia recente dimostra che le scorciatoie tecnologiche presentano sempre un conto. In passato, l’adozione di strumenti avanzati senza una piena padronanza ingegneristica e normativa ha prodotto dipendenze difficili da sciogliere e zone d’ombra nella gestione di dati delicatissimi. Ripetere lo stesso schema con l’intelligenza artificiale significherebbe amplificare quegli errori su una scala molto più ampia, perché l’AI non si limita a raccogliere informazioni: le interpreta.

La questione, dunque, non è se usare o meno l’intelligenza artificiale nelle indagini. Quel passaggio è già avvenuto. La vera scelta riguarda come usarla e chi ne detiene il controllo. Senza una governance solida, l’AI rischia di diventare un fattore di opacità istituzionale e di dipendenza economica. Con una governance lungimirante, può invece rafforzare la capacità dello Stato di analizzare, decidere e agire in modo razionale. Governare l’intelligenza artificiale nelle indagini non significa rallentare l’innovazione, ma renderla sostenibile, controllabile e coerente con l’interesse pubblico. In caso contrario, il rischio non è solo tecnologico o giuridico: è economico e strategico. Perché un Paese che delega la propria capacità di analisi e decisione delega anche una parte del proprio futuro.