Il “primo” ministro IA, sarà il ministro più corrotto di sempre?
20 Settembre 2025Il futuro è oggi! L’Albania ha sperimentato l’uso di un’«intelligenza artificiale» con ruolo simbolico nel governo. Presentato un’assistente virtuale chiamata Diella come «ministro» digitale con l’obiettivo dichiarato di migliorare la trasparenza e contrastare la corruzione nella gestione di servizi e gare pubbliche. L’iniziativa ha quindi suscitato critiche sulla mancanza di responsabilità umana e sulla trasparenza delle decisioni dell’IA.
È ben evidente a chi ha anche solo una volta, utilizzato delle IA, che esiste il rischio che chi progetta o controlla l’algoritmo lo configuri per favorire certi operatori, per esempio occultando regole di esclusione o prendendo scelte che avvantaggiano un fornitore specifico.
Evidente è poi la mancanza di trasparenza, tanto che molti modelli complessi non spiegano chiaramente il perché di una scelta, il che rende difficile verificare decisioni critiche come l’assegnazione di un appalto. Studi medici e di auditing mostrano che sistemi automatizzati impiegati senza controlli umani hanno prodotto falsi positivi/negativi rilevanti.
Ed infine il vero problema: la dipendenza dal fornitore e conflitto di interessi.
Se un’IA che decide o suggerisce scelte pubbliche è sviluppata e controllata da una singola azienda privata, c’è il rischio che il fornitore crei un monopolio o, nell’ipotesi più lieve, di conflitti di interesse.
Le decisioni chiave quindi potrebbero riflettere priorità commerciali e non interessi pubblici, ritornando dunque alla corruzione che in primis la manovra cerca di limitare.
In uno scenario dove anche in Italia si possa arrivare all’utilizzo di tali ia, bisogna sempre ricordare che secondo l’IA act europeo: perché un’IA possa davvero contribuire a ridurre la corruzione è fondamentale mettere in atto regole e garanzie concrete.
1. Responsabilità umana chiara: decisioni vincolanti devono essere sempre firmate o validate da persone fisiche identificate; l’IA deve supportare, non sostituire, la responsabilità pubblica.
2. Trasparenza e spiegabilità: rendere disponibili i criteri, i dati di addestramento e le logiche usate per le decisioni automatiche; usare modelli interpretabili dove possibile.
3. Audit indipendenti: sottoporre algoritmi e dataset ad audit esterni e periodici, compresi test per identificare manipolazioni o bias.
4. Appalti aperti e regolarizzazione del software: preferire soluzioni aperte e specificare contratti e che definiscano clausole etiche e di responsabilità.
5. Controlli su conflitti d’interesse: vietare che soggetti coinvolti nella progettazione/fornitura dell’IA abbiano anche vantaggi diretti nelle gare che l’IA valuta.
Dopo quindi aver creato una linea guida internazionale, uffici che controllino l’operato dell’IA e infinite altre infrastrutture e burocrazia, è davvero una soluzione contro la corruzione?
L’IA non è una bacchetta magica: i rischi di manipolazione algoritmica, mancanza di trasparenza, dipendenza da fornitori privati e uso illecito restano concreti.


