Come l'intelligenza artificiale distorce il processo decisionale: in pericolo le democrazie, più forti i regimi autoritari

Le discussioni sull'intelligenza artificiale contrappongono invariabilmente stati come la Cina e gli Stati Uniti in una gara per la supremazia tecnologica. Se la chiave di volta sono i dati, la Cina, con il suo miliardo di cittadini e le sue protezioni poco rigorose contro la sorveglianza statale, sembra destinata a vincere.

Come l'intelligenza artificiale distorce il processo decisionale: in pericolo le democrazie, più forti i regimi autoritari

Kai-Fu Lee, un famoso informatico, ha affermato che i dati sono il nuovo petrolio e la Cina la nuova OPEC. Tuttavia, se è la tecnologia superiore a fornire il vantaggio, gli Stati Uniti, con il loro sistema universitario di eccellenza e la talentuosa forza lavoro, hanno ancora la possibilità di vincere.

Ma pensare all'intelligenza artificiale in termini di gara per il dominio non tiene conto dei modi più fondamentali in cui essa sta trasformando la politica globale. L'intelligenza artificiale non trasformerà la rivalità tra le potenze tanto quanto trasformerà i rivali stessi. Gli Stati Uniti sono una democrazia, mentre la Cina è un regime autoritario, e tecnologie come il machine learning o apprendimento automatico sfidano ogni sistema politico in maniera diversa.

Le sfide alle democrazie sono fin troppo visibili. L'apprendimento automatico può aumentare la polarizzazione, ovvero la manipolazione del mondo online per promuovere la divisione politica. In futuro potrà sicuramente contribuire alla disinformazione, generando fake speech convincenti su larga scala.

Nelle autocrazie, le sfide saranno più sottili, ma probabilmente più corrosive.

In entrambe le forme di governo, i governi emanano politiche e poi cercano di capire se queste hanno avuto successo o sono fallite. Nelle democrazie, l’opinione pubblica e il sistema elettorale forniscono un potente feedback sul funzionamento di un determinato approccio. Al contrario, i sistemi autoritari hanno avuto storicamente difficoltà ad ottenere un feedback effettivo. Prima dell'era dell'informazione, si affidavano non solo all'intelligence interna, ma anche a petizioni e sondaggi d'opinione clandestini per cercare di capire cosa pensassero i loro cittadini.

Ora, tecnologie come il machine learning stanno sconvolgendo le forme tradizionali di feedback democratico, poiché nelle democrazie esse facilitano la disinformazione e peggiorano i pregiudizi esistenti, prendendo i pregiudizi nascosti nei dati e trasformandoli con sicurezza in affermazioni errate.

Per gli autocrati che brancolano nel buio, invece, il machine learning appare come una risposta alle loro preghiere. Questa tecnologia può dire ai governanti se ai loro sudditi piace quello che stanno facendo senza il fastidio dei sondaggi o i rischi politici dei dibattiti aperti e delle elezioni. Per questo motivo, molti osservatori temono che i progressi dell'intelligenza artificiale non faranno altro che rafforzare la mano dei dittatori, consentendo loro di controllare ulteriormente le società.

In prima battuta, infatti, i dati sembrano fornire misure oggettive che spiegano il mondo e i suoi problemi, senza i rischi politici e gli inconvenienti delle elezioni o dei media liberi. Ma non esiste un processo decisionale privo di politica. La confusione della democrazia e il rischio di processi di feedback squilibrati sono evidenti a chiunque presti attenzione alle dinamiche elettorali. Le autocrazie soffrono di problemi simili, anche se meno percepibili nell’immediato. I funzionari che inventano numeri o i cittadini che rifiutano di trasformare la loro rabbia in proteste, su larga scala possono avere gravi conseguenze, rendendo più probabili decisioni sbagliate nel breve periodo e più probabile il fallimento del regime nel lungo periodo.

La disinformazione alimentata dall'intelligenza artificiale può avvelenare le democrazie e le autocrazie.