Machine learning: i dati sono un’opportunità o una minaccia per i governi?
Addentrarsi nella complessità del machine learning aiuta a dare un senso ai dibattiti sul dominio tecnologico, spiegando perché alcuni pensatori ritengono che i dati siano così importanti.
La maggior parte delle discussioni sull'intelligenza artificiale hanno a che fare con l'apprendimento automatico - machine learning -, algoritmi statistici che estraggono relazioni tra i dati. Questi algoritmi fanno delle ipotesi: C'è un cane in questa foto? Questa strategia di scacchi vincerà la partita in dieci mosse? Qual è la parola successiva in questa frase incompleta? Una cosiddetta funzione obiettivo, un mezzo matematico per assegnare un punteggio ai risultati, può premiare l'algoritmo se indovina correttamente. Questo processo è il modo in cui funziona l'IA commerciale. YouTube, ad esempio, vuole mantenere i suoi utenti impegnati a guardare più video in modo che continuino a vedere gli annunci. La funzione obiettivo è progettata per massimizzare il coinvolgimento degli utenti. L'algoritmo cerca di offrire contenuti che mantengano gli occhi dell'utente sulla pagina. A seconda della correttezza di una data ipotesi, l'algoritmo aggiorna il modello che predice ciò a cui l'utente potrebbe rispondere.
La capacità del machine learning di automatizzare questo ciclo di feedback con un intervento umano minimo o nullo ha rimodellato il commercio elettronico. Tale tecnologia un giorno potrebbe consentire la realizzazione di auto a guida autonoma, anche se questo progresso si è rivelato un problema molto più difficile di quanto previsto dagli ingegneri. Lo sviluppo di armi autonome è un problema ancora più difficile. Quando gli algoritmi si imbattono in informazioni davvero inaspettate, spesso non riescono a dar loro un senso. Queste sono solitamente informazioni che un essere umano può facilmente comprendere, ma che il machine learning classifica in modo errato - i cosiddetti "esempi avversari" - possono rovinare il lavoro nel complesso. Ad esempio, gli adesivi in bianco e nero posti su un segnale di stop possono impedire la visione di un'auto a guida autonoma. Queste vulnerabilità suggeriscono ovvi limiti all'utilità dell'intelligenza artificiale in tempo di pace e in tempo di guerra.
Addentrarsi nella complessità dell'apprendimento automatico aiuta a dare un senso ai dibattiti sul dominio tecnologico. Questo spiega perché alcuni pensatori ritengono che i dati siano così importanti. Più dati si hanno, più rapidamente si possono migliorare le prestazioni dell'algoritmo, iterando piccole modifiche su piccole modifiche fino a raggiungere un vantaggio decisivo. Ma l'apprendimento automatico ha i suoi limiti. Per esempio, nonostante gli enormi investimenti delle aziende tecnologiche, gli algoritmi sono molto meno efficaci di quanto si pensi nel convincere le persone a comprare un prodotto quasi identico piuttosto che un altro. Manipolare in modo affidabile le preferenze superficiali è difficile, ma è molto più difficile cambiare le opinioni e le convinzioni profonde delle persone.
I modelli statistici di Netflix sulle inclinazioni e le preferenze dei suoi utenti sono quasi certamente dissimili da quelli di Amazon, anche quando entrambi cercano di modellare le stesse persone alle prese con decisioni simili. Il dominio in un settore dell'intelligenza artificiale, come quello dei brevi video che tengono incollati gli adolescenti allo schermo (un trionfo dell'app TikTok), non si traduce facilmente da un settore all’altro, come quello della creazione di sistemi d'arma autonomi sul campo di battaglia.
Il successo di un algoritmo si basa spesso sugli ingegneri umani che possono tradurre le lezioni in diverse applicazioni piuttosto che sulla tecnologia stessa. Per ora, questi problemi rimangono irrisolti.
I pregiudizi possono anche insinuarsi nel codice. Quando Amazon ha cercato di applicare l'apprendimento automatico al reclutamento, ha addestrato l'algoritmo sui dati dei curricula valutati da reclutatori umani. Di conseguenza, il sistema ha riprodotto i pregiudizi impliciti nelle decisioni degli umani, discriminando i curricula delle donne. Questi problemi possono essere auto-rinforzati. Come ha sottolineato la sociologa Ruha Benjamin, se i responsabili politici utilizzassero l'apprendimento automatico per decidere dove inviare le forze di polizia, la tecnologia potrebbe guidarli ad assegnare più polizia ai quartieri con alti tassi di arresto, inviando così più polizia in aree con gruppi razziali contro i quali la polizia ha dimostrato di avere pregiudizi. Questo potrebbe portare a un maggior numero di arresti che, a loro volta, rafforzerebbero l'algoritmo in un circolo vizioso.
Molti osservatori hanno suggerito che, l'apprendimento automatico dovrebbe aiutare le autocrazie, facilitando un maggiore controllo sul loro popolo. Lo storico Yuval Harari e una serie di altri studiosi sostengono che l'IA "favorisce la tirannia". Secondo questa tesi, l'IA centralizza i dati e il potere, consentendo ai leader di manipolare i cittadini comuni offrendo loro informazioni calcolate per premere i loro "bottoni emotivi". Questo processo di feedback e risposta, che si ripete all'infinito, dovrebbe produrre una forma invisibile ed efficace di controllo sociale. In questo modo, i social media permettono ai governi autoritari di tastare il polso al pubblico e di catturarne il cuore.
Ma queste argomentazioni poggiano su basi incerte. Sebbene le fughe di notizie dall'interno di Facebook suggeriscano che gli algoritmi possono effettivamente guidare le persone verso contenuti radicali, recenti ricerche indicano che gli algoritmi stessi non cambiano ciò che le persone cercano.
Le persone che cercano video estremi su YouTube saranno probabilmente guidate verso ciò che desiderano, ma è improbabile che le persone che non sono già interessate a contenuti pericolosi seguano le raccomandazioni degli algoritmi. Se i feedback nelle società democratiche dovessero diventare sempre più squilibrati, l'apprendimento automatico non sarebbe del tutto colpevole, ma avrebbe solo dato una mano.
Non ci sono prove valide che l'apprendimento automatico consenta quel tipo di controllo mentale generalizzato che svuoterà la democrazia e rafforzerà l'autoritarismo. Se gli algoritmi non sono molto efficaci nel convincere le persone a comprare, probabilmente lo sono molto di più nel far cambiare loro idea su cose che toccano valori strettamente condivisi, come la politica. Le affermazioni secondo cui Cambridge Analytica, una società di consulenza politica britannica, avrebbe impiegato una formula magica per truccare le elezioni presidenziali statunitensi del 2016 a favore di Donald Trump sono state smentite. La presunta salsa segreta fornita dalla società alla campagna di Trump sembrava consistere in tecniche standard di targeting psicometrico - l'uso di indagini sulla personalità per classificare le persone - di utilità limitata.
Come ha spiegato il tecnologo Maciej Ceglowski, il machine learning è "riciclaggio di denaro per i pregiudizi", un "apparato matematico pulito che conferisce allo status quo l'aura dell'inevitabilità logica". Cosa succederà, ad esempio, quando gli Stati inizieranno a usare il machine learning per individuare le lamentele sui social media e rimuoverle? I leader avranno più difficoltà a vedere e a rimediare agli errori politici, anche quando questi danneggiano il regime. Uno studio del 2013 ha ipotizzato che la Cina sia stata più lenta a rimuovere le denunce online di quanto ci si potesse aspettare, proprio perché tali lamentele fornivano informazioni utili alla leadership. Ma ora che Pechino enfatizza sempre di più l'armonia sociale e cerca di proteggere gli alti funzionari, sarà più difficile mantenere questo approccio "hands-off".
I dati possono essere il nuovo petrolio, ma possono inquinare piuttosto che migliorare la capacità di governare.