L'intelligenza artificiale potrebbe generare il caos: ecco chi è al lavoro per impedirlo
Uno dei rischi più sottovalutati è la manipolazione degli algoritmi da parte degli hacker. Negli Stati Uniti la DARPA è al lavoro per aumentare il livello di sicurezza

Lo sviluppo impetuoso dell’intelligenza artificiale fino ad ora ha generato stupore e grandi aspettative per il futuro. Le uniche perplessità riguardano i timori che possa sostituire gli esseri umani nello svolgimento di numerose mansioni lavorative, pochissimi però sottolineano quella che probabilmente è la criticità numero uno: il rischio che venga sabotata dagli hacker con conseguenze devastanti per la sicurezza delle persone.
Ripercorrere quanto accaduto con internet è molto istruttivo. L’avvento del web ha comportato la nascita di nuovi servizi e nuovi professioni ma anche la diffusione di nuove attività criminali digitali che le autorità stentano a contrastare.
Gli algoritmi guidano ormai non solo molti aspetti legati all’intrattenimento (i contenuti che leggiamo sui social o i film che guardiamo nelle piattaforme di streaming, solo per citare due esempi) ma hanno un ruolo sempre più importante anche in attività più serie come quelle legate alla salute o al governo delle città (smartcities). Ci affidiamo ai sistemi automatizzati per prendere decisioni e governare attività delicate con enormi potenziali conseguenze nel caso in cui qualcosa andasse storto.
Cosa accadrebbe (per esempio) se un'auto senza conducente venisse indotta a superare i segnali di stop o un dispositivo medico intelligente venisse spinto a fare una diagnosi sbagliata? E cosa accadrebbe in caso di manipolazione di un sistema di sicurezza o di erogazione di un servizio pubblico essenziale? Sono solo alcune domande che ci aiutano a capire il problema.
La realtà (di cui raramente si parla) è che i sistemi di intelligenza artificiale possono essere ingannati e indotti a prendere decisioni sbagliate o addirittura pericolose.
“Negli ultimi anni abbiamo riposto sempre più fiducia nelle decisioni prese dall'AI e ora la preoccupazione è che la tecnologia su cui facciamo sempre più affidamento possa diventare l'obiettivo di attacchi quasi invisibili, con conseguenze molto visibili nel mondo reale. E mentre questi attacchi sono rari in questo momento, gli esperti si aspettano che ne accadranno molti di più man mano che l'intelligenza artificiale diventerà più comune” ha spiegato Danny Palmer, editor di Zdnet.com.
Palmer ha spiegato che negli Stati Uniti un esercito di esperti sta già lavorando nell’ombra per prevenire che questo lato oscuro dell’intelligenza artificiale sfugga di mano. Sono gli uomini di un programma ad hoc sviluppato presso la Defense Advanced Research Projects Agency (DARPA), l'ente di ricerca e sviluppo del Dipartimento della Difesa degli Stati Uniti.
Non è un caso che in prima linea ci sia proprio la DARPA perché è evidente che la manipolazione dell’intelligenza artificiale sul fronte civile potrebbe generare il caos ma su quello militare potrebbe portare all’apocalisse.
Obiettivo del progetto è quello di garantire che l'intelligenza artificiale e gli algoritmi siano sviluppati in modo da essere protetti da tentativi di manipolazione, manomissione, inganno o qualsiasi altra forma di attacco.
"Man mano che l'intelligenza artificiale diventa sempre più comune, ovvero viene utilizzata in un numero crescente di settori, aumenta la dimensione della superficie di attacco. Quindi vogliamo dare a tutti l'opportunità di difendersi" ha spiegato un ricercatore della DARPA.
Le preoccupazioni per gli attacchi all'intelligenza artificiale non sono nuove ma parallelamente al progresso della tecnologia sta anche crescendo la comprensione di come gli algoritmi di deep learning possano essere ingannati apportando modifiche lievi, ma impercettibili, che portano a una classificazione errata di ciò che l'algoritmo sta esaminando. Lo scopo dell'attacco di un hacker potrebbe essere dunque quello di apportare una piccola modifica all’input degli algoritmi per provocare un grande cambiamento all’output.
Tra i casi più noti figura l’inganno dei sistemi a guida autonoma. Semplici adesivi sistemati sui cartelli stradali possono indurre l’intelligenza artificiale a commettere degli errori e, per esempio, a scambiare un segnale di stop per un segnali di limite di velocità.
E’ evidente che la posta in gioco è molto alta e che il vecchio principio della dualità o polarità vale anche per l’avvento dell’intelligenza artificiale: il bene e il male sono due facce della stessa medaglia. Nonostante qualcuno si sforzi tanto per farcelo credere, la AI non creerà solamente opportunità e vantaggi per l’umanità ma anche tanti nuovi problemi.