Tiscali.it
SEGUICI

Il pulsante rosso per scatenare la Terza Guerra Mondiale affidato a un’intelligenza artificiale

Al sistema gli esperti militari americani vorrebbero cedere i codici di lancio dell’intero arsenale nucleare

di Roberto Zonca   
Il pulsante rosso per scatenare la Terza Guerra Mondiale affidato a un’intelligenza artificiale

C’è chi vorrebbe il mondo libero da qualsiasi arma di distruzione di massa e chi, invece, sogna di poter mettere tutto l’arsenale nucleare in mano ad un’intelligenza artificiale. Questa avrebbe il compito di reagire autonomamente in caso di attacco nemico. Quali siano i criteri di valutazione adottati dall’AI non è dato saperlo, sta di fatto che in tanti si domandano come possa un’entità artificiale comprendere la differenza tra un incidente e un vero e proprio attacco nemico. L’obiettivo dei militari è quello di azzerare, o quantomeno ridurre ai minimi termini, il tempo di reazione a disposizione dei vertici militari di ogni governo per rispondere a un eventuale attacco nucleare.

E dunque, bombardieri invisibili, missili supersonici con testata termonucleare e tutti gli altri sistemi d’arma, dovrebbero essere gestiti da un computer con il massimo grado di autorizzazione. I primi sostenitori di questa folle idea sono due consulenti dell'U.S. Air Force, Adam Lowther e Curtis McGiffin. Solo in questo modo, precisano, l’America sarà realmente in grado di scongiurare degli attacchi diretti o delle potenziali minacce. Al sistema intelligente sarebbe consentito persino di gestire le truppe, valutando in totale autonomia sé e quando spostarle verso i confini di un Paese ostile.

Benché la tecnologia sul fronte delle AI abbia fatto dei passi in avanti impressionanti c’è chi, e sono tanti, non manca di rimarcare quanto accaduto il 26 settembre del 1983 nella ex Unione Sovietica. All’epoca, i sistemi di sorveglianza missilistica URSS, rilevarono il lancio di cinque missili lanciati probabilmente dagli americani contro il territorio sovietico. Il tenente colonnello Stanislav Petrov, dell’esercito dell’ex Unione Sovietica, avrebbe dovuto reagire alla notifica del sistema pigiando il bottone rosso che avrebbe scatenato una guerra nucleare. Per fortuna quell’uomo esitò, e la vicenda si concluse con un nulla di fatto: le rilevazioni del sistema semi-automatico erano completamente sbagliate, Petrov salvò il pianeta dalla Terza Guerra Mondiale. C’è da domandarsi se, a distanza di 36 anni, i sistemi autonomi sono diventati più sicuri. Cosa farebbe una AI, oggi, nel caso in cui dei sensori andati in tilt segnalassero l’arrivo di 5 missili?

Neppure Michael Horowitz, avvocato americano e funzionario del governo, nonché ispettore generale del Dipartimento di giustizia degli Stati Uniti ed esperto di innovazione militare, sembra completamente certo di voler affidare ad una intelligenza artificiale tutto questo potere decisionale. Il problema è che l’uomo considera i “computer” infallibili. Tale condizione, chiamata automation bias, ossia la propensione per gli esseri umani a favorire i suggerimenti provenienti dai sistemi decisionali automatizzati, ignorando le informazioni contraddittorie prodotte senza automazione (anche se corrette), viene confermata da una moltitudine di studi.

Horowitz sottolinea inoltre un problema. Per funzionare correttamente un sistema di AI militare dovrebbe essere istruito, attraverso una infinità di dati relativi a casi e situazioni differenti. Come si può dunque prepararlo se non esiste una casistica di questo tipo? La soluzione messa sul tavolo dagli scienziati si baserebbe soltanto su simulazioni poco affidabili, e ricorda non poco un film di fantascienza risalente al 1983 che - nel suo genere - ha fatto certamente la storia: Wargames. Siamo certi di voler rischiare il futuro del mondo e dell’intera umanità in questo modo?

di Roberto Zonca   

I più recenti

Fondazione Fair, 12 milioni alle imprese che investono nella IA
Fondazione Fair, 12 milioni alle imprese che investono nella IA
8 marzo: Alexa risponderà agli insulti con i dati di ActionAid
8 marzo: Alexa risponderà agli insulti con i dati di ActionAid
Wikipedia declassa affidabilità sito dopo errori per uso dell'IA
Wikipedia declassa affidabilità sito dopo errori per uso dell'IA
Cybercrime, falsi messaggi vocali per ingannare gli utenti
Cybercrime, falsi messaggi vocali per ingannare gli utenti
thunderbird

Le Rubriche

Michael Pontrelli

Giornalista professionista ha iniziato a lavorare nei nuovi media digitali nel...

Alice Bellante

Laureata in Scienze Politiche e Relazioni Internazionali alla LUISS Guido Carli...

Sergio d'Arpa

Esperto di supercalcolo, fondatore e CEO di Klinik Sankt Moritz AG, la prima...

Simone Trebbi

Racconta imprese innovative e sostenibili, capaci di avere un impatto concreto...

Carlo Occhinegro

Scrive di storie dell'innovazione, dei protagonisti del mondo dell'imprenditoria...

eNews

Notizie e riflessioni sul mondo digitale.

Innova Italia

Storie, persone, idee del mondo imprenditoriale italiano che guarda al futuro