Tiscali.it
SEGUICI

“Fermiamo l’intelligenza artificiale prima che sia troppo tardi”. L’appello di Musk e di migliaia di esperti

La lettera è stata pubblicata sul sito del Future of Life Institute

TiscaliNews   
“Fermiamo l’intelligenza artificiale prima che sia troppo tardi”. L’appello di Musk e di migliaia di esperti

Elon Musk e migliaia di esperti hanno deciso di scrivere un appello per chiedere lo stop, per almeno 6 mesi, allo sviluppo dell’intelligenza artificiale, e per chiedere che esso venga regolamentato per impedire che finisca fuori controllo e metta a rischio la nostra stessa civiltà. La lettera è stata pubblicata online sul sito del Future of Life Institute, un’organizzazione nata nel 2015 per indirizzare le tecnologie dirompenti in grado di trasformare il mondo.

Tra i firmatari non solo il fondatore di Tesla ma anche alcuni dei maggiori esperti di AI ed intellettuali del mondo tra cui il co-fondatore di Apple, Steve Wozniak e lo storico Yuval Noah Hararie.

Sotto il testo integrale della lettera e il link per aderire alla petizione.

METTIAMO IN PAUSA GLI ESPERIMENTI DI INTELLIGENZA ARTIFICIALE: UNA LETTERA APERTA 

Chiediamo a tutti i laboratori di intelligenza artificiale di sospendere immediatamente per almeno 6 mesi l'addestramento di sistemi di intelligenza artificiale più potenti di GPT-4.

I sistemi di intelligenza artificiale possono comportare gravi rischi per la società e l'umanità, come dimostrato da ricerche scientifiche approfondite. Come affermato nei Principi di Asilomar sull’intelligenza artificiale (un vademecum scritto da 800 esperti ndr) “la AI avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cure e risorse adeguate". 

Sfortunatamente, questo livello di pianificazione e gestione non sta accadendo, anche se negli ultimi mesi i laboratori di intelligenza artificiale sono stati bloccati in una corsa fuori controllo per sviluppare e implementare menti digitali sempre più potenti che nessuno, nemmeno i loro creatori, possono capire, prevedere o controllare in modo affidabile.

I sistemi di intelligenza artificiale contemporanei stanno ora diventando competitivi per l'uomo in compiti generali e dobbiamo chiederci: dovremmo lasciare che le macchine inondino i nostri canali di informazioni con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli soddisfacenti? Dovremmo  sviluppare menti non umane che alla fine potrebbero sostituirci? Dovremmo rischiare di perdere il controllo della nostra civiltà? 

Tali decisioni non devono essere delegate a leader tecnologici non eletti. Potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili. Questa fiducia deve essere ben giustificata e aumentare con l'entità degli effetti potenziali di un sistema. 

La recente dichiarazione di OpenAI sull'intelligenza artificiale generale afferma che "Ad un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare ad addestrare i sistemi futuri e, per gli sforzi più avanzati, concordare di limitare il tasso di crescita del calcolo utilizzato per creare nuovi Modelli." Siamo d'accordo. Quel punto è adesso.

Pertanto, invitiamo tutti i laboratori di intelligenza artificiale a sospendere immediatamente per almeno 6 mesi l'addestramento di sistemi di intelligenza artificiale più potenti di GPT-4 . Questa pausa dovrebbe essere pubblica e verificabile e includere tutti gli attori chiave. Se una tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria.

I laboratori di intelligenza artificiale e gli esperti indipendenti dovrebbero sfruttare questa pausa per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo avanzati di intelligenza artificiale, rigorosamente verificati e supervisionati da esperti esterni indipendenti. Questi protocolli dovrebbero garantire che i sistemi che vi aderiscono siano sicuri oltre ogni ragionevole dubbio. [Ciò non significa una pausa nello sviluppo dell'IA in generale, ma semplicemente un passo indietro dalla pericolosa corsa a modelli black-box sempre più grandi e imprevedibili con capacità emergenti.

La ricerca e lo sviluppo dell'IA dovrebbero essere riorientati per rendere i sistemi potenti e all'avanguardia di oggi più accurati, sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali.

Parallelamente, gli sviluppatori di intelligenza artificiale devono collaborare con i responsabili politici per accelerare drasticamente lo sviluppo di solidi sistemi di governance dell'IA. Questi dovrebbero come minimo includere: autorità di regolamentazione nuove e capaci dedicate all'IA; supervisione e tracciamento di sistemi di intelligenza artificiale altamente capaci e ampi pool di capacità computazionali; sistemi di provenienza e watermarking per aiutare a distinguere il reale dal sintetico e per tenere traccia delle fughe di modelli; un solido ecosistema di audit e certificazione; responsabilità per danni causati dall'IA; solidi finanziamenti pubblici per la ricerca tecnica sulla sicurezza dell'IA; e istituzioni dotate di risorse adeguate per far fronte alle drammatiche perturbazioni economiche e politiche (soprattutto per la democrazia) che l'IA causerà.

L'umanità può godere di un futuro fiorente con l'IA. Dopo essere riusciti a creare potenti sistemi di intelligenza artificiale, ora possiamo goderci un'"estate di intelligenza artificiale" in cui raccogliamo i frutti, progettiamo questi sistemi per il chiaro vantaggio di tutti e diamo alla società la possibilità di adattarsi. La società ha messo in pausa altre tecnologie con effetti potenzialmente catastrofici sulla società. Possiamo farlo qui. Godiamoci una lunga estate AI, non precipitiamoci impreparati in una caduta.

Il link per aderire alla petizione online 

 

TiscaliNews   
I più recenti
Gli scienziati stanno usando l'intelligenza artificiale per capire il linguaggio dei cani
Gli scienziati stanno usando l'intelligenza artificiale per capire il linguaggio dei cani
Intelligenza artificiale e lavoro: come cambia, come dobbiamo cambiare noi. La diretta streaming
Intelligenza artificiale e lavoro: come cambia, come dobbiamo cambiare noi. La diretta streaming
La Trasformazione del Lavoro nell'Era dell'Intelligenza Artificiale: paure e opportunità in...
La Trasformazione del Lavoro nell'Era dell'Intelligenza Artificiale: paure e opportunità in...
Gli uccelli immaginati dall'intelligenza artificiale sono incredibili: il video
Gli uccelli immaginati dall'intelligenza artificiale sono incredibili: il video
thunderbird
Le Rubriche

Michael Pontrelli

Giornalista professionista ha iniziato a lavorare nei nuovi media digitali nel...

Alice Bellante

Laureata in Scienze Politiche e Relazioni Internazionali alla LUISS Guido Carli...

Sergio d'Arpa

Esperto di supercalcolo, fondatore e CEO di Klinik Sankt Moritz AG, la prima...

Simone Trebbi

Racconta imprese innovative e sostenibili, capaci di avere un impatto concreto...

Carlo Occhinegro

Scrive di storie dell'innovazione, dei protagonisti del mondo dell'imprenditoria...

eNews

Notizie e riflessioni sul mondo digitale.

Innova Italia

Storie, persone, idee del mondo imprenditoriale italiano che guarda al futuro