Tiscali.it
SEGUICI

Ricercatori propongono un tasto per spegnere l'IA in caso di pericolo, come per il nucleare

di Tiscali News   
Ricercatori propongono un tasto per spegnere l'IA in caso di pericolo, come per il nucleare

Un pulsante, 'kill switch', per interrompere un sistema di Intelligenza artificiale nel caso fosse necessario, sulla scia di quelli sviluppati per fermare il lancio non autorizzato di armi nucleari. E' la proposta suggestiva che emerge da un documento di diverse istituzioni accademiche tra cui il Leverhulme Centre dell'Università di Cambridge, l'Oxford Internet Institute e la Georgetown University, insieme ad alcuni ricercatori di ChatGpt.

Il documento prende in considerazione una serie di elementi tracciabili dell'Intelligenza artificiale come il sistema di calcolo ("rilevabile e quantificabile"), le grandi infrastrutture che lo supportano, i chip utilizzati per addestrare i modelli di IA che sono prodotti da un numero relativamente piccolo di aziende, i vincoli alla catena di approvvigionamento sulla produzione di semiconduttori. "Questi fattori offrono ai regolatori i mezzi per comprendere meglio come e dove viene implementata l'infrastruttura di intelligenza artificiale, chi può o non può accedervi e imporre sanzioni per uso improprio", sostiene il documento che evidenzia diversi modi in cui i policy makers possono regolamentare l'hardware dell'IA.

Come, ad esempio, un 'kill switch', un pulsante per disabilitare anche da remoto l'uso dell'Intelligenza artificiale in applicazioni dannose o in caso di violazione delle regole. Sulla falsa riga dei blocchi di sicurezza usati per le armi nucleari. Uno strumento suggestivo che però, come osservano gli stessi ricercatori, potrebbe ritorcersi contro impedendo, se usato male o nelle mani sbagliate, lo sviluppo dell'intelligenza artificiale.

Altro punto critico di questo documento è la partecipazione di ricercatori di OpenAI, la società madre di ChatGpt, che da una parte chiede una regolamentazione ma dall'altra deve fare business e sforna a ritmi sostenuti nuovi sistemi di IA. L'ultimo in ordine di tempo è Sora che genera video realistici di un minuto partendo semplicemente da un testo, un potenziale rischio per il cinema e per la diffusione di deepfake. 

di Tiscali News   
I più recenti
In Europa in arrivo 6 nuove fabbriche di intelligenza artificiale. Cosa sono e a cosa servono
In Europa in arrivo 6 nuove fabbriche di intelligenza artificiale. Cosa sono e a cosa servono
Si tratta del chatbot GSAi, un'applicazione in fase di sviluppo da diversi mesi e realizzata ad hoc...
Si tratta del chatbot GSAi, un'applicazione in fase di sviluppo da diversi mesi e realizzata ad hoc...
Milioni di posti di lavoro a rischio, si salva solo chi possiede le 5C. Ecco cosa sono
Milioni di posti di lavoro a rischio, si salva solo chi possiede le 5C. Ecco cosa sono
Ecco Manus, l'agente intelligente cinese che vuole lavorare al posto degli uomini
Ecco Manus, l'agente intelligente cinese che vuole lavorare al posto degli uomini
thunderbird
Le Rubriche

Michael Pontrelli

Giornalista professionista ha iniziato a lavorare nei nuovi media digitali nel...

Alice Bellante

Laureata in Scienze Politiche e Relazioni Internazionali alla LUISS Guido Carli...

Sergio d'Arpa

Esperto di supercalcolo, fondatore e CEO di Klinik Sankt Moritz AG, la prima...

Simone Trebbi

Racconta imprese innovative e sostenibili, capaci di avere un impatto concreto...

Carlo Occhinegro

Scrive di storie dell'innovazione, dei protagonisti del mondo dell'imprenditoria...

eNews

Notizie e riflessioni sul mondo digitale.

Innova Italia

Storie, persone, idee del mondo imprenditoriale italiano che guarda al futuro