Ricercatori propongono un tasto per spegnere l'IA in caso di pericolo, come per il nucleare
Un pulsante, 'kill switch', per interrompere un sistema di Intelligenza artificiale nel caso fosse necessario, sulla scia di quelli sviluppati per fermare il lancio non autorizzato di armi nucleari. E' la proposta suggestiva che emerge da un documento di diverse istituzioni accademiche tra cui il Leverhulme Centre dell'Università di Cambridge, l'Oxford Internet Institute e la Georgetown University, insieme ad alcuni ricercatori di ChatGpt.
Il documento prende in considerazione una serie di elementi tracciabili dell'Intelligenza artificiale come il sistema di calcolo ("rilevabile e quantificabile"), le grandi infrastrutture che lo supportano, i chip utilizzati per addestrare i modelli di IA che sono prodotti da un numero relativamente piccolo di aziende, i vincoli alla catena di approvvigionamento sulla produzione di semiconduttori. "Questi fattori offrono ai regolatori i mezzi per comprendere meglio come e dove viene implementata l'infrastruttura di intelligenza artificiale, chi può o non può accedervi e imporre sanzioni per uso improprio", sostiene il documento che evidenzia diversi modi in cui i policy makers possono regolamentare l'hardware dell'IA.
Come, ad esempio, un 'kill switch', un pulsante per disabilitare anche da remoto l'uso dell'Intelligenza artificiale in applicazioni dannose o in caso di violazione delle regole. Sulla falsa riga dei blocchi di sicurezza usati per le armi nucleari. Uno strumento suggestivo che però, come osservano gli stessi ricercatori, potrebbe ritorcersi contro impedendo, se usato male o nelle mani sbagliate, lo sviluppo dell'intelligenza artificiale.
Altro punto critico di questo documento è la partecipazione di ricercatori di OpenAI, la società madre di ChatGpt, che da una parte chiede una regolamentazione ma dall'altra deve fare business e sforna a ritmi sostenuti nuovi sistemi di IA. L'ultimo in ordine di tempo è Sora che genera video realistici di un minuto partendo semplicemente da un testo, un potenziale rischio per il cinema e per la diffusione di deepfake.