"Non c'è più tempo, diamo dei limiti all'AI". L'appello di 200 fra Nobel e scienziati ai governi: qual è la richiesta
All'Onu i massimi esperti e studiosi di intelligenza artificiale, tra cui Parisi, Hinton, Stiglitz, lanciano l'allarme: "Serve un accordo globale entro il 2026"
L'intelligenza artificiale mette d'accordo tutti. Anzi no. Perché se si entra nel merito di ciò che può arrivare a fare o quali confini non possa oltrepassare si blocca tutto: gli Stati non prendono posizione. Ma i rischi sono alti e quindi si deve trovare un accordo su cosa l'AI non debba fare. Un auspicio, contenuto in un appello firmato da 200 scienziati, tra cui 9 ex capi di Stato e 10 premi Nobel, che sintetizza tutto questo. A presentare la lettera è stata Maria Ressa, premio Nobel per la Pace, durante l'80esima sessione dell'Assemblea Generale dell'Onu.
Chi firma l'appello
I firmatari sono tanti e importanti. Scrive il Corriere della sera che si va da Geoffrey Hinton, premio Nobel per la Fisica nel 2024 a Yoshua Bengio, pioniere insieme al collega dell'intelligenza artificiale. Si aggiunge il Premio Nobel italiano Giorgio Parisi, il Nobel per l'economia Joseph Stiglitz, lo storico Yuval Noah Harari. Ma si leggono anche le firme di scienziati di OpenAI, Anthropic e Google e politicidi fama internaizonale come l'ex ministro dell'Economia greco, Yanis Varoufakis. Tra i firmatari troviamo anche l'ex premier italiano Enrico Letta e l'ex ministra dell'Università e della Ricerca, Maria Chiara Carrozza.
I rischi
Per gli scienziati è necessario trovare un accordo globale entro il 2026. Oltre non di deve andare. Scrivono gli scienziati che l'AI "ha un enorme potenziale per migliorare il benessere umano, ma l'attuale traiettoria di sviluppo comporta pericoli senza precedenti". E, aggiungono, potrebbe presto superare le capacità umane, finendo per "amplificare minacce come pandemie ingegnerizzate, disinformazione diffusa, manipolazione delle persone su larga scala - inclusi i minori - rischi per la sicurezza nazionale e internazionale, disoccupazione di massa e violazioni sistematiche dei diritti umani".
E non si parla di un rischio potenziale futuribile, perché in realtà il problema è già presente. "Alcuni sistemi di AI avanzata - si legge nel documento - hanno già manifestato comportamenti ingannevoli e dannosi, eppure a questi sistemi viene concessa un'autonomia sempre maggiore nell'agire e nel prendere decisioni nel mondo reale". Ciò che serve è un accordo internazionale, sostengono i sottoscrittori dell'appello, con "limiti chiari e verificabili per prevenire rischi universalmente inaccettabili".
Come per il nucleare
Esattamente come già accadde per il nucleare, caso per il quale si firmarono trattati di non proliferazione che misero un freno condiviso alla crescita esponenziale della ricerca sul settore a favore dell'uso militare. Gli scienziati fanno degli esempi: vietare all'AI di impersonare esseri umani, impedire la replicazione autonoma dei sistemi, escludere l'intelligenza artificiale dalla guerra nucleare. Serve insomma un'istituzione globale che sappia mettere i giursti limiti, perché le singole aziende finiscono per privilegiare il profitto rispetto alla sicurezza, amplificando i rischi. "Bisogna agire subito", dicono i firmatari, prima di oltrepassare la linea rossa.














