Google ha testato silenziosamente un chatbot di AI medica negli ospedali per mesi
La notizia è stata rivelata dal Wall Street Journal. L'applicazione di Big G non è una novità assoluta ma segue quella di Microsoft. Non mancano i rischi nell'utilizzo della nuova tecnologia
Da aprile, gli scienziati di Google hanno testato il bot denominato Med-PaLM 2 in diverse strutture ospedaliere americane. L’indiscrezione è stata rivelata dal Wall Street Journal. Il bot è una versione specifica per la medicina di PaLM 2, un potente modello di linguaggio di grandi dimensioni che alimenta anche Bard, l’applicazione di Google concorrente di ChatGPT. Med-PaLM 2 è progettato per fornire agli utenti consulenza medica. Ha anche lo scopo di organizzare i dati sanitari e riassumere i documenti. La notizia arriva pochi mesi dopo che Microsoft ha annunciato la propria versione di un chatbot simile, orientato alla medicina, chiamato BioGPT.
LA DIFFUSIONE DELLA AI IN CAMPO MEDICO COMPORTA DEI RISCHI
L’impiego dell’intelligenza artificiale in campo sanitario non è privo di rischi. Lo scorso marzo la testata giornalistica americana Futurism ha testato il modello di Microsoft e ha scoperto che il chatbot, come altri, aveva un serio problema con la fabbricazione di informazioni, la raccolta di false citazioni scientifiche, la diffusione di affermazioni stravaganti sui fantasmi negli ospedali e persino il rimaneggiamento della disinformazione sui vaccini.
MED-PALM 2 PRODUCE CONTENUTI IMPRECISI
A tal fine, secondo il WSJ, i medici che lavorano con Med-PaLM 2 hanno scoperto che gli output del bot "includevano contenuti più imprecisi o irrilevanti nelle sue risposte rispetto a quelli dei loro colleghi". Un documento non ancora sottoposto a revisione paritaria degli ingegneri di Google DeepMind condiviso a maggio ha anche rilevato che mentre la macchina si è effettivamente comportata alla pari o meglio dei medici umani in diverse metriche, tra cui il richiamo della conoscenza e la comprensione della lettura, gli errori nelle risposte dell'IA erano dilaganti.
LA SANITA' E' UN SETTORE DIVERSO DAGLI ALTRI
In altre parole, Google deve ancora dimostrare che il suo modello è affidabile in una delle cose principali per cui è stato progettato: offrire consigli medici accurati su larga scala. E questo, ovviamente, è estremamente importante. Una falsificazione in un saggio scolastico scritto da Bard potrebbe dare a uno studente un brutto voto. I consigli medici scritti con sicurezza, ma carichi di errori, d'altra parte, potrebbero avere conseguenze disastrose per la salute.