ChatGPT affascina e spaventa: sostituirà i giornalisti? Molti lo sperano ma non sarà così

La versione beta del chatbot sviluppato da OpenAI è stata accolta da alcuni come un punto di svolta della storia. Per alcuni il destino dei giornalisti è ormai segnato ma si tratta di un grande errore: ecco perché

ChatGPT affascina e spaventa: sostituirà i giornalisti? Molti lo sperano ma non sarà così

"L'intelligenza artificiale (AI) è una tecnologia che permette a un computer o a un sistema di eseguire compiti che richiederebbero intelligenza umana, come il riconoscimento delle parole o il prendere decisioni basate su informazioni incomplete. Ci sono diverse forme di intelligenza artificiale, come l'apprendimento automatico (che implica l'uso di algoritmi per far sì che un sistema "impari" da sé a partire da dati), il riconoscimento delle parole (che permette a un sistema di "capire" il linguaggio umano) e la pianificazione (che permette a un sistema di prendere decisioni basate su un insieme di regole). L'AI può essere utilizzata in una vasta gamma di campi, come la medicina, il trasporto, la finanza e l'intrattenimento.

Fino alla riga precedente avete letto un testo scritto da una intelligenza artificiale. Per la precisione da ChatGPT, la AI sviluppata da OpenAI. Il chatbot ha risposto alla domanda “cosa è l’intelligenza artificiale?”. La risposta è stata copiata e incollata senza nessuna correzione/modifica.

Non c’è dubbio che la qualità della scrittura sia impressionante e questo spiega (e in parte giustifica) l’entusiasmo che sta suscitando tra gli esperti del settore. Alcuni arrivano addirittura a paragonare il rilascio della nuova versione di ChatGPT (la beta) all’invenzione della stampa a caratteri mobili di Gutenberg nel 1440. Un punto di svolta della storia.

Il premio Nobel per l’economia, Robert Shiller, nel suo libro Economia e Narrazioni ha spiegato che lo storytelling puntualmente accompagna le innovazioni tecnologiche influenzando pesantemente le decisioni di imprenditori e cittadini.

Il rilascio di ChatGPT ha riacceso la narrazione (esistente già da tempo) che l’intelligenza artificiale sostituirà l’uomo in molte attività. La professione più a rischio sarebbe quella giornalistica. I giornali del futuro non saranno più scritti dagli uomini ma direttamente dagli algoritmi di AI.

Sarà veramente così? E’ poco probabile. Più che a sostituire i giornalisti ChatGPT si candida ad essere un importante strumento di lavoro che renderà più semplice la ricerca di informazioni e dunque la redazione degli articoli. Dunque un alleato più che un nemico.

Da cosa deriva questa sicurezza? Dalla constatazione che la tecnologia è bravissima a dare risposte ma non è in grado di porre domande e il compito dei giornalisti è proprio questo: porre i giusti quesiti.

Per esempio: chi c’è dietro OpenAI? La risposta fornita dal chatbot è la seguente

"OpenAI è un'organizzazione di ricerca sull'intelligenza artificiale (IA) che è stata fondata nel 2015 da un gruppo di investitori, tra cui Elon Musk, Sam Altman e Greg Brockman. OpenAI è stata finanziata principalmente da investitori privati e da una serie di donazioni. Tuttavia, la società ha anche ricevuto finanziamenti da aziende e organizzazioni, tra cui Microsoft, Reid Hoffman e Khosla Ventures. OpenAI si è impegnata a condividere i risultati della sua ricerca sull'IA con il mondo accademico e il settore privato, e ha sviluppato una serie di prodotti e servizi basati sull'IA, tra cui il motore di ricerca di GPT e la piattaforma di gioco Dactyl". 

Una risposta impeccabile dal punto di vista formale ma che ovviamente non dice nulla sulle reali intenzioni dei finanziatori. Pura filantropia o c’è anche dell’altro?

Un grave errore da non commettere è pensare che l’intelligenza artificiale sia una tecnologia neutra ovvero che le sue risposte non riflettano una determinata visione culturale o determinati interessi. 

Sui quesiti fattuali (in che anno è morto Steve Jobs?) ovviamente il problema non si pone ma lo stesso non si può dire in altri contesti che possono anche andare ben oltre il limitato recinto del business e abbracciare questioni molto più ampie come i valori fondanti di una società

Con riferimento ad una domanda sulla famiglia naturale ChatGPT ha fornito la seguente risposta:

"La 'famiglia naturale' è un termine spesso usato per fare riferimento a una famiglia formata da genitori eterosessuali che hanno figli biologici. Tuttavia, non esiste una definizione universale di "famiglia naturale" e le famiglie possono assumere molte forme diverse. Ci sono famiglie monoparentali, adottive, di coppie dello stesso sesso e altre forme di famiglie che possono essere altrettanto valide e amorevoli quanto quelle formate da genitori eterosessuali con figli biologici. È importante notare che ogni famiglia è unica e che ciò che conta davvero è l'amore e il sostegno che viene offerto all'interno della famiglia, indipendentemente dalla sua forma o composizione". 

Un teocon americano (ovvero un esponente del mondo cristiano conservatore statunitense) molto probabilmente non è d’accordo con la risposta fornita da ChatGPT ed in particolare con la parte conclusiva.

Senza entrare nel merito della questione (è solo uno tra i tanti esempi che si potrebbero fare) ciò che emerge e che è importante sottolineare è che le risposte dell’intelligenza artificiale non sono neutre ma riflettono i valori contenuti nelle fonti utilizzate per l’addestramento.

Un caso da manuale si è avuto nel 2016 con il ritiro dal mercato di Tay, l’intelligenza artificiale sviluppata da Microsoft per conversare con i millenials americani. Il chatbot venne spento a causa dei suoi commenti razzisti, sessisti e xenofobi. Disvalori che aveva appreso conversando in rete con i giovani statunitensi. L’episodio conferma dunque l’importanza dell’addestramento delle intelligenze artificiali.

E questo ci pone di fronte ad un quesito di capitale importanza: c’è il pericolo che i chatbot di intelligenza artificiale diventino la nuova frontiera della propaganda? Purtroppo sì. La AI per quanto possa essere sofisticata è solo uno strumento nelle mani dell’uomo che può usarla per fini nobili ma anche per fini meno virtuosi come il controllo e la manipolazione dell’opinione pubblica in forme nuove e sconosciute.

La missione più alta del giornalismo è quella di essere il cane da guardia del potere. Cosa significa? Una risposta esauriente la fornisce ChatGPT: 

“Il giornalismo deve essere il cane da guardia del potere perché ha il compito di vigilare sull'attività delle istituzioni pubbliche e sui comportamenti dei membri del potere, sia esso politico o economico, e di denunciare eventuali abusi o irregolarità. In questo modo, il giornalismo svolge una funzione di controllo e di tutela dei diritti dei cittadini, promuovendo la trasparenza e la responsabilità nell'esercizio del potere”.

Questo controllo non può essere delegato all’intelligenza artificiale ma può essere svolto solo dai giornalisti perché il loro compito non è dare risposte (come fa un chatbot di AI) ma porre le giuste domande.

Guarda il TEST di ChatGPT fatto in esclusiva per Tiscali dal SIDI