Tiscali.it
SEGUICI

[Intervista] "Reti neurali, AI, deep learning, analisi semantica: le differenze tra le metodologie"

Senza intelligenza (e conoscenza) umana, nessun algoritmo e nessun approccio funzionano, se non in casi estremamente banali e poco utili

Samanta Sartidi Samanta Sarti   
[Intervista] 'Reti neurali, AI, deep learning, analisi semantica: le differenze tra le metodologie'

L’OECD (Recommendation of the Council on Artificial Intelligence, OECD/LEGAL/0449) e lo Statuto Etico e Giuridico dell’IA sono importati documenti, entrambi pubblicati nel 2019, che cercano di fare chiarezza su cosa sia realmente l’Intelligenza Artificiale, in tutti i settori, e mirano a promuoverne la gestione responsabile a garanzia dei diritti umani, dei valori democratici e del lavoro.

Sarebbe importante fare chiarezza, sfatare miti e dicerie, anche in un ambito più specifico, quello della tecnologia semantica. “Reti neurali”, “machine learning” sono infatti termini spesso usati impropriamente, perché il lavoro svolto dalle macchine non è equiparabile al pensiero e all’intelligenza umani. Le macchine non imparano nulla da sole; possono soltanto essere addestrate a svolgere alcune attività. E il loro addestramento, se ti aspetti determinati risultati, comporta un costante, certosino, lavoro di inserimento dati da parte di persone esperte.

Tiscali News ha chiesto a Marco Varone, uno tra i maggiori esperti mondiali di tecnologia semantica e di trattamento del linguaggio naturale, fondatore, Presidente e CTO di Expert System, di raccontare il dietro le quinte della programmazione dei computer addestrati a svolgere l’analisi linguistica dei testi. Un aiuto importante senza dubbio, ma in alcun modo sostitutivo dell’esperienza umana.

Marco, può aiutarci a comprendere la differenza, in fase di analisi dei testi, tra metodologie basate su algoritmi di apprendimento (machine learning, reti neurali, deep learning, ecc.) e un approccio linguistico basato su intelligenza artificiale e analisi semantica?

"La differenza fondamentale è legata al livello di comprensione che i due approcci prevedono. Utilizzando i classici algoritmi di machine learning e deep learning, il testo non viene considerato come qualcosa che ha una struttura e un significato ma semplicemente come una sequenza di simboli (keyword) che occorrono insieme con una certa frequenza. In sostanza, gli algoritmi di questo tipo riconoscono i pattern statisticamente più frequenti e rilevanti ma non “capiscono” nulla del testo. Ne consegue che, per un sistema di questo tipo, anche un testo senza senso e sintatticamente scorretto è identico ad un testo scritto in modo corretto e con un senso compiuto".

"Nell’approccio basato sull’analisi semantica, invece, il testo è analizzato in modo simile a quanto fa una persona, imitando alcuni dei processi cognitivi che tutti noi mettiamo in atto istintivamente per capire il significato del testo. Per fare questo, è necessario che il software abbia una ricca e profonda conoscenza del mondo e della lingua (che di solito è memorizzata all’interno di un knowledge graph) ed utilizzare algoritmi scritti appositamente per la comprensione dei testi. È un approccio molto più specifico e complesso, che richiede maggiori investimenti iniziali, ma è l’unico che può andare oltre il semplice conteggio delle sequenze di parole e comprendere la struttura, le relazioni e il significato, in modo simile alle persone".

Quanto è importante il lavoro di vaglio critico e verifica umani nelle fasi di input e output dei dati e di addestramento degli algoritmi, sia nell’approccio semantico-linguistico sia nell’approccio basato su machine learning?

"Semplice: è fondamentale. Senza intelligenza (e conoscenza) umana, nessun algoritmo e nessun approccio funzionano, se non in casi estremamente banali e poco utili. Anche i software più sofisticati di intelligenza artificiale non possono funzionare senza l’aiuto di esperti dotati di particolari conoscenze tecniche. Un software che si programma da solo, che impara cose complesse da solo e che si mantiene da solo non è ancora stato inventato".

Ci sono Aziende che pensano si possa sostituire quasi in toto l’analisi umana di contenuti complessi anche in fasi particolarmente delicate (individuazione di situazioni di rischio, negatività nelle news, fake news, post social, ecc). Quale il grado di affidabilità raggiunto dalle macchine nella lettura, classificazione e interpretazione di testi complessi?

"Vista la complessità e l’ampiezza dei temi, non è possibile dare una risposta unica. In generale, non è ancora possibile raggiungere il livello di affidabilità delle persone e, per i problemi più complessi, non è un obiettivo raggiungibile nemmeno fra molti anni. Tenendo conto che nemmeno le persone sono perfette e che possono commettere errori per stanchezza, distrazione o mancanza di conoscenza, negli scenari più favorevoli, il software sviluppato per lo scopo specifico è in grado di ridurre del 90-95% il lavoro di analisi umana: in un mix di scenari, una riduzione media comune è attorno al 30-40% con possibilità di crescita significativa entro i prossimi 4-5 anni".

In quali ambiti si è avuto, e ci si aspetta, il maggiore contributo da parte della tecnologia semantica? Quanto dei risultati raggiunti è stato reso possibile dall'incremento della potenza di calcolo?

"La tecnologia semantica è l’unica in grado di affrontare problemi in cui serve comprendere, anche solo in modo parziale, il contenuto di un testo, sia esso un breve e-mail o un report di decine di pagine. Solo con la tecnologia semantica posso capire il significato delle parole e delle frasi, individuare relazioni fra concetti e/o entità ed effettuare inferenze partendo da elementi estratti da un testo. In linea di massima, i problemi non banali di comprensione del testo possono essere risolti solo con la tecnologia semantica. Questo non significa assolutamente che tutti i problemi di questo tipo possono essere risolti ma, più semplicemente, che altre tecnologie si fermano a complessità molto più ridotte".

"La potenza di calcolo è fondamentale per i risultati raggiunti negli ultimi anni. La tecnologia semantica (come del resto altre tecnologie) trae un beneficio diretto e misurabile dall’aumento della potenza di calcolo, per questo mi aspetto miglioramenti ancora più rilevanti una volta che potremo disporre di computer che siano N ordini di grandezza più veloci di quelli attuali".

Samanta Sartidi Samanta Sarti   
I più recenti
L'intelligenza artificiale impara a riconoscere in anticipo il fegato grasso
L'intelligenza artificiale impara a riconoscere in anticipo il fegato grasso
Studio shock: oltre 200 mila dipendenti pubblici italiani a forte rischio. Tremano i ministeriali
Studio shock: oltre 200 mila dipendenti pubblici italiani a forte rischio. Tremano i ministeriali
I vantaggi della settimana lavorativa corta secondo l’intelligenza artificiale. Video
I vantaggi della settimana lavorativa corta secondo l’intelligenza artificiale. Video
I propri cari rivivono dopo la morte grazie all'intelligenza artificiale: le prime applicazioni
I propri cari rivivono dopo la morte grazie all'intelligenza artificiale: le prime applicazioni
thunderbird
Le Rubriche

Michael Pontrelli

Giornalista professionista ha iniziato a lavorare nei nuovi media digitali nel...

Alice Bellante

Laureata in Scienze Politiche e Relazioni Internazionali alla LUISS Guido Carli...

Sergio d'Arpa

Esperto di supercalcolo, fondatore e CEO di Klinik Sankt Moritz AG, la prima...

Simone Trebbi

Racconta imprese innovative e sostenibili, capaci di avere un impatto concreto...

Carlo Occhinegro

Scrive di storie dell'innovazione, dei protagonisti del mondo dell'imprenditoria...

eNews

Notizie e riflessioni sul mondo digitale.

Innova Italia

Storie, persone, idee del mondo imprenditoriale italiano che guarda al futuro