La comunicazione uomo-macchina è da sempre resa possibile grazie agli sforzi che l’uomo ha compiuto per interagire con essa. I linguaggi di programmazione hanno infatti consentito all’uomo di scrivere istruzioni che risultassero comprensibili ai computer.
Negli ultimi anni, tuttavia, stiamo assistendo a un’inversione di rotta: sono le macchine, infatti, che stanno imparando a comunicare con l’uomo, utilizzando la sua stessa lingua, il cosiddetto linguaggio naturale.
Il Natural language processing (NLP), chiamato spesso anche natural language technology (NLT), è un campo dell’Intelligenza Artificiale che comprende tutte quelle strategie che consentono all’uomo di interagire con i sistemi utilizzando il linguaggio naturale.
Pensiamo agli assistenti virtuali, ai chatbots e a tutte quelle soluzioni che oggigiorno ci permettono di interagire con le macchine così come facciamo con le persone. Questi strumenti hanno già messo in discussione i tradizionali canali di comunicazione e rivoluzioneranno il modo in cui comunichiamo con le aziende e con gli altri.
Secondo Gartner, l’intelligenza artificiale, in particolare l’NLP, sta progressivamente influenzando i piani aziendali, le scelte strategiche e gli investimenti futuri. Delle aziende intervistate, il 42% ha già sperimentato o industrializzato progetti di NLP, mentre il 77% ne ha accelerato la realizzazione nell’ultimo anno. La maggior parte delle aziende ritiene, inoltre, che nei prossimi 18 mesi le tecniche di NLP diventeranno sufficientemente mature da allinearsi alla loro vision aziendale. Gartner prevede che gli use case di maggior successo riguarderanno il mondo del customer service ed employee support: campi in cui l’NLP riuscirà ad ottimizzare costi, efficienza e soddisfazione dei clienti.
Bisogna però saper distinguere l’“hype” attorno a queste tecnologie dalla loro effettiva capacità di produrre valore. Diverse sono, infatti, le motivazioni responsabili del mancato raggiungimento dei risultati sperati. Le aziende intervistate da Gartner riconoscono come maggiori ostacoli la mancanza di talento, il budget e i costi per tecnologie e infrastruttura IT.
Dal suo Hype Cycle 2020 emerge infatti che NLP, chatbots, assistenti virtuali e piattaforme conversazionali si trovano ancora nelle fasi di “peak of inflated expectations” (hype iniziale dovuto alle alte aspettative) e “trough of disillusionment” (disillusione dopo i primi fallimenti). In queste fasi, dopo una serie di storie iniziali di successo, seguono casi di fallimento che fanno momentaneamente calare l’interesse verso tali tecnologie. Tuttavia, il loro impatto è stato definito “transformational”, il più alto grado della scala di Gartner, e si tratterà solo di attendere pochi anni (2-5 anni per chatbots, assistenti virtuali e piattaforme conversazionali e 5-10 per l’NLP) prima di assistere al loro diffuso utilizzo.
Business insight e automatizzazione: le aziende scelgono l’NLP
“In 30 years, a robot will likely be on the cover of Time magazine as the best CEO. Machines will do what human beings are incapable of doing. Machines will partner and cooperate with humans, rather than become mankind’s biggest enemy“
Jack Ma – Fondatore di Alibaba Group Holding
Le tecniche di NLP permettono di trasformare dei testi o discorsi audio (dati non-strutturati) in informazioni codificate e strutturate adatte all’analisi. Sono strettamente legate al concetto di natural language understanding e ai text analytics. Queste soluzioni, a partire da un messaggio, ne comprendono significato e contesto e lo elaborano al fine di ottenere business insights e l’automatizzazione dei processi.
Un esempio è racchiuso nel nostro Data Tell. Fake News, dove mostriamo come gli algoritmi possano essere utilizzati per verificare la veridicità dei post sui social networks, in particolare su Twitter.
L’NLP è solo una delle tante strategie che lavorano con dati testuali. Negli ultimi anni stanno emergendo soluzioni di natural language generation e machine translation. Come suggeriscono i nomi, le prime si occupano dell’autogenerazione di brevi riassunti, come le didascalie di immagini o la descrizione di prodotti, mentre le seconde traducono i testi in altre lingue (language translation) o convertono gli audio in testo (speech-to-text) e viceversa (text-to-speech).
Il grado di automatizzazione dei processi consentito da queste tecnologie può essere totale o parziale.
Nel primo caso, gli strumenti di NLP sostituiscono il lavoro dell’uomo, permettendo l’automazione di compiti ripetitivi e a basso impatto e la riduzione degli oneri amministrativi. Alcuni use case sono:
- Customer care: supporto continuo al cliente tramite chatbots e assistenti virtuali per soddisfare le sue richieste 24 ore su 24;
- Pubblica Amministrazione: protocollazione automatica (registrazione, classificazione per categorie, archiviazione, ecc…) dei documenti transitati nei sistemi;
- HR operations: automatizzazione di task ripetitivi (es., screening di curricula, monitoraggio presenze) tramite robotic process automation;
- Finance: estrazione di informazioni su investimenti tramite il monitoraggio di fonti di informazione pubbliche e social media;
- Marketing: monitoraggio del sentiment e della loyalty al brand tramite l’analisi dei feed dei social media e dei feedback dei clienti.
Laddove la natura del problema non consenta una completa automatizzazione, gli strumenti di NLP possono essere impiegati a supporto del lavoro umano, permettendo una maggiore efficienza e ottimizzazione delle operazioni. Tali applicazioni includono:
- Translation e transcription: al momento, le tecniche di machine translation non sono completamente mature e beneficiano ancora del coinvolgimento dell’uomo in alcune operazioni;
- Service desk management: operazioni di supporto al service desk tramite l’estrazione di metadati dai ticket in ingresso e la relativa assegnazione al reparto di competenza;
- Media: estrazione di insights dai testi nelle rassegne stampa;
- Insurance: identificazione delle richieste di risarcimento fraudolente attraverso l’analisi dei testi delle denunce dei sinistri;
- Legal: estrazione di parole chiave da complessi contratti legali, a supporto del processo di revisione dei contratti.
Il futuro di Machine Learning e Natural Language Processing? È nel Cloud.
Negli ultimi anni il machine learning (ML) si sta facendo sempre più strada negli scenari aziendali e, secondo le ultime previsioni di giugno 2021, il suo mercato globale crescerà da $11 miliardi nel 2020 a $152 miliardi nel 2028.
Che rapporto c’è tra Cloud e Machine Learning?
Le principali piattaforme di cloud computing (Amazon Web Services, Google Cloud Platform, Microsoft Azure) hanno fatto investimenti significativi nell’intelligenza artificiale e hanno contribuito a plasmarne lo stato dell’arte. Tali provider si trovano, inoltre, in una posizione privilegiata, in quanto possono contare su un’enorme quantità di dati annotati – essenziali per il ML – e sulla potenza di calcolo necessaria per addestrare modelli con miliardi di parametri.
Ci sono quindi tutte le ragioni per credere che anche il futuro del machine learning e dell’NLP avverrà nel cloud. Se vuoi approfondire il tema cloud, troverai contenuti interessanti a riguardo nel nostro Data Answers.
A conferma di questo trend, tra le varie funzionalità offerte dai cloud vendors oggi appaiono anche servizi specifici per fare machine learning. Non solo storage e processamento dei dati, ma anche sviluppo, valutazione e monitoraggio dei modelli, fino alla loro distribuzione ed industrializzazione.
Nasce così il Machine Learning as a Service (MLaaS), ossia quell’insieme di servizi forniti da piattaforme di cloud computing che sfruttano le potenzialità del cloud. Il mercato del MLaaS è stato valutato a $1 miliardo nel 2019 e si prevede salirà a $8.5 miliardi entro il 2026.
Soluzione personalizzata o di “general-purpose“: quale scegliere?
Attualmente, i principali leader MLaaS sono Amazon SageMaker, Google Vertex AI, Microsoft Azure ML Studio e IBM Watson ML. Gli utenti possono scegliere se utilizzare questi prodotti per implementare in prima persona algoritmi altamente personalizzabili oppure ricadere su una gamma di servizi general-purpose tramite chiamate API messi a disposizione dai cloud providers per una varietà di scopi.
Secondo l’NLP Industry Survey Report 2020 condotto da Gradient Flow e sponsorizzato da John Snow LABS (leader di AI e NLP in campo healthcare), i servizi general-purpose di NLP più diffusi sono Google Cloud Natural Language API (scelto dal 41% delle aziende intervistate), AWS Comprehend (27%), Azure Text Analytics (21%) e IBM Watson Cloud Natural Language API (15%).
Questi servizi sono molto vantaggiosi. Non solo consentono alle aziende di sperimentare in modo facile e veloce sui propri dati l’NLP, ma permettono anche di sfruttare appieno le potenzialità dell’intelligenza artificiale senza dover disporre di team di data scientist con le competenze per creare, addestrare e distribuire tali modelli.
Tuttavia, affidarsi esclusivamente a soluzioni “preconfezionate” non è sempre la scelta ottimale. Le applicazioni di NLP si basano sul linguaggio naturale e il modo in cui le persone comunicano varia estremamente a seconda del contesto. Pensiamo ad esempio all’enormi differenze tra il lessico in campo legale e quello in ambito medico.
Un’unica soluzione non potrà mai riuscire a catturare le varie sfaccettature che caratterizzano ogni possibile use case. La principale criticità di queste soluzioni “one-size-fits-all” sta proprio nella difficoltà di personalizzare, adattare ed estendere le funzionalità offerte dai vendor agli use case specifici.
In questi casi, pur rimanendo consigliabile partire con una soluzione general-purpose per avere un primo benchmark, è preferibile optare poi per soluzioni custom più avanzate. Le principali piattaforme MLaaS dispongono, infatti, di strumenti che consentono a data scientists e ML engineers di cimentarsi in prima persona con l’implementazione dei più disparati modelli di machine learning e NLP tenendo conto delle esigenze specifiche del proprio business.
NLP e Service Desk Management: rapidità e qualità a servizio del cliente
Quante volte ci siamo rivolti all’assistenza clienti per problemi su un prodotto o servizio appena acquistato? Nel 2020, il 58% degli Americani ha dichiarato di aver contattato un servizio di customer care nell’ultimo mese. Le aspettative dei clienti non sono solo alte, ma crescono col tempo. Recenti statistiche mostrano che i clienti si aspettano che le aziende rispondano entro un’ora alle loro e-mail ed entro 45 secondi ai messaggi via chat, e sono disposti a spendere di più per rapportarsi con aziende dall’eccellente customer care.
I rischi associati ad una cattiva gestione del service desk sono enormi: non solo l’abbandono dei clienti – si stima che dopo una sola esperienza negativa, il 51% dei clienti non farà più affari con quella azienda – ma anche veri e propri contraccolpi alla reputazione dell’azienda, inerme di fronte alle tante lamentele che i clienti pubblicheranno sui social media.
Microsoft riporta che il 72% dei clienti si aspetta che l’operatore sappia chi sono, cosa hanno acquistato e quali siano stati i loro rapporti precedenti con l’azienda. Un buon service desk deve essere perciò in grado di reperire velocemente le informazioni necessarie sul cliente. Allo stesso tempo, deve essere rapido nell’individuare e risolvere i problemi segnalati.
La ripetitività di queste operazioni e la mole di tickets e richieste di supporto ricevute giornalmente fa sì che il campo del Service Desk Management ben si presti ad essere affiancato da procedure automatizzate di machine learning e text analytics per raggiungere una riduzione nei tempi e costi di gestione e una maggiore soddisfazione della propria base clienti.
Da un recente sondaggio condotto in partnership con John Snow LABS, le tecniche di document classification, named entity recognition e sentiment analysis, grazie alle loro potenzialità di arricchire rapidamente ed automaticamente qualsiasi documento testuale, sono state nel 2020 le applicazioni di NLP più frequenti in contesto aziendale. Vediamole nel dettaglio. A partire da un messaggio di testo (ticket, trascrizione di una conversazione telefonica o altro) la named entity recognition permette di estrarre le informazioni personali del cliente quali nome e cognome, azienda di appartenenza, indirizzo e-mail, nome del servizio menzionato, codice utente, partita iva e qualsiasi altra informazione d’interesse.

Strettamente collegata è la key-word extraction, che consente di ridurre un testo più o meno corposo in una manciata di parole chiave che fungono da “riassunto” del messaggio stesso, utile, per esempio, a fini di archiviazione.
Riconoscere prontamente il cliente e le sue caratteristiche non è sufficiente. È necessario intercettare tempestivamente i casi più gravi di insoddisfazione ed arginare il malcontento della propria base clienti. Si stima che un cliente insoddisfatto riferisca le proprie brutte esperienze con il servizio clienti in media ad altre 15 persone. Le tecniche di sentiment analysis permettono di esaminare le parole che compongono un testo identificandone il tono e lo stato d’animo.
L’ultimo prerequisito per una buona customer experience è naturalmente la rapida risoluzione del problema. A tal fine, è indispensabile un’efficace comunicazione tra il service desk e i gruppi operativi preposti alla risoluzione. In questo caso, modelli statistici di document classification si rivelano di grande aiuto nel ticket routing in quanto permettono di assegnare ogni segnalazione al reparto (o reparti) che è più probabile che la gestisca.
Take aways e trend del futuro
In un mondo in cui la produzione dei dati è in continua crescita, l’NLP è destinato a diventare sempre più popolare e parte integrante delle nostre vite.
Le applicazioni che abbiamo raccontato in questo articolo sono la dimostrazione che la rivoluzione nel rapporto uomo-macchina è ormai realtà. E se almeno l’80% delle informazioni che ci circonda è di tipo non-strutturato (ossia in formato testo, audio, video, immagini e molto ancora), è facile intuire perché i riflettori siano puntati sull’NLP.
Eppure, le sfide all’orizzonte sono ancora tante. La comunità scientifica internazionale sta dedicando molte risorse ed energie affinché i benefici apportati da queste metodologie siano sempre più significativi.
Nei prossimi anni assisteremo a grandi progressi in questo campo dell’Intelligenza Artificiale e – come successo in passato per altre innovazioni – in un futuro non troppo lontano, la scelta di integrare o meno queste tecnologie all’interno delle proprie pratiche aziendali contribuirà a decretare o meno il futuro successo di molte realtà.
Riccardo Piva, Manager