Elevate le tue assistenti self-service con nuove caratteristiche di intelligenza artificiale generative in Amazon Lex

Potenzia le tue assistenti self-service con nuove funzionalità di intelligenza artificiale generativa in Amazon Lex

In questo post, parliamo di come l’AI generativa sta cambiando l’industria dell’AI conversazionale offrendo nuove esperienze per i clienti e i costruttori di bot e le nuove funzionalità in Amazon Lex che sfruttano questi progressi.

Con l’aumentare della domanda di AI conversazionale, gli sviluppatori stanno cercando modi per migliorare i loro chatbot con interazioni simili a quelle umane e capacità avanzate come la gestione delle FAQ. Recenti progressi nell’AI generativa stanno portando a miglioramenti significativi nella comprensione del linguaggio naturale, rendendo i sistemi conversazionali più intelligenti. Allenando modelli di reti neurali su grandi set di dati con trilioni di token, i ricercatori di AI hanno sviluppato tecniche che consentono ai bot di comprendere domande più complesse, fornire risposte più sfumate e più naturali e gestire una vasta gamma di argomenti. Con queste nuove innovazioni di AI generativa, puoi creare assistenti virtuali che appaiono più naturali, intuitivi e utili durante le interazioni self-service basate su testo o voce. I rapidi progressi nell’AI generativa stanno avvicinando sempre di più i chatbot automatizzati e gli assistenti virtuali all’obiettivo di avere conversazioni veramente intelligenti e fluide. Con ulteriori avanzamenti nell’apprendimento profondo e nelle tecniche di reti neurali, i sistemi conversazionali sono pronti a diventare ancora più flessibili, facili da relazionare e simili a quelli umani. Questa nuova generazione di assistenti alimentati dall’AI può fornire esperienze self-service fluide in una moltitudine di casi d’uso.

Come Amazon Bedrock sta cambiando il panorama dell’AI conversazionale

Amazon Bedrock è un modo semplice per creare e scalare applicazioni di AI generativa con modelli fondamentali (FM). Amazon Bedrock offre una serie di FM tra i principali fornitori, in modo che i clienti AWS abbiano flessibilità e scelta nell’utilizzare i migliori modelli per il loro caso d’uso specifico.

Nel mondo frenetico di oggi, ci aspettiamo un servizio clienti veloce ed efficiente da ogni azienda. Tuttavia, fornire un servizio clienti eccellente può essere significativamente impegnativo quando il volume delle richieste supera le risorse umane impiegate per soddisfarle. Le aziende possono superare questa sfida in modo efficiente, offrendo al contempo un servizio clienti personalizzato, sfruttando i progressi nell’AI generativa alimentata da grandi modelli di linguaggio (LLM).

Nel corso degli anni, AWS ha investito nella democratizzazione dell’accesso e nell’ampliamento della comprensione di AI, machine learning (ML) e AI generativa. LLM può essere estremamente utile nei contact center fornendo risposte automatizzate alle domande frequenti, analizzando il sentiment e l’intento dei clienti per indirizzare le chiamate in modo appropriato, generando riepiloghi delle conversazioni per aiutare gli agenti e persino generando automaticamente email o risposte in chat a comuni domande dei clienti. Gestendo compiti ripetitivi e acquisendo informazioni dalle conversazioni, LLM consente agli agenti dei contact center di concentrarsi su una maggiore creazione di valore attraverso un servizio personalizzato e la risoluzione di problemi complessi.

Migliorare l’esperienza del cliente con le FAQ conversazionali

L’AI generativa ha un enorme potenziale per fornire risposte rapide e affidabili alle domande frequenti dei clienti in modo conversazionale. Con accesso a fonti di conoscenza autorizzate e LLM, il tuo bot Amazon Lex esistente può fornire risposte utili, naturali e accurate alle FAQ, andando oltre il dialogo orientato al compito. Il nostro approccio Retrieval Augmented Generation (RAG) consente ad Amazon Lex di sfruttare sia l’ampiezza delle conoscenze disponibili nei repository che la fluidità degli LLM. Puoi semplicemente fare la tua domanda in linguaggio conversazionale libero e ricevere una risposta naturale e personalizzata in pochi secondi. La nuova funzionalità di FAQ conversazionali in Amazon Lex consente agli sviluppatori di bot e ai designer di conversazioni di concentrarsi sulla definizione della logica aziendale anziché sulla progettazione di flussi di conversazione basati su FAQ esaustive all’interno di un bot.

Stiamo introducendo una QnAIntent integrata che utilizza un LLM per interrogare una fonte di conoscenza autorizzata e fornire una risposta significativa e contestuale. Inoltre, gli sviluppatori possono configurare la QnAIntent per puntare a sezioni specifiche della base di conoscenza, garantendo che vengano interrogate solo porzioni specifiche del contenuto delle conoscenze al momento dell’esecuzione per soddisfare le richieste dell’utente. Questa capacità soddisfa le esigenze di settori altamente regolamentati, come i servizi finanziari e sanitari, di fornire solo risposte in un linguaggio conforme. La funzionalità di FAQ conversazionali in Amazon Lex consente alle organizzazioni di migliorare i tassi di contenimento evitando i costi elevati delle richieste non soddisfatte e dei trasferimenti agli operatori umani.

Costruzione di un bot Amazon Lex utilizzando il costruttore descrittivo del bot

Costruire dei bot conversazionali da zero è un processo che richiede molto tempo e una profonda conoscenza di come gli utenti interagiscono con i bot al fine di anticipare le richieste potenziali e codificare risposte adeguate. Oggi, i progettisti di conversazioni e gli sviluppatori trascorrono molte giornate scrivendo codice per gestire tutte le possibili azioni dell’utente (intenti), i vari modi in cui gli utenti formulano le loro richieste (enunciati) e le informazioni necessarie dall’utente per completare tali azioni (slot).

Il nuovo strumento di costruzione descrittiva del bot in Amazon Lex utilizza l’IA generativa per accelerare il processo di costruzione del bot. Invece di scrivere codice, i progettisti di conversazioni e gli sviluppatori dei bot possono ora descrivere in semplice inglese ciò che vogliono far realizzare al bot (ad esempio, “Prendi prenotazioni per il mio hotel utilizzando nome e contatto, date di viaggio, tipo di camera e informazioni di pagamento”). Utilizzando solo questo prompt semplice, Amazon Lex genererà automaticamente intenti, enunciati di addestramento, slot, promp e un flusso conversazionale per dar vita al bot descritto. Fornendo un design di base del bot, questa funzionalità riduce immensamente il tempo e la complessità nella costruzione dei chatbot conversazionali, consentendo al costruttore di rimodulare gli sforzi per perfezionare l’esperienza conversazionale.

Attingendo alla potenza dell’IA generativa con LLM, Amazon Lex consente agli sviluppatori e agli utenti non tecnici di costruire bot semplicemente descrivendo il loro obiettivo. Invece di codificare con cura intenti, enunciati, slot, e così via, gli sviluppatori possono fornire una richiesta in linguaggio naturale e Amazon Lex genererà automaticamente un flusso di base del bot pronto per ulteriori perfezionamenti. Inizialmente questa capacità è disponibile solo in inglese, ma gli sviluppatori possono personalizzare ulteriormente il bot generato dall’IA prima della distribuzione, risparmiando molte ore di lavoro di sviluppo manuale.

Miglioramento dell’esperienza dell’utente con la risoluzione assistita delle slot

Man mano che i consumatori diventano sempre più familiari con i chatbot e i sistemi di risposta vocale interattiva (IVR), si aspettano livelli più elevati di intelligenza nelle esperienze di self-service. La disambiguazione delle risposte più conversazionali è indispensabile per il successo poiché gli utenti si aspettano esperienze sempre più naturali e simili a quelle umane. Con la crescente fiducia dei consumatori nelle capacità dei chatbot, si attendono anche prestazioni elevate nella comprensione del linguaggio naturale (NLU). Nel probabile caso in cui un enunciato semanticamente semplice o complesso non venga risolto correttamente in uno slot, la fiducia dell’utente può vacillare. In tali casi, un LLM può assistere dinamicamente il modello di NLU di Amazon Lex esistente e garantire una risoluzione accurata dello slot anche quando l’enunciato dell’utente è al di là dei limiti del modello dello slot. In Amazon Lex, la funzione di risoluzione assistita delle slot offre agli sviluppatori del bot un ulteriore strumento per aumentare il contenimento.

Durante l’esecuzione, quando il NLU non riesce a risolvere uno slot in un turno di conversazione, Amazon Lex richiamerà l’LLM selezionato dallo sviluppatore del bot per assistere nella risoluzione dello slot. Se l’LLM è in grado di fornire un valore al successivo tentativo di risoluzione dello slot, l’utente può continuare la conversazione come di norma. Ad esempio, se al successivo tentativo di risoluzione dello slot un bot chiede “In quale città risiede il titolare della polizza?” e l’utente risponde “Vivo a Springfield”, l’LLM sarà in grado di risolvere il valore in “Springfield”. I tipi di slot supportati per questa funzionalità includono AMAZON.City, AMAZON.Country, AMAZON.Number, AMAZON.Date, AMAZON.AlphaNumeric (senza espressioni regolari) e AMAZON.PhoneNumber, e AMAZON.Confirmation. Al momento della stesura di questo documento, questa funzionalità è disponibile solo in inglese.

Miglioramento dell’esperienza del costruttore con la generazione di enunciati di addestramento

Uno dei punti critici che i costruttori di bot e i progettisti di conversazioni spesso incontrano è l’anticipazione della variazione e della diversità delle risposte durante l’invocazione di un’intento o nella richiesta di informazioni sugli slot. Quando uno sviluppatore di bot crea un nuovo intento, devono essere forniti degli enunciati di esempio per addestrare il modello di machine learning sui tipi di risposte che può e deve accettare. Spesso può essere difficile prevedere le permutazioni sul modo di parlare e la sintassi utilizzata dai clienti. Con la generazione di enunciati, Amazon Lex utilizza modelli fondamentali come Amazon Titan per generare enunciati di addestramento con un solo clic, senza la necessità di alcuna ingegneria delle richieste.

La generazione di enunciati utilizza il nome dell’intento, gli enunciati esistenti e facoltativamente la descrizione dell’intento per generare nuovi enunciati con un LLM. Gli sviluppatori di bot e i progettisti di conversazioni possono modificare o eliminare gli enunciati generati prima di accettarli. Questa funzionalità funziona sia con gli intenti nuovi che con quelli esistenti.

Conclusione

I recenti progressi nell’AI generativa hanno sicuramente reso migliori le esperienze automatizzate dei consumatori. Con Amazon Lex, ci impegniamo a integrare l’IA generativa in ogni aspetto dell’esperienza del costruttore e degli utenti. Le funzionalità menzionate in questo post sono solo l’inizio – non vediamo l’ora di mostrarvi ciò che verrà.

Per saperne di più, consulta la documentazione di Amazon Lex e prova queste funzionalità sulla console di Amazon Lex.