LLM-Chatbots: Best Practices

Chatbot LLM: le migliori pratiche


I chatbot e i voicebot hanno subito un cambiamento significativo in termini di qualità e metodi di implementazione grazie all’integrazione dei Large Language Models (LLM). In passato, le aziende dovevano definire minuziosamente ogni domanda e risposta, il che rendeva il processo di sviluppo lungo e poco flessibile. Anche dal punto di vista dell’utente, l’esperienza è stata di solito piuttosto deprimente, in quanto le risposte predefinite erano piuttosto generiche e poco centrate sull’utente. Oggi i LLM e metodi come la Retriever Augmented Generation (RAG) consentono di addestrare chatbot e voicebot in modo rapido ed efficiente, affinché siano in grado di comunicare in modo molto specifico e orientato al gruppo target. Questo facilita inizialmente lo sviluppo e l’implementazione, in quanto i bot possono rispondere dinamicamente a un’ampia gamma di richieste senza dover programmare in anticipo ogni possibile scenario di conversazione. Allo stesso tempo, ha portato l’esperienza del cliente a un livello completamente nuovo. La qualità delle risposte è aumentata di molte volte in termini di correttezza e individualità.

Nel seguente articolo troverai una selezione di chatbot LLM. L’elenco viene costantemente ampliato. Vale quindi la pena di “fare un salto” regolarmente.


Per ripetere

Cos’è un chatbot LLM?

I chatbot LLM, o Large Language Model, sono sistemi avanzati di IA che utilizzano l’IA generativa per comprendere e generare il linguaggio umano. Questi chatbot intelligenti si basano su modelli linguistici di grandi dimensioni come il GPT-4 o altri modelli open source che sono stati addestrati con enormi quantità di dati testuali per sviluppare una profonda comprensione del contesto, della sintassi e della semantica. Questa elaborazione linguistica avanzata consente ai chatbot LLM di svolgere una serie di compiti, dalla risposta a domande e creazione di contenuti all’automazione dell’assistenza clienti.

Metodi come la Retriever Augmented Generation (RAG) svolgono un ruolo importante in relazione ai chatbot LLM. Il RAG combina le capacità di un sistema di retrieval, che recupera documenti o informazioni rilevanti da un database, con la capacità di generazione di un modello linguistico di grandi dimensioni. Questo permette ai chatbot LLM non solo di rispondere in base al modello addestrato, ma anche di integrare informazioni specifiche e legate al contesto provenienti dalle fonti dell’azienda per generare risposte più precise e informate. L’uso di RAG estende quindi in modo significativo le funzionalità dei chatbot LLM, consentendo alle aziende di personalizzare le conoscenze del chatbot. Le aziende possono persino definire che i chatbot LLM debbano accedere solo ai contenuti forniti dall’azienda. In questo modo si garantisce che il bot non acceda a informazioni indesiderate o errate.


Clara da Helvetia Assicurazioni Svizzera

Il primo chatbot LLM proveniente dalla Svizzera si chiama Clara e proviene da Helvetia Insurance. Il chatbot LLM è stato sviluppato e pubblicato in un progetto pilota all’inizio del 2023. Durante questa fase, il chatbot ha attinto solo alle conoscenze del sito web delle assicurazioni e ha utilizzato il modello linguistico GPT-3 di OpenAI per rispondere alle domande dei clienti e dei potenziali clienti sulle assicurazioni. Maggiori dettagli sull’esperimento Helvetia nel mio rapporto sull’esperienza.

Nelle successive iterazioni, la compagnia assicurativa ha integrato le proprie conoscenze e competenze con ulteriori connessioni interne. A partire dal 07.2024, il chatbot utilizza anche flussi di chat basati su regole selezionate, che provengono ancora dal precedente progetto di chatbot basato sull’intento. Questi vengono attivati principalmente quando devono essere eseguiti alcuni processi assicurativi, come ad esempio un processo di reclamo. Tuttavia, l’obiettivo è quello di sostituire questi flussi con LLM e RAG in futuro.

Come si può vedere nelle immagini, il chatbot utilizza occasionalmente gli emoji nonostante il settore assicurativo sia piuttosto conservatore e adatta la sua tonalità a quella dei suoi utenti.

Maggiori informazioni sul chatbot di Helvetia nella mia intervista con Florian Nägele sui chatbot di LLM nel settore assicurativo.

Lou della Luzerner Kantonalbank

La Luzerner Kantonalbank aveva inizialmente un chatbot basato su regole. Ora questo viene convertito passo dopo passo in un chatbot LLM. La Luzerner Kantonalbank sta effettuando il cambio di soggetto. In una prima fase, solo tutti i flussi basati su regole relativi al servizio di pagamento Twint sono stati integrati dal chatbot LLM. A partire dal 07.2024, il chatbot non ha interfacce con i sistemi interni. I clienti non devono inserire alcun dato personale nel chatbot per evitare rischi di protezione dei dati.

L’assistente digitale della Banca Migros

Il chatbot della Banca Migros basato su LLM è disponibile nella pagina dei contatti. Come la maggior parte dei chatbot LLM, il bot inizia con informazioni complete sulla protezione dei dati e poi chiede all’utente come può essere d’aiuto. È molto interessante il fatto che il chatbot LLM sembra essere addestrato a mantenere sempre viva la conversazione e scrive la maggior parte dei dialoghi con una domanda successiva all’utente. Se un utente chiede informazioni su un prodotto di conto corrente, ad esempio, il chatbot LLM fornisce prima informazioni sui prodotti di conto corrente e poi cerca di approfondire le esigenze dell’utente per fornire una consulenza ancora migliore.

L’assistente digitale della Suva Accident Insurance

La Suva Accident Insurance offre un chatbot LLM sul suo sito web dalla fine del 2023. In una prima fase, il chatbot può rispondere solo a domande generiche, la maggior parte delle quali ottenute dal sito web della Suva Insurance. Al 07.2027, il chatbot LLM ha un tono di voce piuttosto conservatore che difficilmente si adatta al singolo utente. Il chatbot LLM di Suva Versicherung utilizza il modello linguistico OpenAI.

Il chatbot di Klarna parla più di 35 lingue

La società finanziaria Klarna ha annunciato la sua partnership con OpenAI nel 2023 e ha anche pubblicato il suo chatbot LLM. Il chatbot LLM di Klarna è stato riconosciuto dai media come un progetto di grande successo fin dall’inizio, con 2,3 milioni di conversazioni nel primo mese, che hanno rappresentato i due terzi delle chat del servizio clienti. Quasi fin dall’inizio, è in grado di sostituire il lavoro di 700 dipendenti a tempo pieno mantenendo la soddisfazione dei clienti allo stesso livello dei dipendenti umani. La risoluzione delle richieste degli utenti è più precisa, il che ha portato a una riduzione del 25% delle richieste di follow-up. I clienti ricevono risposte in meno di 2 minuti, rispetto agli 11 minuti precedenti. Il chatbot è disponibile 24 ore su 24 in 23 negozi e può comunicare in più di 35 lingue. Con l’introduzione del chatbot LLM, si prevede che Klarna realizzi un aumento dei profitti di 40 milioni di dollari entro il 2024.

Se i clienti si sono autenticati o hanno effettuato il login, il chatbot LLM può anche rispondere a domande individuali sul saldo del conto, ecc.

Jumbot da Jumbo Baumarkt

Il negozio svizzero di bricolage e hobbistica Jumbo ha lanciato un chatbot LLM a metà del 2023 per consigliare i visitatori del sito web. Il bot funge da consulente di prodotto ed è disponibile tramite il sito web. I clienti possono porre le loro domande sui dettagli dei prodotti o sulle loro raccomandazioni e il chatbot risponde in base alla sua base di conoscenze. La base di conoscenze è stata compilata dal team di Jumbo-Digital e contiene grosso modo i contenuti del sito web e altri documenti di dettaglio sui prodotti. Il primo obiettivo del chatbot LLM era quello di offrire ai clienti un’esperienza migliore sul sito web, consentendo loro di chiedere consigli 24 ore su 24 grazie al chatbot LLM e di sentirsi quindi più sicuri nella loro decisione di acquisto. Questo primo obiettivo è stato raggiunto. Ora il chatbot verrà dotato di sempre maggiori funzionalità nelle successive iterazioni.

A partire dal 07.2024, il bot LLM visualizza solitamente risposte molto lunghe ed esaurienti. I LLM tendono a fornire risposte molto dettagliate, che a volte possono compromettere l’esperienza dell’utente. Tuttavia, questo aspetto deve essere ottimizzato in ulteriori iterazioni. Per saperne di più sul chatbot JumBot, leggi il mio articolo sui bot LLM nella vendita al dettaglio.

L’assistente agli acquisti di Zalando

Il negozio online Zalando offre un assistente agli acquisti basato su LLM dal 2024. Tuttavia, l’Assistente può essere utilizzato solo con un account cliente esistente. I clienti devono prima effettuare il login e poi ricevere i consigli per gli acquisti supportati dall’intelligenza artificiale. Zalando stessa promette che i clienti potranno utilizzare il Fashion Assistant per cercare i prodotti con parole proprie e filtrare così l’assortimento in modo più preciso. Inoltre, riceverai una consulenza personalizzata per aiutarti a trovare il look giusto tra la vasta gamma di prodotti. In definitiva, una consulenza migliore dovrebbe tradursi in un aumento delle vendite e in una riduzione dei resi.

Julia gli assistenti di Weltbild.de

Innanzitutto, va detto che Weltbild utilizza una combinazione di chatbot LLM e bot basati su regole. La chat inizia con un breve saluto e l’utente può scegliere tra diversi argomenti. Solo quando non c’è nessun argomento, il chatbot annuncia che ora sta usando il suo modello LLM e lavora con il modello linguistico GPT.

Il chatbot LLM utilizza quindi principalmente il sito web come fonte e fornisce all’utente risposte complete ma brevi. Inoltre, il chatbot LLM mostra sempre le sue fonti.

Digi di Migros Do It Garden

Digi si presenta ai clienti come un assistente digitale per la consulenza sui prodotti. E a partire dall’estate 2024, questo corrisponde molto bene all’attuale gamma di funzioni. Quando gli utenti pongono al chatbot LLM una domanda sui prodotti, di solito ricevono una risposta piuttosto esauriente e precisa. Il chatbot di LLM è in grado di comprendere le domande di follow-up relative ai prodotti suggeriti. Tuttavia, quando gli utenti chiedono al chatbot LLM informazioni sulle condizioni di consegna e così via, diventa più difficile. In questo caso, il chatbot LLM fa rapidamente riferimento a consulenti umani. Gli utenti possono anche selezionare “Consulenza video” nella chat. Con questa opzione, vengono collegati a un dipendente umano.

Codice da GS1

GS1 è responsabile dell’emissione dei codici a barre in Svizzera. Anche se probabilmente tutti utilizzano i codici a barre, almeno come consumatori, ci sono sempre molte richieste di informazioni da parte dei clienti riguardo alla registrazione o all’utilizzo dei codici a barre. GS1 ha introdotto un chatbot basato su LLM sul suo sito web all’inizio del 2024. Il chatbot è stato implementato con il Microsoft Bot Framework e utilizza il GPT come modello linguistico.

Nella prima fase, il bot può solo rispondere alle domande, ma non può eseguire alcun processo. Per una migliore tracciabilità delle risposte, il bot LLM mostra sempre le sue fonti e gli utenti possono aprire l’intera fonte direttamente tramite la chat, se necessario.

ZüriCityGPT

ZüriCityGPT è, come suggerisce il nome, una sorta di ChatGPT che è stato addestrato con tutti i dati pubblicamente disponibili della città di Zurigo. L’interfaccia del chatbot è in qualche modo simile a quella di ChatGPT e meno simile a quella di un classico chatbot. Inoltre, al momento questo bot non è in grado di capire le domande successive o di rispondere a domande approfondite. Il bot risponde sempre e solo a una domanda, dopodiché l’utente deve porre la domanda successiva. Il bot può essere trovato tramite questa pagina di destinazione separata.

Ciao l’aiutante AI di Nachhaltigleben.ch

La rivista sulla sostenibilità nachhaltigleben.ch offre ai suoi lettori un chatbot LLM. Il chatbot utilizza la maggior parte delle informazioni presenti sul sito web e le combina con il suo modello linguistico. Il chatbot LLM utilizza un numero considerevole di emoji e, dopo ogni risposta, propone agli utenti domande successive che corrispondono alla domanda iniziale.

Sotto il campo di inserimento c’è una nota in cui si precisa che gli utenti non devono inserire alcuna informazione personale nella chat e devono valutare da soli l’accuratezza della risposta.

Flurina dalla Ferrovia Retica

La Ferrovia Retica ha lanciato il suo primo chatbot a metà del 2023. Il chatbot utilizza i metodi di LLM e RAG fin dall’inizio. Il chatbot LLM accede principalmente ai contenuti del sito web. Il modello linguistico utilizzato è quello di OpenAI.

Il chatbot è trilingue fin dall’inizio e chiede agli utenti quale lingua preferiscono all’inizio della conversazione. In linea di principio, non sarebbe necessario interrogare la lingua quando si utilizzano gli LLM. Gli LLM sono indipendenti dalla lingua, per così dire. Tuttavia, diventa impegnativo quando il sito web è anche trilingue e non è identico in ogni lingua. In questo caso, è opportuno chiedere all’utente la lingua preferita all’inizio, in modo che il bot LLM possa selezionare le fonti di dati corrette come base per le sue risposte.

Il chatbot è trilingue fin dall’inizio e chiede agli utenti quale lingua preferiscono all’inizio della conversazione. In linea di principio, non sarebbe necessario interrogare la lingua quando si utilizzano gli LLM. Gli LLM sono indipendenti dalla lingua, per così dire. Tuttavia, diventa impegnativo quando il sito web è anche trilingue e non è identico in ogni lingua. In questo caso, è opportuno chiedere all’utente la lingua preferita all’inizio, in modo che il bot LLM possa selezionare le fonti di dati corrette come base per le sue risposte.

Il chatbot LLM di BLT Baselland Transport AG

Anche Baselland Transport AG ha un chatbot LLM sul suo sito web dalla metà del 2024. A partire dalla metà del 2024, il chatbot funziona sia in base a regole che con l’aiuto di modelli linguistici e AI generativa. All’inizio del dialogo, il chatbot chiede all’utente se desidera selezionare un argomento fisso o porre una domanda personale. Se l’utente decide di rispondere alla sua domanda, il modello linguistico e il database di conoscenze memorizzate vengono utilizzati per generare la risposta. Altrimenti, il bot esegue un processo basato su regole. Per garantire che non si crei confusione tra domande successive con o senza riferimento contestuale, il chatbot chiede dopo ogni risposta se l’utente ha una domanda nuova o successiva.

Sophia, l’assistente digitale di Pro Senectute beider Basel

https://bb.pro-senectute.ch/sophia-digitale-beraterin/sophia.htmlProSenectute Basel ha pubblicato il suo primo chatbot LLM a metà del 2024. Per il lancio, la ONG non ha integrato il chatbot direttamente nel sito web classico, ma ha creato una landing page separata con un sottodominio per il chatbot LLM. Gli interessati possono utilizzare il chatbot LLM direttamente tramite la finestra di chat sul lato destro dello schermo. La sottopagina spiega inoltre agli utenti cosa può e non può fare il chatbot e fornisce ulteriori informazioni sulla protezione dei dati e su altre opzioni di contatto. La sottopagina con il chatbot LLM di Pro Senectute Basel può essere visitata qui.

Sei interessato anche ai bot LLM? Fornisco consulenza a molte aziende sull’uso della chat e del voicebot di LLM. Sarei felice di accompagnare il tuo progetto di bot LLM e di aiutarti a trovare la tecnologia giusta. Naturalmente, posso anche dare un’occhiata al tuo attuale chatbot e fornirti un feedback strutturato.

Inviami un messaggio via WhatsApp o via e-mail.

Prenota ora
La tua consulenza personale

Hai bisogno di supporto o hai delle domande? Allora prendi semplicemente un appuntamento con me per avere una consulenza personalizzata. Non vedo l’ora di vederti!

> Concetto e strategia

> Keynote, workshop e contributi di esperti

> Chatbot, Voicebot, ChatGPT

Ulteriori contributi

Un buon contenuto costa tempo...

... Il tempo a volte è denaro.

Ora puoi versare un piccolo importo a Sophie, regolarmente o una tantum, come ringraziamento per il suo lavoro qui (un piccolo suggerimento da parte mia in qualità di assistente AI di Sophie).