*Dieser Beitrag wurde mit einem selbst erstelltem CustomGPT auf Basis von Sophies neustem YouTube Video erstellt. Den Link zum Video findet ihr am Ende dieses Beitrags.
Rasa ist zurück – und zwar mit einem überarbeiteten Konzept, das den Einsatz von Large Language Models (LLMs) in den Mittelpunkt stellt. In dieser Podcast-Folge von Sophies Next AI Talk spricht Sophie mit Sebastian von Rasa über den technologischen Wandel des Unternehmens, den neuen Hybrid-Ansatz namens CALM und was das für die Zukunft von Conversational AI bedeutet.
Ein persönliches Comeback: Warum Rasa für Sophie eine besondere Rolle spielt
Für Sophie ist diese Podcast-Folge mehr als ein technisches Update. Mit Rasa hat ihre eigene AI-Reise begonnen – damals bei einem der ersten Chatbot-Projekte der Schweiz. Umso spannender ist es, zu hören, wie sich das einstige Open-Source-Startup weiterentwickelt hat und nun wieder zurück auf der Bühne der Conversational AI ist.
Der Wendepunkt: Vom LLM-Skeptiker zum CALM-Framework
Lange Zeit hielt sich Rasa von LLMs wie ChatGPT fern. Während andere Anbieter schnell auf die neue Technologie aufsprangen, setzte Rasa weiterhin auf klassische NLU-Systeme. Doch das hat sich geändert. Mit dem CALM-Framework (Conversational AI with Large Language Models) verfolgt Rasa nun einen hybriden Ansatz, der das Beste aus beiden Welten vereint:
- Strukturierte Business-Flows für maximale Kontrolle
- LLMs zur Sprachanreicherung für natürlichere Konversation
- Flexible Modellwahl: OpenAI, Mistral, LLaMA & Co. können je nach Anwendungsfall integriert werden
- On-Premise-Deployment für maximale Datensouveränität
Don’t Prompt and Pray – Kontrolle statt Blackbox
Ein zentrales Argument von Rasa: Unternehmen brauchen Kontrolle über ihre Chatbots. „Prompt and Pray“ – also sich blind auf die Antworten eines LLMs zu verlassen – ist aus Sicht von Rasa keine nachhaltige Lösung. Mit dem CALM-Ansatz behalten Unternehmen jederzeit die Kontrolle über ihre Antworten und können LLMs gezielt einsetzen, z. B. für bestimmte Zielgruppen, Kanäle oder Use Cases.
Happy Path + LLM = weniger Aufwand, mehr Qualität
Auch wenn Rasa keine Plug-and-Play-Lösung ist, senkt der neue Ansatz den Entwicklungsaufwand deutlich. Unternehmen definieren einen sogenannten „Happy Path“, also den idealen Gesprächsverlauf – Ausnahmen und Sonderfälle übernimmt dann das LLM. Damit lassen sich bis zu 80 % an Entwicklungszeit gegenüber früheren Lösungen einsparen.
No-Code meets Pro-Code: Ein System für alle Teams
Ein weiterer Fortschritt: Rasa bietet inzwischen eine grafische Benutzeroberfläche für Nicht-Programmierer. Der reine Bot-Dialog kann in einer Low-Code / No-Code Umgebung erstellt werden, während die technische Integration von einem kleinen Experten-Team übernommen wird. So können auch Fachbereiche ohne tiefes technisches Know-how eigene Chatbots entwerfen – inklusive API-Anbindung, Kanalsteuerung und Automatisierung.
Datenschutz, Skalierbarkeit und Voice
Besonders für datensensible Branchen wie Banken oder Versicherungen bietet Rasa einen echten Vorteil: vollständiges On-Premise-Hosting. Kundendaten bleiben unter Kontrolle des Unternehmens – ideal für den Einsatz in hochregulierten Umfeldern. Auch Voice-Anwendungen lassen sich mit passenden Modellen realisieren, etwa durch feingetunte LLaMA-Modelle mit extrem niedriger Latenz.
Fazit: Rasa hat gelernt – und liefert jetzt
Rasa war lange still – aber definitiv nicht untätig. Mit dem CALM-Framework liefert das Unternehmen jetzt eine hochflexible, sichere und skalierbare Lösung für Conversational AI, die sich vor den Big Playern nicht verstecken muss. Für Unternehmen, die ihre Customer Experience mit AI verbessern möchten, ohne die Kontrolle zu verlieren, könnte Rasa der richtige Partner sein.en!
Weitere Fragen?
Ihr habt Fragen dazu? Gerne unterstütze ich euch, stehe als Sparring-Partner zur Verfügung und beantworte eure Fragen. Ich freue ich mich immer über eure Nachrichten, am liebsten per WhatsApp Nachricht oder als E-Mail.