fbpx
llm chatbot

LLM-Chatbots – Eine Einführung in die neue Welt der Bots

Für den folgenden Beitrag hat mein AI-Assistant zusätzlich eine Podcast-Folge erstellt. Wer lieber hört, statt liest, kann den Podcast über folgenden Link hören (ACHTUNG: Podcast ist ausschliesslich von AI erstellt, keine Garantie für Richtigkeit).

Chat- und Voicebots haben durch die Integration von Large Language Models (LLMs) eine deutliche Veränderung im Hinblick auf Qualität und Umsetzungsmethoden erlebt. Früher mussten Unternehmen mühsam jede Frage und Antwort vordefinieren, was den Entwicklungsprozess langwierig und unflexibel gestaltete. Auch auf Userseite war die Experience meist eher ernüchternd, da die vordefinierten Antworten eher allgemein und wenig nutzerzentriert waren. Heute ermöglichen LLMs und Methoden wie Retriever-Augmented Generation (RAG), Chat- und Voicebots schnell und effizient zu trainieren, sodass diese in der Lage sind, sehr spezifisch und zielgruppengerecht zu kommunizieren. Dies erleichtert zunächst die Entwicklung und Implementierung, da die Bots nun dynamisch auf eine breite Palette von Anfragen reagieren können, ohne dass jedes mögliche Gesprächsszenario vorab programmiert werden muss. Gleichzeitig hat es die Customer Experience auf ein ganz neues Level gebracht. Die Qualität der Antworten ist im Hinblick auf Korrektheit der Antwort, sowie Individualität um ein Vielfaches gestiegen.

Im folgenden Beitrag alles, was ihr zu der neuen Art der Chatbots wissen müsst.


Zur Wiederholung

Was sind Large Language Models (LLMs)?

Ein Large Language Model (LLM) ist ein fortschrittliches maschinelles Lernmodell, das darauf spezialisiert ist, menschliche Sprache zu verstehen und zu generieren. Diese Modelle, die auf tiefen neuronalen Netzwerkarchitekturen wie den sogenannten Transformern basieren, werden mit gigantischen Mengen an Textdaten trainiert. Durch dieses Training lernen sie, Muster, Strukturen und die Bedeutungen hinter Wörtern und Sätzen zu erkennen, was es ihnen ermöglicht, in natürlicher Sprache zu kommunizieren. LLMs können für eine Vielzahl von Anwendungen genutzt werden, darunter die Textgenerierung, Übersetzung, Zusammenfassung und das Beantworten von Fragen, indem sie effektiv neue Texte basierend auf dem gelernten Kontext und den eingegebenen Aufforderungen erzeugen.

Was bedeutet Retriever-Augmented Generation (RAG)?

Retriever-Augmented Generation (RAG) ist eine Methode in der natürlichen Sprachverarbeitung, die einen Informations-Retriever und einen Textgenerator kombiniert, um präzise Antworten auf Benutzerfragen zu generieren. Der Prozess beginnt damit, dass der Retriever relevante Dokumente oder Daten aus einer umfangreichen Datenbank abruft, basierend auf der Übereinstimmung mit der gestellten Benutzerfrage. Diese ausgewählten Informationen werden dann an den Generator, typischerweise ein fortgeschrittenes Sprachmodell wie ein Transformer-basiertes Large Language Model, übergeben. Der Generator verwendet diese Informationen, um eine kohärente und informierte Antwort zu formulieren. Diese Methode ermöglicht es, Antworten zu erzeugen, die nicht nur auf vorher trainiertem Wissen basieren, sondern auch aktuelle, spezifische und kontextbezogene Informationen einbeziehen, wodurch die Genauigkeit und Relevanz der Antworten deutlich verbessert werden.


Was ist ein LLM-Chatbot?

LLM-Chatbots, oder Large Language Model Chatbots, sind fortschrittliche KI-Systeme, die Generative KI einsetzen, um menschliche Sprache zu verstehen und zu generieren. Diese intelligenten Chatbots basieren auf Large Language Modellen wie GPT-4 oder anderen Open Source Modellen, die mit enormen Mengen an Textdaten trainiert wurden, um ein tiefgehendes Verständnis von Kontext, Syntax und Semantik zu entwickeln. Durch diese fortschrittliche Sprachverarbeitung können LLM-Chatbots eine Vielzahl von Aufgaben übernehmen, von der Beantwortung von Fragen und der Erstellung von Inhalten bis hin zur Automatisierung des Kundensupports.

Im Zusammenhang mit LLM-Chatbots spielen Methoden wie Retriever-Augmented Generation (RAG) eine wichtige Rolle. RAG kombiniert die Fähigkeiten eines Retrieval-Systems, das relevante Dokumente oder Informationen aus einer Datenbank abruft, mit der Generierungsfähigkeit eines Large Language Models. Dies ermöglicht es LLM-Chatbots, nicht nur auf der Grundlage des trainierten Modells zu antworten, sondern auch spezifische, kontextbezogene Informationen aus unternehmenseigenen Quellen zu integrieren, um präzisere und informiertere Antworten zu generieren. Der Einsatz von RAG erweitert also die Funktionalität von LLM-Chatbots erheblich, indem es Unternehmen möglich macht, das Wissen des Chatbots individuell zu ergänzen. Unternehmen können sogar definieren, dass der LLM-Chatbots ausschliesslich auf die vom Unternehmen zur Verfügung gestellten Inhalte zurück greifen soll. So wird sichergestellt, dass der Bot nicht auf ungewollte bzw. falsche Informationen zurück greift.

Wie funktioniert ein LLM-Chatbot?

LLM-Chatbots bestehen aus mehreren Hauptkomponenten. Mir gefällt die veranschaulichte Darstellung von TrueBlue, die LLM-Chatbots in sehr vereinfachte fünf Hauptkomponenten aufteilen:

1. Das Gehirn

Das Gehirn ist der grundlegende Teil eines LLM-Chatbots und fungiert als zentrale Verarbeitungseinheit oder das “Gehirn”. Das Gehirn verwaltet, wie beim Menschen, diegesamte Logik und die Verhaltensmerkmale des Bots. Es interpretiert Nutzereingaben, wendet logische Schlussfolgerungen an und bestimmt den geeignetsten Handlungsweg basierend auf den vom Unternehmen definiertenFähigkeiten und Zielen des Chatbots. Das Gehirn sorgt dafür, dass der Bot korrekt und konsistent gemäss vordefinierten Richtlinien oder erlernten Verhaltensmustern agiert.

2. Das Gedächtnis 

Das Gedächtnis dient als Speicher für die internen Protokolle und Benutzerinteraktionen des Chatbots. Hier werden Daten gespeichert, organisiert und abgerufen. Dies ermöglicht es dem Bot, sich an frühere Gespräche, Benutzerpräferenzen und Kontextinformationen zu erinnern und so personalisierte und relevante Antworten zu geben. Das Gedächtnis ist entscheidend, da es einen zeitlichen Rahmen bietet und Zusatzdetails speichert, die für spezifische Benutzer oder Aufgaben relevant sind. Unternehmen können selbst entscheiden, wo das Gehirn die Daten speichert und somit sicherstellen, dass die eigenen Datenschutzanforderungen vom LLM-Chatbot berücksichtigt werden.

3. Workflows

Workflows sind vordefinierte Prozesse bzw. Aufgaben, die der Chatbot können soll. Diese Workflows können von der Beantwortung komplexer Anfragen über das Codieren bis hin zur Informationssuche und der Ausführung anderer spezialisierter Aufgaben reichen. Sie ähneln den verschiedenen Anwendungen und Dienstprogrammen in einem Computer, die eine breite Palette von Funktionen ermöglichen. Jeder Workflow ist für einen bestimmten Zweck konzipiert, und das Gehirn entscheidet intelligent, welches Werkzeug je nach Kontext und Art der Aufgabe verwendet wird. Dieser modulare Ansatz ermöglicht Unternehmen eine hohe Flexibilität und Skalierbarkeit, da neue Workflows hinzugefügt oder bestehende aktualisiert werden können, ohne die Gesamtfunktionalität des Chatbots zu beeinträchtigen. Die Chat- und Voicebots können so auf einfache Art und Weise neue Fähigkeiten bzw. Funktionen erlernen.

4. Das Planungsmodul

Das Planungsmodul ist die Komponente, die die Fähigkeit des Chatbots zur Bewältigung komplexer Probleme und zur Verfeinerung von Ausführungsplänen ermöglicht. Es ist vergleichbar mit einer strategischen Schicht über dem Gehirn und den Workflows, die es dem LLM-Chatbot ermöglicht, nicht nur auf unmittelbare Anfragen zu reagieren, sondern auch langfristige Ziele oder kompliziertere Aufgaben zu planen. Das Planungsmodul bewertet verschiedene Ansätze, antizipiert potenzielle Herausforderungen und entwickelt Strategien zur Erreichung des gewünschten Ergebnisses. Dies kann beispielsweise das übergeordnete Ziele „mehr Verkäufe“ sein.

5. Prompts

Prompts kennen wir vor allem durch die Nutzung von ChatGPT oder ähnlichen Technologien. Auch LLM-Chatbots arbeiten mit Prompts. Dank Prompts können Unternehmen das Verhaltes des Chatbots definieren und ungewünschte Reaktionen seitens des Bots weitestgehend verhindern. Dabei wird zwischen zwei Haupttypen von Prompts unterschieden:

Allgemeiner Prompt:

  • Dieser Prompt skizziert die Fähigkeiten und das Verhalten des Bots und bildet die Grundlage für die Interaktion und Reaktion des Agenten. Er fungiert als Leitfaden auf hoher Ebene, der das gesamte Funktionieren des Agenten prägt.

Aufgabenbezogener Prompt:

  • Dieser Prompt definiert das spezifische Ziel, das der LLM-Chatbots erreichen muss, und leitet seine Handlungen und Entscheidungsprozesse. Er stellt sicher, dass die Antworten des Chatbots auf die jeweilige Aufgabe ausgerichtet sind, sei es die Beantwortung einer Kundenanfrage oder die Durchführung einer komplexen Analyse.

Wie implementieren Unternehmen LLM-Chatbots?

Die Implementierung von LLM-Chatbots umfasst die folgenden sieben Schritte:

  • Datensammlung
  • Datenvorverarbeitung
  • Training des Sprachmodells
  • Feinabstimmung
  • Testing und Optmierungen
  • Bereitstellung und Integration
  • Kontinuierliches Lernen und Verbesserung

Zunächst wird eine umfangreiche und unternehmensrelevante Contentsammlung zusammengestellt, die als Basis für das Sprachmodelltraining dient. Die gesammelten Daten werden dann bereinigt und tokenisiert, um sie für das Training vorzubereiten.

In der Trainingsphase werden maschinelle Lernverfahren, insbesondere NLP-Strategien, angewendet, um das Modell auf den bereinigten Datensatz zu trainieren. Anschliessend erfolgt eine Feinabstimmung auf spezifische Anwendungsfälle, um die Genauigkeit für bestimmte Aufgaben zu erhöhen. Nach dem ersten Testing des LLM-Chatbots, bei dem Verbesserungsbereiche identifiziert werden, folgt die iterative Verfeinerung durch Anpassungen der Trainingsdaten und weitere Modellparameter.

Sobald zufriedenstellende Leistungen erzielt werden, wird der LLM-Chatbot in der Zielumgebung des Unternehmens implementiert und über APIs in bestehende Systeme integriert. Um Aktualität und Relevanz zu gewährleisten, wird der Chatbot regelmässig mit neuen Daten retrainiert und durch Feedback-Schleifen kontinuierlich verbessert. Diese Schritte gewährleisten, dass der LLM-Chatbot präzise und relevante Antworten liefert, die den aktuellen Benutzeranforderungen entsprechen.

Welche Anwendungen gibt es für LLM-Chatbots?

LLM-Chatbots sind heute schon sehr vielseitig einsetzbar und können in zahlreichen Bereichen Anwendung finden. Hier sind einige der wichtigsten Anwendungen:

  1. Kundenservice: LLM-Chatbots werden häufig im Kundenservice eingesetzt, um häufig gestellte Fragen zu beantworten, Support-Tickets zu verwalten und Problemlösungen anzubieten. Sie können 24/7 verfügbar sein und somit die Wartezeiten für Kunden erheblich verkürzen.
  2. Personalisierung von Marketingkampagnen: LLM-Chatbots können personalisierte Nachrichten basierend auf den Präferenzen und dem bisherigen Verhalten der Kunden versenden. Sie können auch bei der Durchführung von Umfragen helfen, um besseres Kundenfeedback zu sammeln.
  3. E-Commerce und Retail: In Online-Shops können LLM-Chatbots Kunden bei der Produktauswahl helfen, Produktempfehlungen aussprechen und den Kaufprozess unterstützen.
  4. Gesundheitswesen: Im medizinischen Bereich können LLM-Chatbots Patienten Informationen zu Symptomen geben, erste Vor-Diagnosen unterstützen und Hinweise zur Medikamenteneinnahme bieten. Sie dienen auch als erste Anlaufstelle, um die Dringlichkeit von Fällen zu bewerten und Ressourcen entsprechend zu allokieren.
  5. Finanzdienstleistungen: In der Finanzbranche helfen LLM-Chatbots bei der Automatisierung von Anfragen zu Kontoständen, Transaktionen und können Beratung in grundlegenden Finanzfragen bieten.
  6. Bildung und Training: LLM-Chatbots können als interaktive Lernassistenten fungieren, die Lernmaterialien anbieten, Quizze durchführen und auf spezifische Fragen von Studierenden eingehen.
  7. HR und Rekrutierung: LLM-Chatbots können den Rekrutierungsprozess unterstützen, indem sie Lebensläufe sichten, erste Interviews führen und die Kommunikation mit den Bewerbern automatisieren.
  8. Interne Geschäftsprozesse: LLM-Chatbots können auch intern eingesetzt werden, um Mitarbeitern schnellen Zugriff auf Firmeninformationen zu geben, administrative Aufgaben wie die Buchung von Räumen oder die Verwaltung von Kalendern zu erleichtern.

Was sind die Vorteile von LLM-Chatbots?

LLM-Chatbots bieten Unternehmen und Endnutzern eine Vielzahl an Vorteilen. Im folgenden zunächst einige allgemeine Vorteile von Chatbots und anschliessend konkrete Vorteile von LLM Chatbots im Vergleich zu Chatbots ohne LLMs:

Allgemeine Vorteile von Chatbots:

  1. Verfügbarkeit: Chatbots sind rund um die Uhr verfügbar und können Benutzeranfragen ohne Unterbrechung beantworten, was besonders ausserhalb der Geschäftszeiten wertvoll ist.
  2. Skalierbarkeit: Bots können gleichzeitig mit Tausenden von Anfragen umgehen, was sie ideal für große Unternehmen oder Ereignisse mit hohem Nutzeraufkommen macht.
  3. Kosteneffizienz: Chatbots reduzieren die Notwendigkeit für menschliches Personal und können somit die Kosten für Kundensupport und -betreuung erheblich senken.
  4. Konsistenz: Bots bieten eine gleichbleibende Qualität der Antworten und Benutzererfahrung, was zur Markenkonsistenz beiträgt.
  5. Datensammlung: Chatbots können wertvolle Daten über Benutzerinteraktionen sammeln, die zur Verbesserung von Produkten, Dienstleistungen und Kundenerlebnissen analysiert werden können.

Vorteile von LLM-Chatbots gegenüber traditionellen Chatbots:

  1. Verbessertes Verständnis: LLM-Chatbots, die auf Large Language Models wie GPT basieren, haben ein tieferes Verständnis von Sprache, was ihnen ermöglicht, natürlichere und kontextuell relevantere Antworten zu geben. Sie können komplexe Anfragen besser verstehen und darauf reagieren.
  2. Anpassungsfähigkeit: LLM-Chatbots können sich aufgrund ihres trainierten Verständnisses für Sprache und Kontext schneller an neue Themen und Anfragen anpassen, ohne dass für jede neue Anforderung explizit programmiert werden muss. Der Entwicklungsprozess und auch der Anpassungsprozess von Bots wird dadurch deutlich einfacher und schneller.
  3. Personalisierung: Durch das fortgeschrittene Sprachverständnis können LLM-Chatbots personalisiertere Interaktionen bieten, indem sie die Tonalität, Stimmung und frühere Interaktionen berücksichtigen, um die Kommunikation individueller zu gestalten. Dies steigert die Customer Experience enorm.
  4. Fähigkeit zur Langtextgenerierung: Im Gegensatz zu älteren Modellen, die meist nur kurze und einfache Texte generieren konnten, sind LLM-Chatbots in der Lage, ausführlichere und informativere Inhalte zu erstellen, was sie für Anwendungen wie Content-Erstellung, detaillierte Produktbeschreibungen und Bildungszwecke nützlich macht.
  5. Integration von externem Wissen: LLM-Chatbots, insbesondere solche, die RAG nutzen, können unternehmensspezifische Datenquellen anzapfen, um ihre Antworten zu informieren und zu verbessern. Dies ermöglicht es ihnen, aktuelle, genaue und tiefgreifende Informationen zu liefern, die genau zu dem Unternehmen passen.

Für wen eignen sich LLM-Chatbots?

Die Hauptaufgabe von LLM-Chatbots besteht in der automatisierten Beantwortung von Fragen oder das Triggern von vordefinierten Prozessen. Folglich eignen sich LLM-Chatbots für alle Unternehmen bei denen Mitarbeitenden, die während ihren Arbeitsabläufe immer wieder ähnliche Fragen beantworten müssen. Dabei gilt anzumerken, LLM-Chatbots können intern für Mitarbeitende oder extern für Kunden eingesetzt werden. Also auch ein IT-Helpdesk oder eine HR-Abteilung, die regelmässig Anfragen von internen Mitarbeitenden erhalten, können durch einen LLM-Chatbot entlastet werden. LLM-Chatbots für Kunden werden meist im Customer Service eingesetzt oder vereinzelt auch im Marketing.

Wann lohnt sich der Einsatz von LLM-Chatbots?

Aufgrund der vereinfachten Implementierung von LLM-Chatbots und ihrer stark verbesserten Qualität im Vergleich zu regel- oder intentbasierten Systemen, rechnet sich die Investition in LLM-Chatbots heute früher als noch vor einigen Jahren. Generell ist der Einsatz von LLM-Chatbots überall dort angebracht, wo die Inhalte für die Beantwortung von Anfragen bereits in vorhandenen Wissensquellen existieren. Unternehmen, bei denen dies zutrifft und die täglich eine hohe Anzahl von Anfragen verzeichnen, sollten den Einsatz eines LLM-Chatbots in Betracht ziehen.

Gibt es auch noch Chatbots ohne LLMs?

Chatbots ohne die Einbindung eines LLMs werden heute kaum noch umgesetzt. Jedoch existieren immer mehr Mischformen. In vielen Fällen handelt es sich dabei um Chatbots, die zunächst ohne LLM und ohne RAG entwickelt worden sind und nun nachträglich ergänzt werden.

Ich persönlich finde diese Mischformen heikel. Der Chatbot gibt dann eine Mischung aus fixen bzw. vordefinierten unpersönlichen Antworten und gleichzeitig auch LLM-generierte Antworten, die deutlich spezifischer und persönlicher sind. Diese Mischung stellt oftmals einen Unterbruch in der Customer Experience dar.

Was müssen Unternehmen bei der Einführung und Nutzung von LLM-Chatbots beachten?

Die Umsetzung und Implementierung von LLM-Chatbots verläuft, wie oben geschrieben, relativ einfach und strukturiert. Folgende Punkte sollten jedoch besonders beachtet werden.

  1. Datenschutz: Es muss sicher gestellt sein, wo der LLM-Chatbot seine Daten abspeichert und dieser Speicherort muss mit den Compliance-Regeln des Unternehmens übereinstimmen.
  2. Datenquellen: Unternehmen müssen saubere und relevante Datenquellen für den LLM-Chatbot haben. Viele Unternehmen nutzen als Grundlage die eigene Webseite. Sofern diese ordentlich geführt ist, stellt dies auch keine Herausforderungen dar. Enthält die Webseite jedoch veraltete Daten, müssen Unternehmen diese zuerst bereinigen.
  3. Schulungen der Mitarbeitenden: Die Rolle der Mitarbeitenden darf nicht ausser Acht gelassen werden. Unternehmen müssen ihre Mitarbeitenden ausreichend schulen und ihnen auch die Hintergründe des LLM-Chatbots erklären.
  4. User Experience: Durch die Verwendung von LLMs neigen viele Chatbots dazu sehr lange und ausführliche Antworten zu geben. Unternehmen müssen eine gute Balance zwischen der Tiefe der Antwort und dem Umfang der Antwort finden. Dies kann je nach Anfrage variieren.

Welche Risiken bringen LLM-Chatbots?

  1. Qualitätsprobleme: Auch wenn LLM-Chatbots grundsätzlich im Voraus fixe Regeln zum Verhalten bekommen und Unternehmen auch das Trainingswissen des Chatbots einschränken können, kann es in seltenen Fällen zu Fehlantworten kommen. Dies lässt sich nicht komplett ausschliessen, wird aber immer weiter verbessert.
  2. Mangelnde Kontrolle: LLM-Chatbots generieren bei jeder Nutzeranfrage eine neue Antwort. Unternehmen haben in diesem Moment keine direkte Kontrolle über den Chatbot. Umso wichtiger ist es, dass der Bot ausreichend getestet wird, bevor er veröffentlicht wird.
  3. Datenschutz und Sicherheit: LLM-Chatbots speichern Konversationsdaten und andere Informationen. Hier muss sichergestellt sein, dass keine Daten ungefragt an Dritte geraten und dass die Art der Datenspeicherung mit den Compliance-Anforderungen des Unternehmens übereinstimmt.

Wie reagieren Kunden auf LLM-Chatbots?

Chatbots sind aufgrund der schlechten Qualität von regelbasierten Bots immer noch etwas negativ belastet. Diese negativen Einstellung verringern sich jedoch mehr und mehr. Zahlreiche Best Practices, wie das der Helvetia Schweiz zeigen Kunden und Unternehmen, dass LLM-Chatbots eine deutlich höhere Qualität und Antwortgenauigkeit aufweisen. Erste Zahlen zeigen, dass Kunden bzw. Nutzer von Chatbots dies mehr und mehr verstehen und die Abneigung gegenüber LLM-Chatbots sinkt. Kunden werden immer motivierter einen Chat mit einem LLM-Chatbots zu starten und sammeln so laufend neue und positive Erfahrungen.

Welche Best Practices von LLM-Chatbots gibt es?

Der LLM-Chatbot bei der Helvetia Versicherung

Der erste LLM-Chatbot aus der Schweiz heisst Clara und ist von der Helvetia Versicherung. Der LLM-Chatbot nutzt zunächst die Informationen der Webseite, um Kunden und potenziellen Kunden ihre Fragen rund um Versicherungen zu beantworten. In weiteren Iterationen hat die Versicherung das Wissen und die Kompetenzen durch weitere interne Anbindungen ergänzt. Mehr zum LLM-Chatbot bei der Helvetia in meinem Gespräch mit Florian Nägele zu LLM-Chatbots in der Versicherungsbranche.

Der LLM-Chatbot beim Retail Hobbymarkt Jumbo

Der Schweizer Bau- und Hobbymarkt Jumbo hat seit über einem Jahr Wochen einen LLM-Chatbot zur Beratung der Webseiten-Besucher veröffentlicht. Der Bot hat die Aufgabe des Produkt-Beraters und ist über die Webseite verfügbar. Kunden können ihre Fragen zu Produkt-Details oder Produkt-Empfehlungen stellen und der Chatbot antwortet auf Basis seiner eigenen Wissensbasis. Die Wissensbasis wurde von dem Jumbo-Digital Team zusammen gestellt und beinhaltet im Groben die Webseiten Inhalte, sowie weitere Produkt-Detail-Unterlagen. Mehr zu dem Chatbot vom JumBot in meinem Beitrag zu LLM-Bots im Retail.

Weitere Beispiele von LLM-Chatbots findet ihr in meinem Beitrag zu den Best Practices von LLM-Chatbots.

Fazit: LLM-Chatbots haben die Chat- und Voicebot Welt verändert

Als ich vor knapp 10 Jahren meine Masterarbeit über Chatbots geschrieben habe, musste ich meine Experimente mehrheitlich mit regelbasierten Chatbots machen. Vielmals habe ich sogar nur Mockups verwendet, da selbst die Umsetzung einfacher Chatbots sehr zeitaufwenig war. LLM-Chatbots haben die Welt der Bots verändert und werden es weiter tun. Die Umsetzung und Implementierung wird durch die Methoden der LLMs und RAG deutlich vereinfacht und die Qualität ist heute schon um ein Vielfaches gestiegen. Langfristig wird ein LLM-Chatbot auf der Webseite oder intern beim Unternehmen wohl zur Commodity werden und genauso selbstverständlich, wie die eigene Webseite sein.

Und jetzt?

Wenn ihr mehr zu LLM-Chatbots wissen möchtet oder sogar selbst erste Erfahrungen sammeln wollt, dann schreibt mir gern eine Nachricht. Ihr könnt eure Nachricht per WhatsApp Nachricht oder per E-Mail schicken.

Diesen Beitrag gibt es übrigens auch als Podcast-Folge

Achtung! Der Podcast wurde komplett von meinem AI-Assistant auf Basis meines Beitrags erstellt – keine Garantie für Fehl-Inhalte.

­ 

Buche jetzt
deine persönliche Beratung

Du benötigst Unterstützung oder hast Fragen? Dann vereinbare ganz einfach einen Termin mit mir und erhalte eine persönliche Beratung. Ich freue mich auf Dich!

> Konzeption & Strategie

> Keynotes, Workshops und Fachbeiträge

> Chatbots, Voicebots, ChatGPT

Weitere Beiträge

Gute Inhalte kosten Zeit...

... Zeit ist manchmal Geld.

Neu kannst du regelmässig oder einmalig einen kleinen Betrag an Sophie zahlen, als Dank für Ihre Arbeit hier (kleiner Tipp von mir als Sophies AI Assistant).

Gute Inhalte kosten Zeit...

... Zeit ist manchmal Geld.

Wenn du magst, darfst du gern regelmässig oder einmalig einen kleinen Betrag an Sophie zahlen, als Dank für Ihre Arbeit hier (kleiner Tipp von mir als Sophies AI Assistant).