Ein Beitrag von Sophie Hundertmark
Sophie Hundertmark ist Expertin für den praktischen Einsatz von Künstlicher Intelligenz mit Schwerpunkt auf Chatbots, AI-Strategien und verantwortungsvoller Technologieintegration. Sie ist Forscherin und Dozentin an der Hochschule Luzern und schreibt derzeit ihre Dissertation im Bereich Conversational AI an der Universität Fribourg. Als Beraterin begleitet sie Unternehmen, Verwaltungen und Bildungsinstitutionen bei der Einführung wirksamer KI-Lösungen. Mehr zu Sophie Hundertmark auf LinkedIn.
Zur sprachlichen und stilistischen Erstellung – ebenso wie zur Übersetzung – wurde ein CustomGPT eingesetzt. Dieses basiert auf dem Sprachmodell GPT-5 von OpenAI und wurde von Sophie Hundertmark persönlich entwickelt.
Habt ihr schon einmal erlebt, dass eine KI-Antwort zwar korrekt, aber völlig unpersönlich oder unpassend war? Genau hier liegt der Knackpunkt: Der beste Prompt bringt euch nichts, wenn der Kontext fehlt. Und genau dieser Kontext wird in Zukunft der entscheidende Erfolgsfaktor sein – sowohl für präzise Antworten als auch für echte Individualisierung.
In diesem Beitrag zeige ich euch, warum Prompt Engineering heute weniger mit „magischen Tricks“ und viel mehr mit Kontext-Management zu tun hat. Außerdem erfahrt ihr, wie ihr durch die richtige Kombination aus Kontext und Automatisierung mit Custom GPTs eure eigenen Prozesse so gestaltet, dass sie effizient UND persönlich bleiben.
Warum Prompt Engineering nie nur ein technischer Skill war
Ich starte in meinen Workshops oft mit einer simplen Frage:
Stellt euch vor, es ist euer erster Arbeitstag in einem neuen Unternehmen. Ihr bekommt eine Aufgabe, die ihr noch nie gemacht habt. Was braucht ihr, um sie erfolgreich zu meistern?
Die Antworten sind meist eindeutig:
- Klare Ziele
- Kontext zum Unternehmen
- Beispiele früherer Arbeiten
- No-Gos und Regeln
- Zugang zu relevanten Daten
- Einen Ansprechpartner für Rückfragen
Interessant, oder? Wir wissen genau, was wir als Menschen brauchen – aber bei KI unterschätzen wir diesen Aspekt oft. Prompting ist deshalb nicht primär ein technischer Skill, sondern ein kommunikativer. Es geht darum, der KI denselben Kontext zu geben, den auch ein Mensch brauchen würde, um eine Aufgabe sauber zu erledigen.
Die Evolution: Vom Prompt Engineering zum Context Engineering
Viele von euch erinnern sich vielleicht noch an die Phase, in der Social Media voller „Prompt Hacks“ war: „Sag der KI, dass dein Leben davon abhängt“ oder „Biete ihr 200$ Trinkgeld“. Das hat vielleicht mal funktioniert – heute wirkt es fast schon absurd.
Warum? Weil die Modelle selbst intelligenter geworden sind.
- Prompting 1.0: Frühe LLMs wie GPT-3.5 oder 4 mussten in winzige Schritte zerlegt werden.
- Prompting 2.0: Reasoning-Modelle wie Claude 3 Opus oder Gemini 2.5 verstehen selbstständig mehrschrittige Aufgaben.
- Prompting 3.0: Hybride Modelle wie GPT-5 können Tools ansteuern, Sub-Aufgaben planen und Kontext dynamisch nutzen.
Je weiter die Modelle sind, desto weniger müssen wir das „Wie“ erklären – und desto wichtiger wird das „Was“ und „Warum“.
Der Paradigmenwechsel heißt deshalb: Context Engineering.
Den Guide zum klassischen Prompting findet ihr in diesem Beitrag. Die Inhalte sind weiterhin gültig und können mit den folgenden Tipps ergänzt werden.
Was bedeutet Context Engineering konkret?
Früher war Kontext einfach das, was wir in den Prompt hineingeschrieben haben. Heute ist es viel mehr:
- Historie: Was wurde in früheren Sessions bereits bearbeitet?
- Systemdaten: Welche Infos liegen in Datenbanken oder CRMs?
- Unternehmenswissen: Dokumentationen, Guidelines, Best Practices
- Persönlicher Stil: Sprache, Tonalität, typische Strukturen
Damit verschiebt sich der Fokus: Wir verbringen künftig weniger Zeit mit „schönen Prompts“ und mehr Zeit mit der richtigen Aufbereitung und Bereitstellung von Kontext.
Individualisierung durch Custom GPTs: Automatisierung, die nach euch klingt
Vielleicht fragt ihr euch: Wie lässt sich dieses Prinzip praktisch nutzen? Die Antwort lautet: Custom GPTs.
Ein Beispiel aus meiner eigenen Arbeit:
Ich habe meine besten Präsentationen gesammelt und daraus einen System-Prompt entwickelt, der beschreibt, wie „eine Sophie-Hundertmark-Präsentation“ aufgebaut ist. Daraus ist mein persönlicher Slide Assistant entstanden. Wenn ich heute sage: „Erstelle mir eine Präsentation über KI in der Arbeitswelt“, bekomme ich ein komplettes Slidedeck – in meinem Stil.
Und das ist erst der Anfang:
- Ein Freund von mir hat zehn seiner typischen E-Mails eingespeist. Ergebnis: Ein Custom GPT, das automatisch in seinem Tonfall schreibt.
- Ihr könnt dasselbe mit Blogposts, Kundenkommunikation oder Reports machen.
Das Muster ist immer gleich:
- Eigene Beispiele sammeln
- Guidelines daraus erstellen
- Custom GPT bauen
- Testen und optimieren
Das Resultat: Automatisierung, die individuell bleibt.
Mehr zur Automatisierung und Personalisierung könnt ihr in einem meiner letzten Beiträge lesen.
Wie Kontext & Automatisierung zusammenspielen
Hier zeigt sich die echte Magie: Kontext + Automatisierung = Effizienz UND Persönlichkeit.
- Der Kontext sorgt dafür, dass die KI versteht, was zu euch passt.
- Die Automatisierung sorgt dafür, dass ihr nicht jedes Mal bei Null anfangen müsst.
Stellt euch vor, ihr wollt eine E-Mail-Kampagne erstellen:
- Früher: Ihr schreibt lange Prompts mit allen Details.
- Heute: Euer Custom GPT kennt eure Tonalität, eure Zielgruppe und eure No-Gos. Ihr müsst nur noch das Ziel angeben – und die KI liefert Ergebnisse, die klingen, als hättet ihr sie selbst geschrieben.
Das ist nicht nur effizient, sondern auch skalierbar.
Kontext ja – aber wie steht es um den Datenschutz?
Vielleicht fragt ihr euch jetzt: „Wenn Kontext so entscheidend ist, wie weit darf ich eigentlich gehen, ohne in Konflikt mit dem Datenschutz zu geraten?“ Eine sehr berechtigte Frage. Denn je mehr ihr der KI an Informationen gebt, desto größer ist das Risiko, sensible Daten preiszugeben.
Die Grundregel lautet: Nicht jeder Kontext ist automatisch unproblematisch.
Es ist ein Unterschied, ob ihr der KI Beispiele für Präsentationen gebt oder ob ihr vertrauliche Kundenmails, Umsatzzahlen oder Vertragsentwürfe hochladet. Letzteres kann heikel werden, weil diese Daten in vielen Fällen auf Servern außerhalb eures Einflussbereichs verarbeitet und möglicherweise sogar gespeichert werden.
In meinen Beratungsprojekten sehe ich häufig zwei Szenarien:
- Unkritisch: Ideen sammeln, Texte umschreiben, kreative Inspirationen – solange keine persönlichen oder vertraulichen Informationen enthalten sind.
- Heikel: Interne Dokumente, Kundendaten oder Zahlenmaterial. Hier solltet ihr besonders vorsichtig sein, denn die Gefahr unbeabsichtigter Datenweitergabe ist real.
Weitere Hinweise zum Datenschutz bei KI-Tools findet ihr in meinem letzten Beitrag.
Sichere Wege, um Kontext bereitzustellen
Was also tun, wenn ihr trotzdem spezifischen Kontext nutzen wollt, ohne den Datenschutz zu verletzen? Es gibt mehrere Ansätze:
- Anonymisierung: Entfernt persönliche Daten oder ersetzt sie durch Platzhalter. Aber Achtung: Schon kleine Details können Rückschlüsse ermöglichen. „Der CEO einer großen Versicherung in Zürich“ ist im Zweifel genauso identifizierbar wie ein Name.
- Einsatz sicherer Alternativen: Tools wie SwissGPT sind speziell für datenschutzkritische Anwendungen gebaut. Die Daten bleiben auf Servern in der Schweiz, werden nicht zum Training genutzt und unterliegen strengen Datenschutzgesetzen. Damit eignet sich SwissGPT besonders für Szenarien, in denen vertrauliche Daten zwingend Teil des Kontexts sein müssen.
- Kombination aus lokalem Wissen & Custom GPTs: Ihr könnt eigenes Unternehmenswissen strukturiert einbinden, ohne es extern preiszugeben – etwa über interne Wissensdatenbanken oder abgesicherte API-Schnittstellen.
Damit gilt: Kontext ist zwar der Schlüssel für bessere Ergebnisse, aber er darf nicht um jeden Preis eingebracht werden. Mit einer klaren Strategie – Anonymisierung, sichere Systeme, interne Datenhaltung – könnt ihr die Vorteile von Context Engineering nutzen, ohne eure Datenhoheit zu verlieren.
Fazit: Der Kontext macht den Unterschied
Prompt Engineering ist nicht verschwunden – es hat sich weiterentwickelt. Die „Tricks“ von früher sind Geschichte. Heute geht es darum, Ziele zu setzen und den passenden Kontext bereitzustellen.
- Je besser der Kontext, desto präziser das Ergebnis.
- Je klarer die Beispiele, desto persönlicher die Automatisierung.
- Custom GPTs sind der Schlüssel, um Prozesse zu standardisieren, ohne unpersönlich zu werden.
- Datenschutz muss dabei immer mitgedacht werden – denn nicht jeder Kontext darf ungefiltert in eine KI fließen.
Wir stehen damit erst am Anfang einer neuen Ära: Der Fokus verschiebt sich vom Prompt hin zum Context Engineering. Wer diesen Schritt versteht, wird mit KI nicht nur schneller, sondern auch individueller und sicherer arbeiten können.
Weitere Fragen?
Gerne unterstütze ich euch bei der Entwicklung eurer eigenen Custom GPTs oder bei der Frage, wie ihr Kontext clever in eure KI-Systeme integriert – selbstverständlich unter Berücksichtigung des Datenschutzes. Ich freue mich immer über eure Nachrichten.
Am liebsten per WhatsApp Nachricht oder als E-Mail.
FAQ: ChatGPT und Datenschutz
1. Speichert ChatGPT meine Daten?
Ja, Eingaben können gespeichert und für Trainingszwecke genutzt werden – je nach Anbieter-Einstellungen.
2. Kann ich ChatGPT sicher im Unternehmen nutzen?
Nur, wenn keine sensiblen Daten verarbeitet werden oder wenn eine sichere Alternative wie SwissGPT gewählt wird.
3. Was sind sensible Daten?
Dazu gehören Namen, Adressen, Finanzdaten, Kundendetails oder interne Geschäftsinformationen.
4. Sind anonyme Daten wirklich anonym?
Nicht immer – oft lassen sich Personen über Kombinationen von Datenpunkten wieder identifizieren.
5. Darf ich ChatGPT für Kundenprojekte einsetzen?
Nur, wenn die Daten keine Rückschlüsse auf Personen zulassen und interne Richtlinien dies erlauben.
6. Wo werden die Daten von ChatGPT verarbeitet?
Bei OpenAI typischerweise auf Servern außerhalb der Schweiz bzw. der EU.
7. Welche Vorteile hat SwissGPT?
Server in der Schweiz, höhere Datenschutzstandards, keine Trainingsnutzung eurer Daten.
8. Wie schütze ich mich bei der Nutzung von ChatGPT?
Gebt niemals sensible oder vertrauliche Informationen ein. Nutzt es nur für kreative, unverbindliche Aufgaben.
9. Sind Kinder im Umgang mit Datenschutz wirklich besser informiert?
Ja, viele Kinder sind sensibilisiert, weil sie es in Schule und Alltag lernen – Erwachsene unterschätzen die Risiken oft.
10. Kann ich Daten selbst anonymisieren?
Ja, aber es erfordert Erfahrung und Aufmerksamkeit – automatische Lösungen sind nicht 100 % zuverlässig.



