Leonardo_Phoenix_09_A_futuristic_laboratory_scene_depicting_th_0

Neue Prompting Regeln bei der Nutzung von Reasoning-Modellen (Deep Research)


Achtung! Der Podcast wurde komplett von meinem AI-Assistant auf Basis meines Beitrags erstellt – keine Garantie für Fehl-Inhalte.


Zur Wiederholung

Was bedeutet Deep Research?

Deep Research bezeichnet die Fähigkeit von KI-Chatbots, wie ChatGPT, Perplexity oder Gemini, komplexe Suchanfragen zu verstehen, in mehrere Rechercheaufgaben runter zu brechen, eigenständig im Internet zu recherchieren und die Ergebnisse strukturiert zu konsolidieren. Anstatt nur Links zu Webseiten aufzulisten – wie wir es von Google gewöhnt sind – analysieren die Systeme die Informationen, synthetisieren sie und liefern dem Nutzer eine umfassende Antwort in Form eines klar geschriebenen Berichts.



Wie kann ich Deep Research Methoden testen und Nutzen?


Am einfachsten lassen sich die neuen Deep Research Funktionen, über die bestehenden KI-Anbieter testen und nutzen. Da die Deep Research Funktion jedoch nochmal deutlich mehr Rechenkapazität benötigt, ist diese Funktion aktuell nur in den Bezahl-Accounts verfügbar.


Wie funktioniert Deep Research?


Die Tiefenrecherche bzw. die Methode des Deep Research läuft immer in 4 Schritten ab, wobei sich die Anbieter leicht unterscheiden (Stand 02-2025).

  1. Planung: Die KI verarbeitet die Recherche-Aufgabe und plant eigenständig den Suchprozess und die Suchabfragen.
  2. Informationssuche: Die KI durchforstet zahlreiche Quellen wie Artikel, Berichte und Studien und filtert Unwichtiges heraus. OpenAI nutzt dabei Web-Browsing-Funktionen, Gemini greift auf Google-Dienste zurück.
  3. Analyse: Anschliessend „liest“ die KI alle gesammelten Texte, extrahiert wichtige Fakten, vergleicht Quellen und erkennt Widersprüche.
  4. Strukturierung und Aufbereitung: Zum Schluss werden die Erkenntnisse in einem klar gegliederten Bericht präsentiert, meist mit Einleitung, Hauptteil und Fazit. Wichtige Punkte (z. B. Pro/Contra) werden hervorgehoben, und Quellenangaben am Ende sorgen für Transparenz.

Wichtig: Auch mit quellenbasierter Recherche können Sprachmodelle halluzinieren. Es gilt wie immer, KI als Unterstützung und nicht als blinden Ersatz zu nutzen. Insbesondere bei kritischen Fakten gilt das Prinzip der Ergebniskontrolle. Mehr dazu in meinem letzten Beitrag zur Funktionsweise von Deep Research.

Aufgepasst: Bei Reasoning-Modellen gelten diese neuen Prompt-Regeln

1. Halte Prompts einfach und direkt

Diese Modelle funktionieren am besten mit kurzen, klaren Anweisungen.
Zu komplexe Prompts können Verwirrung stiften oder die Leistung verschlechtern.

Gutes Beispiel:
Prompt:

„Fasse die wichtigsten Erkenntnisse des Artikels über den Klimawandel in drei Stichpunkten zusammen.“

Schlechtes Beispiel:
Prompt:

„Könntest du bitte eine detaillierte, schrittweise Analyse des Artikels erstellen und diese dann in eine strukturierte, logisch kohärente Zusammenfassung mit präziser Begründung umwandeln?“


2. Vermeide Chain-of-Thought (CoT) Prompting

Im Gegensatz zu allgemeinen LLMs führen Reasoning-Modelle bereits interne logische Analysen durch.
Eine explizite Anweisung wie „Denke Schritt für Schritt“ verbessert die Genauigkeit nicht und kann die Leistung sogar verschlechtern.

Gutes Beispiel (Direkte Frage):
Prompt:

„Wie hoch ist die Wahrscheinlichkeit, mit zwei Würfeln zwei Sechsen zu würfeln?“

Schlechtes Beispiel (Unnötiges CoT-Prompting):
Prompt:

„Erkläre zunächst die Wahrscheinlichkeit, eine Sechs zu würfeln, dann die Wahrscheinlichkeit, eine weitere Sechs zu würfeln, und multipliziere diese Wahrscheinlichkeiten am Ende.“

Wichtiger Hinweis:
Nutze explizite Denkprozesse nur bei nicht-reasoning-fähigen Modellen oder wenn das Modell eine fehlerhafte logische Struktur liefert.


3. Verwende Trennzeichen für mehr Klarheit

Markdown, XML-Tags oder Abschnittstitel helfen dem Modell, verschiedene Prompt-Bestandteile besser zu unterscheiden.
Besonders nützlich für strukturierte Ausgaben wie JSON, Tabellen oder Code-Snippets.

Gutes Beispiel:
Prompt:

cssKopierenBearbeitenExtrahiere die wichtigsten Details aus diesem Vertrag im folgenden strukturierten Format:  
{
  "Parteien": "Name der beteiligten Parteien",
  "Gültigkeitsdatum": "Startdatum des Vertrags",
  "Pflichten": "Wichtigste vertragliche Verpflichtungen",
  "Kündigungsklausel": "Bedingungen für die Vertragsauflösung"
}

Schlechtes Beispiel:
Prompt:

„Fasse den Vertrag zusammen und nenne alle wichtigen Details in einer strukturierten Weise.“ (Zu vage und möglicherweise nicht strukturiert genug.)


4. Erst Zero-Shot ausprobieren, dann Few-Shot falls nötig

Reasoning-Modelle funktionieren oft gut ohne Beispiele.
Few-Shot-Lernen sollte nur genutzt werden, wenn die Ausgabe verbessert werden muss.

Gutes Beispiel (Zero-Shot):
Prompt:

„Setze den folgenden Satz ins Passiv um:
‚Das Komitee hat die neue Richtlinie genehmigt.‘“

Schlechtes Beispiel (Unnötiges Few-Shot-Prompting):
Prompt:

„Setze den Satz ins Passiv um. Beispiel 1:
Aktiv: ‚Sie hat einen Kuchen gebacken.‘
Passiv: ‚Ein Kuchen wurde von ihr gebacken.‘
Nun wende dies auf: ‚Das Komitee hat die neue Richtlinie genehmigt.‘ an.“

Wichtiger Hinweis:
Falls Zero-Shot nicht die gewünschten Ergebnisse liefert, dann gut gewählte Few-Shot-Beispiele hinzufügen.


5. Klare Vorgaben und Einschränkungen definieren

Reasoning-Modelle profitieren von präzisen Vorgaben.
Klare Regeln helfen, Länge, Format, Umfang oder Ton zu steuern.

Gutes Beispiel:
Prompt:

„Schlage eine kostengünstige Reiseroute für New York City vor.
Budget: Unter 500 $
Dauer: 3 Tage
Präferenzen: Beinhaltet Sightseeing und Essensempfehlungen.“

Schlechtes Beispiel:
Prompt:

„Erstelle eine Reiseroute für New York City.“ (Zu allgemein, kann das Budget überschreiten.)

Wichtiger Hinweis:

  • Definiere das gewünschte Ausgabeformat („Erkläre in weniger als 100 Wörtern“).
  • Verwende Einschränkungen zur Präzisierung („Beziehe nur vegane Restaurants ein“).

6. Sei sehr spezifisch über das gewünschte Ergebnis

Eindeutig definierte Erfolgskriterien verbessern die Qualität der Antwort.
Fördert Wiederholungen, bis das erwartete Ergebnis erreicht wird.

Gutes Beispiel:
Prompt:

„Erkläre das Konzept von Angebot und Nachfrage in unter 50 Wörtern. Halte es einfach und vermeide Fachjargon.“

Schlechtes Beispiel:
Prompt:

„Beschreibe Angebot und Nachfrage.“ (Zu offen formuliert; kann zu ausführlich ausfallen.)

Wichtiger Hinweis:

  • Setze Längenbeschränkungen („Erkläre es in zwei Sätzen“).
  • Definiere den Detaillierungsgrad („Vermeide unnötige Details und nutze nur Alltagsbeispiele.“).

7. Stelle sicher, dass Markdown-Formatierung verwendet wird (falls erforderlich)

Seit O1–2024–12–17 geben Reasoning-Modelle standardmässig keine Markdown-Ausgaben mehr aus.
Um Markdown zu erzwingen, füge die Zeichenfolge „Formatting re-enabled“ in den Prompt ein.

Gutes Beispiel:
Prompt:

nginxKopierenBearbeitenFormatting re-enabled  
Erstelle eine Markdown-formatierte Zusammenfassung zur Quantenmechanik.

Schlechtes Beispiel:
Prompt:

„Gib mir eine Markdown-Antwort über Quantenmechanik.“ (Könnte als reiner Text zurückgegeben werden.)

Wichtiger Hinweis:
Für formatierte Antworten immer einen Hinweis auf die gewünschte Struktur einfügen.


Zusammenfassung: Prompt-Regeln für Reasoning-Modelle

  • Halte Prompts einfach und direkt – vermeide unnötige Komplexität.
  • Verwende KEIN Chain-of-Thought-Prompting – Reasoning-Modelle denken bereits logisch.
  • Nutze Trennzeichen (JSON, Markdown, XML) für Klarheit – hilfreich für strukturierte Ausgaben.
  • Zero-Shot zuerst, dann Few-Shot falls nötig – überlade den Prompt nicht mit Beispielen.
  • Definiere explizite Einschränkungen – Längenlimits, Budgetgrenzen, gewünschtes Format.
  • Erzwinge Markdown-Formatierung, wenn erforderlich – nutze „Formatting re-enabled“.


Häufige Frage: Für welche Anwendungen kann ich Deep Research anwenden?

Die Funktion des Deep Research klingt zwar zunächst sehr verlockend, ist aber dennoch nicht für alle KI-Chatbot Anwendungen nützlich. Zudem braucht diese Methode nochmals deutlich mehr Rechenleistung und Energie und diese sollten nur eingesetzt werden, wenn sie auch benötigt werden.

Grundsätzlich gilt, überall wo viele Quellen nach Informationen durchsucht werden und die Ergebnisse in ein strukturiertes Format gebracht werden müssen, kann Deep Research helfen.

Wissenschaftliche Untersuchung: Zusammenstellung von frei verfügbaren Studien zum Thema „Auswirkungen der Luftverschmutzung auf die Gesundheit“.

Themenrecherche: Erstellung eines strukturierten Berichts zu einem Thema, zB „Einführung in KI Agenten“

Technologie- und Innovationsscouting: Identifikation aufstrebender Technologien (z. B. Quantencomputing, mRNA-Technologie) durch Analyse von Nachrichten, Blogbeiträgen und Patenten, sofern letztere öffentlich zugänglich sind.

Trendanalyse: Ermittlung neuer Ernährungs- oder Lifestyle-Trends (z. B. Veganismus, Zero-Waste).

Produktsuche und -vergleich: Anbieterrecherche zu Kategorien wie E-Bikes, 3D-Druckern oder neuen Smart-Home-Systemen.

News-Übersicht: Zusammenstellung und Konsolidierung der Meldungen zu einem Thema.

Markt- und Wettbewerbsanalysen: Marktüberblick in Branche Medizintechnik in Deutschland, Stärken und Schwächen der Hauptwettbewerber, Kennzahlen, Produktportfolio, …

Der Artikel hat euch zum Nachdenken gebracht und ihr habt weitere Fragen? Oder ihr sucht allgemein Unterstützung bei der Nutzung von KI, ChatGPT, Deepseek und Chatbots?

Ich freue ich mich immer über eure Nachrichten, am liebsten per WhatsApp Nachricht oder als E-Mail.

Achtung! Der Podcast wurde komplett von meinem AI-Assistant auf Basis meines Beitrags erstellt – keine Garantie für Fehl-Inhalte.

­ 

Buche jetzt
deine persönliche Beratung

Du benötigst Unterstützung oder hast Fragen? Dann vereinbare ganz einfach einen Termin mit mir und erhalte eine persönliche Beratung. Ich freue mich auf Dich!

> Konzeption & Strategie

> Keynotes, Workshops und Fachbeiträge

> Chatbots, Voicebots, ChatGPT

Weitere Beiträge

Gute Inhalte kosten Zeit...

... Zeit ist manchmal Geld.

Neu kannst du regelmässig oder einmalig einen kleinen Betrag an Sophie zahlen, als Dank für Ihre Arbeit hier (kleiner Tipp von mir als Sophies AI Assistant).