Den optimalen ChatGPT-Prompt erstellen: Best Practices und Beispiele
Die Qualität der Antworten von ChatGPT hängt maßgeblich davon ab, wie gut du deinen Prompt – also deine Eingabe oder Frage – formulierst. Ein präzise formulierter Prompt kann dir helfen, genauere, relevantere und hilfreichere Ergebnisse zu erhalten. In diesem Artikel zeigen wir dir, wie du einen optimalen ChatGPT-Prompt erstellst. Wir stellen bewährte Methoden (Best Practices) vor, die von offiziellen Quellen wie OpenAI und Microsoft empfohlen werden, und liefern praktische Beispiele für verschiedene Anwendungsfälle. Unser Ziel ist es, dir eine Anleitung zu geben, mit der du effektiv mit ChatGPT „kommunizieren“ kannst – ganz nach dem Motto: Du programmierst die KI mit Worten.
Bewährte Methoden für effektive ChatGPT-Prompts
Klar, spezifisch und präzise formulieren
Formuliere deine Anfrage so eindeutig wie möglich, damit wenig Interpretationsspielraum bleibt. Sowohl OpenAI als auch Microsoft betonen, dass konkrete Anweisungen zu relevanteren und fokussierteren Antworten führen. Vermeide vage Formulierungen oder zu allgemeine Fragen. Statt z.B.
Erzähle mir etwas über Klimawandel
solltest du präzisieren:
Erläutere die wirtschaftlichen Auswirkungen des Klimawandels in Entwicklungsländern in den nächsten zehn Jahren
Je spezifischer dein Prompt (Thema, Zeitraum, Perspektive etc.), desto zielgerichteter fällt die Antwort aus. Details zur gewünschten Antwort – etwa Umfang, Thementiefe oder Stil – solltest du nach Möglichkeit direkt im Prompt erwähnen
.
Kontext und Referenzen einbeziehen
Gib dem Modell den nötigen Kontext, den es für eine fundierte Antwort braucht. Wenn sich deine Frage auf einen bestimmten Text, Daten oder einen vorherigen Chat-Verlauf bezieht, stelle diese Informationen bereit. OpenAI empfiehlt, solche zusätzlichen Inhalte klar vom eigentlichen Befehl zu trennen, zum Beispiel durch Abtrennung mit Anführungszeichen oder einem eindeutigen Schlüsselwort. So könnte ein Prompt für eine Zusammenfassung lauten:
Fasse den folgenden Text in 3 Stichpunkten zusammen. Text: "[zu summarierender Text]"
Durch das Bereitstellen von Referenztext verringerst du das Risiko, dass das Modell Halluzinationen (frei erfundene Inhalte) produziert
. Falls du keinen Referenztext hast, kannst du dennoch Kontext liefern, indem du die Frage spezifisch eingrenzt oder Hintergrundinformationen im Prompt lieferst. Microsoft rät zudem, dem Modell bei Wissenslücken eine Alternative zu geben – zum Beispiel im Prompt zu vermerken:
Antworte mit 'nicht gefunden', falls die Information nicht im Text steht
Auf diese Weise steuerst du, wie ChatGPT reagieren soll, wenn die benötigten Informationen nicht vorhanden sind, anstatt dass es sich etwas ausdenkt. Beachte außerdem die
Eingabelänge: ChatGPT-Prompts dürfen zwar ausführlich sein, aber es gibt ein Token-Limit (die maximale Länge der Eingabe, meist einige tausend Wörter). Nutze den verfügbaren Platz effizient und vermeide unnötige Wiederholungen oder Füllwörter
.
Gewünschtes Format und Ergebnis vorgeben
Beschreibe, in welchem Format oder Stil die Antwort kommen soll. Soll die Ausgabe z.B. eine Liste, ein Absatz, ein JSON-Objekt oder ein Gedicht sein? Gib dies explizit an. OpenAI rät, das gewünschte Ausgabeformat deutlich zu machen – notfalls durch ein Beispiel im Prompt. Zum Beispiel könntest du schreiben:
Antworte in JSON-Format:
gefolgt von einer Beispielstruktur. Ebenso kannst du die gewünschte
Länge der Antwort angeben (z.B. „in 3-5 Sätzen“ anstelle von „kurz halten“ – präzise Längenangaben sind besser als vage Begriffe
). Wenn du einen bestimmten
Stil oder Ton bevorzugst (formell, humorvoll, technisch, einfach erklärt etc.), lohnt es sich, dies im ChatGPT-Prompt zu erwähnen. Solche Vorgaben helfen dem Modell, die Antwort deinen Erwartungen anzupassen.
Rolle oder Persona im ChatGPT-Prompt vorgeben
Es kann nützlich sein, das Modell in eine bestimmte Rolle schlüpfen zu lassen, um den Ton und die Perspektive der Antwort zu steuern. Du kannst z.B. mit einem Satz beginnen wie:
Du bist ein erfahrener Arzt…
oder
Agiere als IT-Sicherheitsexperte…
Dadurch ändern sich Tonfall und Detailgrad der Antwort entsprechend der vorgegebenen Perspektive. OpenAI empfiehlt diese Technik, um die Antworten an den gewünschten Kontext anzupassen
. In einem Beispiel wurde ChatGPT einmal nur gefragt, wann die beste Zeit für Herbstlaub in Neuengland ist, und einmal gebeten, als erfahrener Biologe für Bäume diese Frage zu beantworten und die Antwort für Kinder verständlich zu formulieren – das Resultat war deutlich unterschiedlich und viel genauer auf die zweite Anfrage zugeschnitten
. Durch solche Persona-Vorgaben kannst du also steuern, ob die Antwort eher vereinfacht, fachlich tiefgehend, kreativ oder z.B. auf eine bestimmte Zielgruppe zugeschnitten sein soll
.
Beispiele (Few-Shot-Prompts) verwenden
Falls ein einfacher Prompt (ohne Beispiele) nicht das gewünschte Ergebnis liefert, können Beispiele helfen. Die Idee dahinter: Zeige dem Modell, was du erwartest, indem du ein oder mehrere Beispiel-Eingaben mit den dazugehörigen gewünschten Ausgaben im Prompt vormachst. Dieses Vorgehen nennt man Few-Shot Prompting. Zum Beispiel könntest du bei einer komplizierten Extraktionsaufgabe erst selbst ein oder zwei Beispielsätze plus die korrekt extrahierten Informationen angeben, und dann einen dritten Satz folgen lassen, bei dem das Modell die Ausgabe erzeugen soll. OpenAI zeigt etwa ein Beispiel, in dem Schlüsselwörter aus Texten extrahiert werden: Erst werden zwei Beispieltexte samt passender Schlüsselwort-Liste gegeben, danach folgt Text 3 und Keywords 3: – das Modell soll diese Liste dann ergänzen. Durch solche Beispiele im Prompt versteht ChatGPT besser, was gewünscht ist. Beachte jedoch, dass Beispiele auf die wichtigsten Fälle beschränkt bleiben sollten, damit der Prompt nicht unnötig lang wird.
Komplexe Aufgaben aufteilen
Wenn deine Anfrage zu umfangreich oder mehrteilig ist, erwäge, sie in kleinere Teilschritte zu zerlegen. Du kannst zunächst einen Teilaspekt der Aufgabe an ChatGPT senden, dann die Antwort prüfen und darauf aufbauend weiterfragen. Beispielsweise könntest du erst um eine Aufzählung von Ideen bitten und anschließend zu jeder Idee Details erfragen, statt alles in einem einzigen Prompt zu verlangen. OpenAI empfiehlt, komplexe Aufgaben in einfachere, sequenzielle Schritte zu unterteilen. Auf diese Weise bleibt die einzelne Anfrage überschaubar und die KI kann sich gezielter auf jeden Schritt konzentrieren. Zudem behältst du mehr Kontrolle über den gesamten Prozess und kannst bei Bedarf nachjustieren.
Schrittweises Denken ermöglichen
Bei kniffligen Fragestellungen kann es helfen, das Modell explizit zu einem
gedanklichen Schritt-für-Schritt
Vorgehen aufzufordern. OpenAI nennt dies „dem Modell Zeit zum Nachdenken geben“
. Praktisch könnte das so aussehen, dass du im Prompt hinzufügst:
Denke erst gründlich nach und leite deine Schlussfolgerung her, bevor du antwortest
oder
Zeige deine Überlegungen Schritt für Schritt, und gib dann die endgültige Antwort
Dieser Ansatz basiert auf der Chain-of-Thought-Methodik und kann zu logischer konsistenteren und fundierteren Antworten führen, da das Modell seine Gedanken explizit strukturieren muss. Insbesondere bei mathematischen oder logischen Problemen führt ein solcher Prompt oft zu besseren Ergebnissen, weil Fehler in den Herleitungen eher vermieden werden.
Positiv statt negativ formulieren
Formuliere Anweisungen lieber als positive Handlungsaufforderungen statt als Verbote. OpenAI zeigt, dass ein Prompt, der nur aus Verboten besteht
Tu X nicht, gib Y nicht aus
weniger effektiv ist
. Besser ist es zu schreiben,
was das Modell tun soll, anstatt nur aufzuzählen, was es
nicht tun darf
. Beispielsweise könntest du statt
Gib keine vertraulichen Informationen preis
schreiben:
Antworte nur mit Informationen aus dem bereitgestellten Text und markiere fehlende Daten als 'unbekannt'
Durch diese positive, konstruktive Formulierung hat das Modell klare Handlungsschritte, denen es folgen kann, und die Gefahr unerwünschter Ausgaben sinkt.
Prompt iterativ verfeinern und testen
Betrachte das Prompting als iterativen Prozess. Selten erzielst du direkt beim ersten Versuch den perfekten Output. Es ist normal und empfehlenswert, den Prompt schrittweise zu verbessern: formuliere deine Anfrage um, füge Details hinzu oder entferne überflüssige Teile, und beobachte, wie sich die Antworten verändern. OpenAI weist darauf hin, dass eine Änderung am Prompt zwar an einigen Beispielen sofort bessere Ergebnisse zeigen kann, aber auf breiterer Testbasis eventuell schlechter abschneidet. Daher ist es sinnvoll, einen Prompt mit mehreren verschiedenen Eingaben auszuprobieren, um sicherzustellen, dass die Ergebnisse konsistent gut sind. Nutze auch die Möglichkeit, in einer laufenden ChatGPT-Konversation Nachfragen zu stellen oder die Anweisung anzupassen, ohne von Null beginnen zu müssen – ChatGPT „merkt“ sich den Verlauf. Laut Experten kannst du dadurch schrittweise die Antwort in die gewünschte Richtung lenken, etwa indem du nach einer ersten Antwort sagst
Gib mehr Details dazu
oder
Formuliere es einfacher
Dieses fortlaufende Verfeinern ist ein mächtiges Werkzeug, um schließlich den optimalen Output zu erhalten.
Anatomie eines guten Prompts: Struktur nach dem „o1 Prompt“
Eine besonders strukturierte Herangehensweise beschreibt der Entwickler Swyx mit dem sogenannten „o1 Prompt“. Dabei wird ein guter Prompt in vier logische Abschnitte unterteilt – ein Konzept, das dir helfen kann, komplexe Aufgaben für ChatGPT klar und präzise zu formulieren:
- Ziel (Goal): Was genau willst du? Beschreibe präzise, was du vom Modell erwartest – z. B. „Liste die 3 besten Wanderungen in der Nähe von San Francisco“.
- Rückgabeformat (Return Format): In welcher Form soll die Antwort erscheinen? (z. B. als Liste mit bestimmten Feldern, als Tabelle, JSON, kurze Absätze etc.). Je detaillierter, desto besser.
- Warnhinweise (Warnings): Gibt es Dinge, auf die das Modell achten soll? (z. B. „Stelle sicher, dass die Orte tatsächlich existieren und die Zeitangaben korrekt sind“).
- Kontext (Context Dump): Hintergrundinfos und persönliche Präferenzen, die dem Modell helfen, passendere Ergebnisse zu liefern – etwa bisherige Erfahrungen, Einschränkungen oder spezielle Wünsche.
Diese Struktur eignet sich besonders bei komplexeren Aufgabenstellungen oder wenn du sehr spezifische Ergebnisse erwartest. Sie kann auch in mehreren Absätzen oder durch Trennzeichen (z. B. „--“) klar gegliedert im Prompt untergebracht werden. Tipp: Selbst wenn du nur 2 oder 3 der Elemente verwendest, erhöht sich oft schon die Qualität der Antwort.
Praktische Anwendungsbeispiele
Zusammenfassung eines Textes
Angenommen, du möchtest einen längeren Artikel oder Absatz von ChatGPT zusammenfassen lassen. Ein effektiver Prompt könnte so aussehen:
Fasse den folgenden Text in 3-5 Stichpunkten zusammen: "[Artikeltext]"
In diesem Prompt wird klar eine Liste von Bullet Points als Ausgabeformat verlangt, und der zu bearbeitende Text ist in Anführungszeichen bzw. durch
""
deutlich vom Befehl getrennt
. Außerdem ist die Anzahl der gewünschten Punkte (3-5) genau angegeben, was präziser ist als z.B. „kurz zusammenfassen“
. ChatGPT kann so den Inhalt besser extrahieren und die wichtigsten Informationen knackig auflisten.
Kreativer Inhalt (Geschichte)
Möchtest du, dass ChatGPT eine Geschichte oder einen kreativen Text schreibt, lohnt es sich, Stil und Thema genau vorzugeben. Beispiel:
Schreibe eine kurze, humorvolle Geschichte über einen astronauten Hund auf dem Mars, im Stil eines Märchens.
Dieser Prompt gibt Genre (Märchen), Tonfall (humorvoll), Länge (kurz) und sogar eine ungewöhnliche Figur vor. Durch die detaillierte Vorgabe erhöht sich die Wahrscheinlichkeit, eine originelle und zufriedenstellende Geschichte zu erhalten, die genau diese Kriterien erfüllt
. Hättest du nur „Schreibe eine Geschichte über einen Hund im Weltall“ eingegeben, wäre das Ergebnis wahrscheinlich weniger spezifisch und womöglich weniger originell ausgefallen. Dieses Beispiel demonstriert, wie wichtig detaillierte Anweisungen gerade bei kreativen Aufgaben sind.
Code-Generierung und -Hilfe
Wenn du ChatGPT zur Programmierung nutzt (z.B. um Code zu erzeugen oder Fehler zu erklären), solltest du den Prompt auf die Entwicklerperspektive zuschneiden. Ein guter Ansatz ist, dem Modell vorzuschlagen, in der Antwort direkt Code zu präsentieren. Beispiel:
Schreibe eine Python-Funktion, die Meilen in Kilometer umwandelt. Beginne deine Antwort mit dem vollständigen Code und erkläre anschließend kurz die Funktionsweise.
Durch die Anweisung, die Antwort mit Code zu beginnen, wird das Modell in die richtige Richtung gelenkt. OpenAI hat gezeigt, dass sogenannte „Leading words“ wie
import
in einem Prompt das Modell dazu anregen können, die Antwort direkt als Code auszugeben
. In unserem Beispiel könnte ChatGPT mit einem Python-Codeblock antworten (inklusive
def
-Definition und eventuell einem
import math
, falls benötigt) und danach eine Erklärung in Prosa liefern. So erhältst du sowohl den angeforderten Code als auch dessen Erläuterung.
Frage-Antwort mit Expertenwissen
Stell dir vor, du brauchst eine fachkundige Antwort, zum Beispiel im medizinischen Bereich. Statt einfach zu fragen
Was kann man gegen Migräne tun?
, könntest du den Prompt optimieren:
Du bist ein erfahrener Neurologe. Erkläre mir, in verständlichen Worten, was man gegen Migräne tun kann, und nenne dabei auch mögliche Risiken.
Hier wird das Modell in die Rolle eines Neurologen versetzt (Persona) und dazu angehalten, laienverständlich zu formulieren sowie bestimmte Aspekte (Behandlungsmöglichkeiten und Risiken) abzudecken. Durch diese Vorgaben fällt die Antwort wahrscheinlich fundierter und strukturierter aus, als wenn du nur die offene Frage stellst. Zudem wird durch die Phrase „in verständlichen Worten“ klargestellt, dass keine zu fachliche Sprache verwendet werden soll – ein Beispiel dafür, wie du den Ton der Antwort steuern kannst
. Dieses Prompt-Design hilft, eine gezielte, qualitativ hochwertige Antwort zu erhalten, die sowohl Expertenwissen enthält als auch für Laien nachvollziehbar ist.
Zusammenfassung
Zusammenfassend gilt: Ein optimaler ChatGPT-Prompt ist eindeutig, detailliert und enthält alle relevanten Informationen, damit das Modell genau weiß, was gefordert ist. Indem du Kontext, Formatvorgaben und ggf. Beispiele lieferst, kannst du die KI-Antworten in die gewünschte Richtung lenken. Die hier vorgestellten Best Practices – von OpenAI, Microsoft und anderen Experten validiert – dienen als Leitfaden. Letztlich verbessert Übung im Prompt-Schreiben die Ergebnisse: Scheu dich nicht, verschiedene Formulierungen auszuprobieren und aus den Reaktionen des Modells zu lernen. Mit der Zeit entwickelst du ein Gefühl dafür, welche Prompt-Techniken am effektivsten sind, um von ChatGPT präzise und hilfreiche Antworten zu erhalten.
Quellen
- Effective Prompts for AI: The Essentials - MIT Sloan Teaching & Learning Technologies
- Best practices for prompt engineering with the OpenAI API | OpenAI Help Center
- Azure OpenAI Service - Azure OpenAI | Microsoft Learn
- The Official ChatGPT-Prompt Engineering Guide from OpenAI Is Here
- The art of the prompt: How to get the best out of generative AI - Source
- latent.space: o1 Skill Issue – How to Write a Prompt