Das Problem ist fast immer der Prompt#
Jede Woche schickt mir jemand eine Claude-Konversation und fragt, warum der Output schlecht ist. In ungefaehr neun von zehn Faellen macht das Modell genau das, was verlangt wurde. Die Person hat nur nicht gemerkt, was sie da verlangt hat.
Claude ist keine Suchmaschine. Es liest keine Gedanken, hat zwischen Sessions kein Gedaechtnis (ausser Sie bauen eines ein), und es nimmt Kontext erstaunlich woertlich. Prompt Engineering klingt nach Buzzword, ist aber in Wirklichkeit nur die Gewohnheit, Anfragen so zu schreiben, wie das Modell sie tatsaechlich verarbeitet.
Nach Hunderten Stunden mit Claude Opus 4.6 fuer Kundenprojekte und viel Zuschauen, wie Freunde und Kollegen damit kaempfen, hier die sieben Fehler, die ich am haeufigsten sehe.
1. Mit der Aufgabe starten, nicht mit der Rolle#
Der schlechteste Prompt, den ich regelmaessig sehe, sieht so aus:
Schreib mir eine Landingpage fuer eine Zahnarztpraxis.
Claude wird etwas produzieren. Es wird generisch. Der Output hat keinen Haken, weil die Anfrage keinen Haken hat.
Die Loesung sind nicht laengere Prompts. Sie besteht darin, die Rolle nach vorne zu ziehen:
Du bist ein Senior-Conversion-Texter, der an 40+ Healthcare-Landingpages gearbeitet hat. Deine Seiten schlagen generische Agentur-Texte konstant, weil du mit der tatsaechlichen Angst des Patienten startest, nicht mit den Qualifikationen der Klinik. Schreib jetzt eine Landingpage fuer eine Zahnarztpraxis in Hamburg, die auf Angstpatienten spezialisiert ist.
Die Rolle erledigt 80 Prozent der Arbeit. Sie prägt jede nachgelagerte Entscheidung, die das Modell ueber Ton, Struktur und Schwerpunkte trifft. Sagen Sie Claude, wer es ist, bevor Sie sagen, was es tun soll.
2. Nach "Best Practices" fragen statt nach Constraints#
"Schreib SEO-freundlichen Content" ist fuer das Modell bedeutungslos. SEO-freundlich nach wessen Definition? Fuer welche Branche? Fuer welche Suchintention?
Ersetzen Sie jedes vage Qualitaetswort in Ihrem Prompt durch einen Constraint. Statt "mach es SEO-freundlich" schreiben Sie "Keyword X ansteuern, in H1 und den ersten 100 Woertern platzieren, Absaetze unter drei Saetzen halten, fuer die Awareness-Phase schreiben, nicht fuer die Entscheidungs-Phase". Das Modell kann nicht auf schwammige Adjektive optimieren. Es kann sehr wohl auf messbare Constraints optimieren.
Die gleiche Regel gilt fuer "professionell", "ansprechend", "modern" und "clean". Diese Woerter sagen Claude nichts. Ersetzen Sie sie durch das, was Sie tatsaechlich wollen.
3. Den System-Prompt / Projekt-Kontext ignorieren#
Wenn Sie Claude ueber die Web-App nutzen, haben Sie Zugriff auf Projects. Die meisten Menschen benutzen sie nie. Das ist ein grosser Fehler.
Ein Project laesst Sie Referenz-Dokumente hochladen, einen persistenten System-Prompt setzen und dem Modell dauerhaften Kontext geben, der jeden neuen Chat in diesem Project ueberlebt. Fuer jede wiederkehrende Arbeit (Schreiben fuer einen bestimmten Kunden, Coden in einer bestimmten Codebase, Editieren mit einem bestimmten Ton) zahlt sich das einmalige Setup innerhalb von Tagen aus.
Wenn Sie Claude ueber API nutzen, ist das Aequivalent der system-Parameter. Packen Sie dort die Rolle, die Constraints, die verbotenen Phrasen, die Stil-Regeln hin. Lassen Sie die User-Nachrichten fuer die eigentliche Aufgabe.
4. Alles in einen riesigen Prompt stopfen#
Es gibt einen Punkt, an dem ein Prompt so lang wird, dass das Modell anfaengt, Teile davon zu ignorieren. In meinen Tests liegt dieser Punkt bei etwa 600-800 Woertern Anweisungen, bevor der Grenznutzen einbricht.
Wenn Ihr Prompt laenger ist, teilen Sie ihn. Verwandeln Sie Ihren "Schreib einen 2.000-Wort-Artikel"-Prompt in drei Schritte:
- Struktur skizzieren (Ueberschriften, 1-Satz-Zusammenfassung pro Abschnitt, Ziel-Wortzahl)
- Jeden Abschnitt einzeln entwerfen, mit Referenz auf die Skizze
- Den vollen Entwurf gegen die urspruenglichen Constraints editieren
So arbeiten erfahrene Texter tatsaechlich, und Claude arbeitet besser, wenn Sie ihm den gleichen Flow erlauben. Mehr dazu im Claude-Guide.
5. Claude nicht sagen, wie der Output aussehen soll#
Claude produziert standardmaessig Fliesstext. Wenn Sie JSON, eine Markdown-Tabelle, eine Bulletpoint-Liste oder eine spezifische XML-artige Struktur wollen, sagen Sie das explizit.
Liefere deine Antwort als Markdown-Tabelle mit genau drei Spalten: "Einwand", "Dahinterliegende Angst", "1-Satz-Beruhigung". Fuege keinen anderen Text vor oder nach der Tabelle hinzu.
Die Zeile "Fuege keinen anderen Text hinzu" vergessen die meisten. Ohne sie verpackt Claude die Tabelle oft in einen hoeflichen Satz wie "Hier ist die Tabelle", was Ihr nachgelagertes Parsing bricht.
6. Beispiele liefern, die den Anweisungen widersprechen#
Das ist subtil und erwischt auch erfahrene Leute. Sie schreiben einen sorgfaeltigen Prompt, der einen lockeren, konversationellen Ton verlangt, fuegen dann aber drei Beispiel-Outputs ein, die in steifem Corporate-Sprech geschrieben sind, weil die am einfachsten zu kopieren waren.
Claude wird die Beispiele priorisieren. Immer. Beispiele sind staerkeres Signal als Anweisungen, weil sie dem Modell zeigen, wie Erfolg tatsaechlich aussieht. Wenn Ihre Beispiele Ihren geschriebenen Anweisungen widersprechen, gewinnen die Beispiele.
Die Loesung: Entweder die Beispiele an den gewuenschten Ton anpassen, oder gar keine Beispiele liefern und in den Anweisungen spezifischer werden.
7. Den Output nicht kritisch lesen#
Der letzte Fehler ist nachgelagert. Menschen kopieren den Output in ein Dokument, ohne ihn wirklich zu lesen.
Claude Opus 4.6 ist sehr gut, aber es halluziniert immer noch Details (Zahlen, Daten, Produktnamen) in vielleicht 5-10 Prozent der Faelle. Es polstert immer noch mit generischer Fuellmasse, wenn das Thema duenn wird. Es faellt immer noch auf Strukturen zurueck, die es eine Million Mal gesehen hat (Drei-Absatz-Intro, fuenf Bulletpoints, Ein-Satz-Fazit).
Ihre Aufgabe ist die des Lektors. Lesen Sie den Output, als haette ihn ein Junior-Texter geliefert. Streichen Sie die Fuellmasse. Verifizieren Sie die Details. Ersetzen Sie jeden Satz, den auch jeder Wettbewerber haette schreiben koennen.
Die KI ist eine Erstentwurfs-Maschine. Keine Publishing-Pipeline.
Das zugrundeliegende Muster#
Alle sieben Fehler kommen aus derselben Annahme: dass Claude versteht, was Sie meinen, nicht nur, was Sie geschrieben haben. Tut es nicht. Es versteht genau das, was Sie geschrieben haben, interpretiert durch die statistischen Muster seiner Trainingsdaten.
Die gute Nachricht: Sobald Sie aufhoeren, Gedankenlesen zu erwarten, wird Prompt Engineering ziemlich einfach. Explizit sein. Rolle setzen. Constraints definieren. Output strukturieren. Ergebnis verifizieren. Das ist es.
Wenn Sie das tiefere Framework wollen, deckt unser ChatGPT vs Claude-Vergleich ab, wo welches Modell welche Prompt-Stile belohnt. Und fuer eine strukturierte Begleitung, wie ich Claude Code fuer Entwicklungsarbeit nutze, geht der Claude-Guide tiefer.
Aber nichts davon zaehlt, wenn Sie weiter die sieben Fehler oben machen. Fixen Sie die zuerst.
