Prompt-Engineering für Marktanalyse: Patterns aus der Praxis.
Das beste Modell mit einem schlechten Prompt liefert mittelmäßige Ergebnisse. Ein mittelmäßiges Modell mit einem guten Prompt liefert oft überraschend gute. Wer in der Marktanalyse mit KI arbeitet, sollte Prompts wie Code behandeln: versioniert, getestet, gepflegt. Hier sind meine fünf Lieblings-Patterns.
Warum Prompts wichtiger sind als das Modell.
Modelle ähneln einander 2030 in den meisten Aufgaben stark. Der Abstand zwischen Claude, GPT, Gemini und großen quelloffenen Modellen ist kleiner als der Abstand zwischen einem schlampigen und einem präzisen Prompt für dasselbe Modell. Wer das nicht akzeptiert, optimiert die falsche Schraube.
Ein guter Prompt definiert: Rolle, Aufgabe, Kontext, gewünschtes Output-Format, Constraints, Beispiele, und — oft vergessen — was das Modell nicht tun soll. Wenn einer dieser Bausteine fehlt, halluziniert das Modell ihn sich aus seinen Default- Verhaltensweisen zusammen.
Strukturierte Prompts für drei Use-Cases.
1. Earnings-Analyse
Aufgabe: aus einem Earnings-Transkript die wichtigsten Punkte extrahieren — Guidance, Margin-Trends, neue Risiken, Management-Ton.
<rolle>
Du bist Equity-Research-Analyst mit Fokus auf US-Tech-Werte.
</rolle>
<aufgabe>
Extrahiere aus dem folgenden Earnings-Transkript:
1. Konkrete Guidance-Änderungen ggü. Vorquartal (mit Zitat)
2. Margin-Entwicklung (Brutto, Operating) + Begründung
3. Neue Risiken oder Sorgen (kein Boilerplate)
4. Management-Ton (defensiv / neutral / offensiv)
5. Drei Fragen, die ein guter Analyst stellen würde
</aufgabe>
<constraints>
- Nur Aussagen, die explizit im Transkript stehen
- Bei Unsicherheit: "im Transkript nicht eindeutig"
- Zahlen immer mit Quartal und Vergleichsperiode
</constraints>
<output_format>
JSON nach diesem Schema: { ... }
</output_format>
<transkript>
{transkript_volltext}
</transkript>
2. News-Zusammenfassung
Aufgabe: aus einer Sammlung News-Items pro Asset eine handelsrelevante Lage zeichnen.
<rolle>
Du bist Trading-Desk-Analyst. Du fasst kompakt und nüchtern zusammen.
</rolle>
<aufgabe>
Für das Asset {SYMBOL} mit folgenden News-Items aus den letzten 24 h:
- Identifiziere die 1–3 wichtigsten Entwicklungen (nicht alle)
- Schätze die Direktionalität (bullish / bearish / neutral) mit Begründung
- Markiere unbestätigte Gerüchte explizit
- Identifiziere Konsens vs. Outlier in den Quellen
</aufgabe>
<constraints>
- Maximal 200 Wörter Gesamttext
- Keine Empfehlung "kaufen/verkaufen"
- Keine Spekulation jenseits der gelieferten Quellen
</constraints>
<news>
{news_items_json}
</news>
3. Marktkommentar
Aufgabe: aus Tages-Performance-Daten plus Makro-Headlines einen halbminütigen Kommentar für ein internes Team formulieren.
<rolle>
Senior-Trader, sachlich, ohne Buzzwords, ohne Pseudo-Sicherheit.
</rolle>
<aufgabe>
Schreibe einen 4–6 Sätze langen Tageskommentar aus den gelieferten Daten.
Struktur: (1) was bewegt hat (2) was bemerkenswert war
(3) was morgen zu beobachten ist.
</aufgabe>
<constraints>
- Keine Phrasen wie "der Markt war nervös", "Anleger zeigten sich vorsichtig"
- Konkrete Zahlen, konkrete Auslöser
- Wenn die Datenlage dünn ist: "Datenlage dünn" statt zu fabulieren
</constraints>
Few-Shot-Learning mit eigenen Beispielen.
Das wertvollste Werkzeug, das die meisten Anwender unterschätzen: dem Modell zwei bis fünf Beispiele zu zeigen, wie der gewünschte Output aussieht. Modelle imitieren Stil und Struktur erstaunlich präzise — mit drei guten Beispielen werden Prompts oft besser als mit zehn Absätzen Erklärung.
Für meine Earnings-Analyse-Pipeline habe ich vier hochwertige Beispiele, die ich jedem Prompt mitgebe. Aufwand: einmal sauber schreiben. Wirkung: die Qualität meiner Outputs ist messbar konsistenter geworden.
XML-Tags für strukturierte Outputs.
Insbesondere bei Claude funktionieren XML-Tags hervorragend, um Sektionen im Prompt sauber zu trennen. Statt einem 200-Zeilen-Fließtext-Prompt, in dem das Modell raten muss, was Anweisung, Kontext und Beispiel ist:
<system_role>...</system_role>
<task>...</task>
<examples>
<example>...</example>
<example>...</example>
</examples>
<data>...</data>
<output_schema>...</output_schema>
Lesbar für Sie, eindeutig für das Modell. GPT und andere Modelle akzeptieren das Pattern inzwischen ebenfalls gut.
Chain-of-Thought vs. Zero-Shot.
„Denke schrittweise" ist 2023 berühmt geworden. 2030 sind moderne Modelle bei vielen Aufgaben so trainiert, dass sie das ohnehin tun, oder bei o-Klassen sogar explizit ein internes Reasoning-Budget bekommen.
Trotzdem bleibt das Pattern in zwei Fällen wertvoll:
- Wenn Sie die Reasoning-Kette sichtbar haben wollen, um sie zu auditen. Bei Trading-relevanten Entscheidungen lasse ich mir die Schritte explizit zeigen.
- Wenn Sie kleine, günstige Modelle nutzen, die ohne expliziten CoT-Prompt schnell zu Antworten springen.
Für reine Output-Geschwindigkeit ist Zero-Shot effizienter. Für Nachvollziehbarkeit ist explizites Chain-of-Thought unverzichtbar.
Cost-Optimierung mit Prompt-Caching.
Wenn Sie in einer Pipeline immer wieder denselben System-Prompt, dieselben Beispiele und dieselben Universe-Daten mitschicken, lohnt sich Prompt-Caching. Anthropic, OpenAI und Google bieten das inzwischen alle an: der unveränderte Prompt-Anfang wird vom Anbieter zwischengespeichert und beim nächsten Call mit Rabatt abgerechnet — typisch ein Bruchteil des normalen Token-Preises.
In einer meiner Earnings-Pipelines hat das die monatlichen Kosten um etwa 70 % gesenkt. Voraussetzung: der gecachte Teil ist wirklich stabil. Jede Änderung invalidiert den Cache. Wer das ignoriert, baut die Optimierung wieder zurück, ohne es zu merken.
Test-Suite für Prompts.
Prompts sind Code. Code, der ohne Tests in Produktion geht, ist Code, der irgendwann still kaputtgeht. Mein Pattern:
- Eine Datei mit 20–50 realen Test-Inputs (Earnings-Transkripte, News-Sets, Marktdaten-Snapshots).
- Für jeden Input ein erwartetes Output-Pattern (nicht wörtlich, sondern semantisch — etwa „muss Guidance-Änderung erwähnen, wenn Transkript X sagt").
- Ein kleines Eval-Script, das die Tests automatisch laufen lässt, sobald ich den Prompt ändere.
- Ein zweites Modell als Judge, das Outputs bewertet (kein perfekter Ersatz für menschliche Review, aber sehr nützlich für Regressions-Erkennung).
Mit dieser Suite weiß ich nach 90 Sekunden, ob meine letzte Prompt-Änderung etwas verbessert oder verschlechtert hat. Ohne diese Suite optimiere ich blind — und das ist ein klassisches Anti-Pattern.
Meine fünf Lieblings-Patterns.
- „Bei Unsicherheit explizit unsicher sein": Constraint, der das Modell zwingt, „unbekannt" zu sagen statt zu fabulieren.
- „Zitat-Pflicht": Jede faktische Aussage muss mit einem wörtlichen Zitat aus der Quelle belegt sein. Reduziert Halluzinationen drastisch.
- „Anti-Boilerplate-Liste": Explizite Liste von Floskeln, die das Modell nicht verwenden darf („Anleger zeigten sich nervös" usw.). Macht Outputs konkreter.
- „JSON-Output mit Schema": Strukturierter Output über free-form-Text. Erleichtert nachgelagerte Verarbeitung enorm.
- „Tool-Use statt Memory": Faktenfragen über Funktionen, nicht über Modell-Gedächtnis. Reduziert Halluzinationen und macht Outputs nachvollziehbar.
Wer diese fünf Patterns konsequent anwendet, gewinnt 70 % der Qualität, die in Prompt-Engineering steckt. Der Rest ist Detail-Feilerei für spezifische Domänen.
Sie wollen Ihre Prompts für Marktanalyse-Workflows professionalisieren? Erstgespräch buchen — ich zeige Ihnen, wie meine Pipelines aussehen.