← Alle Insights

Reinforcement Learning im Trading: Hype und Realität.

Reinforcement Learning hat AlphaGo, Roboter-Steuerung und Sprachmodell-Training revolutioniert. Im Trading: bisher nicht. Warum nicht — und wo es trotzdem schon heute funktioniert, in einer Nische, die niemand auf YouTube zeigt.

Was Reinforcement Learning eigentlich tut.

Ein RL-Agent lernt durch Belohnung. Er nimmt eine Aktion in einem Zustand, erhält eine Belohnung, und passt seine Strategie an. Im Trading klingt das ideal: der Agent soll lernen, wann er kauft, hält oder verkauft, und Profit maximieren.

In der Praxis ist das aus drei Gründen schwierig: das Belohnungs-Signal ist verrauscht, der Zustandsraum ist riesig, und die Umwelt ist nicht-stationär. Jede dieser drei Eigenschaften killt naive RL-Anwendungen einzeln.

Die drei großen Probleme.

1. Verrauschtes Belohnungs-Signal

In den meisten RL-Anwendungen (Schach, Roboter, Games) gibt es ein klares Signal: gewonnen oder verloren. Im Trading ist der Profit jedes Trades zu großen Teilen Rauschen — selbst eine perfekte Strategie verliert in 30–50 % der einzelnen Trades. Der Agent kann nicht unterscheiden, ob ein Verlust seine Schuld war oder einfach Pech.

Folge: RL-Agents tendieren dazu, übermäßig auf Rauschen zu reagieren oder gar nichts zu lernen — je nach Hyperparameter-Tuning.

2. Nicht-stationäre Märkte

RL geht in der Theorie davon aus, dass die Spielregeln stabil sind. Aber 2015 ist nicht 2020 ist nicht 2025. Marktphasen ändern sich, Regime wechseln. Ein RL-Agent, der auf 2015–2020 trainiert wurde, hat in 2022 nichts mehr von dem gesehen, was er gelernt hat.

3. Sehr kleine Stichprobe

Andere RL-Domains haben Milliarden Datenpunkte (Atari-Frames, Schach-Positionen). Im Trading: 20 Jahre Daily-Bars = ca. 5.000 Datenpunkte. Selbst auf 1-Minuten-Bars: nur ca. 2 Mio. Bars. Für Deep RL viel zu wenig.

Wo RL trotzdem funktioniert.

1. Execution-Optimierung

Ein RL-Agent lernt, eine große Order möglichst günstig auszuführen — wann er aggressiv markt-tritt, wann er passiv im Buch wartet. Hier funktioniert RL gut, weil:

Große Banken und Hedgefonds nutzen RL-Execution-Agents produktiv seit ~2018. Für Retail-Trader nicht direkt relevant — aber die Algorithmen, mit denen Ihre Markt- Orders auf Sub-Second-Ebene gefüllt werden, sind RL-gesteuert.

2. Portfolio-Allokation in stabilen Umgebungen

RL für die Auswahl unter wenigen Strategie-Buckets („Wieviel Trendfolge vs. Mean- Reversion vs. Cash?") funktioniert teilweise. Voraussetzung: die Strategien selbst sind stabil, RL lernt nur die Allokation. Das ist im Wesentlichen ein Multi-Armed-Bandit-Problem, und für das gibt es robuste Algorithmen (Thompson-Sampling, UCB).

3. Optimierung bei klar definierten Zielen

„Maximiere Sharpe-Ratio bei max. Drawdown unter 15 %" — das ist ein Problem, das RL gut formulieren kann. Praktische Erfolge: ja, wenn die Strategie-Komponenten schon existieren und RL nur die Parameter-Wahl macht.

Wo RL bisher (2026) NICHT funktioniert.

  1. End-to-End-Trading: „Agent liest Marktdaten, gibt Trades aus." Keine reproduzierbare öffentliche Implementierung mit klarer Out-of-Sample-Performance.
  2. RL auf rohen Preis-Daten: alle Veröffentlichungen, die ich gesehen habe, sind entweder Look-Ahead-Bias-belastet oder funktionieren nur in-sample.
  3. Konkurrenz mit klassischen Strategien: Vergleichen Sie ein RL-System mit einem soliden Trend-Filter plus Mean-Reversion-Komponente. Letzteres ist meist robuster, transparenter und genauso profitabel.

Wer es trotzdem versuchen will.

Einige Forschungs-Frameworks für RL im Trading:

Vor allem für Forschung und Lern-Projekte interessant. Wer mit echtem Geld eine RL-Strategie laufen lässt, sollte vorher 3–5 Jahre Erfahrung mit klassischem Quant-Setup haben und genau wissen, wo die Fallen liegen.

Was wir konkret tun.

In Mandanten-Projekten setzen wir RL aktuell für genau zwei Anwendungsfälle ein: (1) Optimale Trade-Größe einer Order, die über mehrere Stunden ausgeführt werden soll, und (2) dynamische Allokation zwischen 3 vorgegebenen Strategie-Buckets je nach Regime. Beides sind eng-definierte Probleme, in denen RL eine messbare Verbesserung gegenüber simpleren Heuristiken bringt.

Alles, was darüber hinausgeht, ist noch Forschung. Wer Ihnen einen autonomen RL-Trader verkauft, verkauft Hoffnung.

Sie überlegen, ob RL in Ihrem Setup einen konkreten Use-Case hat? Erstgespräch buchen — wir bewerten ehrlich, ob es lohnt.