← Alle Insights

Transformer-Architekturen für Marktdaten: was nach RNNs kommt.

Seit „Attention Is All You Need" 2017 haben Transformer NLP, Vision und Audio neu definiert. Für Marktdaten ist das Bild deutlich nuancierter. Wo Transformer wirklich helfen, wo sie Compute verbrennen — und warum sie RNNs nicht so klar dominieren, wie viele behaupten.

Mandanten fragen mich regelmäßig: „Sollen wir nicht endlich auf Transformer umstellen?" Die Antwort hängt davon ab, was Sie modellieren — und vor allem, wie viele Daten Sie haben. Bei Marktdaten ist die Antwort öfter „nein" als gedacht.

Was Transformer anders machen.

RNNs (inkl. LSTM und GRU) verarbeiten eine Sequenz Schritt für Schritt. Information aus weit zurückliegenden Zeitpunkten muss durch alle Zwischenzustände propagieren — und verblasst dabei. Das ist das berühmte Vanishing-Gradient-Problem, das LSTMs nur teilweise lösen.

Transformer machen das anders. Self-Attention erlaubt jedem Zeitpunkt, direkt jeden anderen Zeitpunkt in der Sequenz anzuschauen — gewichtet nach Relevanz. Es gibt keine sequenzielle Propagation, alle Positionen werden parallel verarbeitet. Das ist enorm flexibel: das Modell kann lernen, dass der Volatilitäts-Spike vor 200 Bars für die heutige Vorhersage wichtiger ist als der Bar von gestern.

Das O(n²)-Problem.

Diese Flexibilität kostet. Self-Attention vergleicht jede Position mit jeder anderen — das ist quadratisch in der Sequenzlänge. Bei einer Sequenz von 1000 Schritten sind das 1 Million Attention-Scores pro Layer. Bei 10000 Schritten 100 Millionen. RNNs sind dagegen linear in der Sequenzlänge.

Für NLP ist das egal — Sätze sind kurz. Für Marktdaten ist es problematisch, weil interessante Pattern oft über lange Sequenzen laufen (Wochen, Monate von Tages-Bars). Es gibt drei Strategien gegen das O(n²)-Problem:

Time-Series-spezifische Architekturen.

Drei Architekturen, die ich in der Praxis evaluiert habe:

Temporal Fusion Transformer (TFT)

Von Google Research, 2019. Kombiniert LSTM-Komponenten für lokale Sequenz-Aufnahme mit Multi-Head- Attention für lange Zusammenhänge. Plus: explizite Trennung von statischen Kovariaten, bekannten zukünftigen Inputs (z. B. Kalender) und unbekannten zukünftigen Inputs (Preise). Stärke: interpretierbar — Sie können nachträglich anschauen, welche Features das Modell wie gewichtet hat.

Informer

AAAI 2021, optimiert für sehr lange Forecast-Horizonte. Nutzt ProbSparse-Attention (nur die wichtigsten Query-Key-Paare) und einen Distilling-Mechanismus, der die Sequenz Layer-für-Layer verkürzt. In Benchmarks häufig besser als TFT bei Forecast-Horizont > 200 Schritte.

PatchTST

ICLR 2023. Vermutlich der derzeit pragmatischste Ansatz: Zeitreihe in Patches schneiden, jeder Channel (z. B. jeder Asset) wird unabhängig modelliert, dann mit Vanilla-Transformer-Encoder verarbeitet. Einfach, gut, und in vielen Benchmarks State-of-the-Art.

Anwendung: Multi-Asset-Forecasting.

Ein typisches Setup, in dem Transformer Mehrwert bringen können: Multi-Asset-Forecasting. Sie wollen für 50 ETFs simultan die nächsten 5-Tages-Returns prognostizieren. Cross-Asset-Information (was macht Gold, wenn USD-JPY steigt?) ist relevant.

Encoder-Decoder-Setup:

Code-Snippet mit HuggingFace.

# Vereinfachtes Setup mit HuggingFace TimeSeriesTransformer
from transformers import TimeSeriesTransformerConfig, TimeSeriesTransformerForPrediction
import torch

config = TimeSeriesTransformerConfig(
    prediction_length=5,         # 5-Tages-Forecast
    context_length=60,           # 60 Tage Eingabe
    input_size=50,               # 50 Assets simultan
    num_time_features=4,         # Wochentag, Monat, Quartal, Year-of-Sample
    d_model=128,
    encoder_layers=4,
    decoder_layers=4,
    encoder_attention_heads=8,
    decoder_attention_heads=8,
    dropout=0.2,
    distribution_output="student_t",  # schwere Tails statt Normal
)
model = TimeSeriesTransformerForPrediction(config)

# Training mit klassischem Trainer-Loop
optimizer = torch.optim.AdamW(model.parameters(), lr=1e-4)
for batch in train_loader:
    out = model(
        past_values=batch["past_values"],
        past_time_features=batch["past_tf"],
        past_observed_mask=batch["past_mask"],
        future_values=batch["future_values"],
        future_time_features=batch["future_tf"],
    )
    out.loss.backward()
    optimizer.step()
    optimizer.zero_grad()

Vergleich gegen ARIMA und LSTM.

Wenn ich ehrlich bin: in Mandanten-Projekten ist das Ergebnis ernüchternd. Auf 5-Jahres-Daily- Datensätzen mit 50 Assets schlägt ein gut getunter Temporal Fusion Transformer einen LSTM- Baseline-Forecast um vielleicht 3 bis 8 Prozent MSE-Verbesserung. ARIMA mit gut gewählten Exogenen ist nur 10 bis 15 Prozent schlechter als der Transformer.

Das ist marginal. Und es ist ohne den 30-fachen Trainings-Compute, den der Transformer braucht. Bei kurzen Forecast-Horizonten (1–5 Tage) sind klassische Methoden auf Marktdaten oft wettbewerbsfähig — weil das Signal-zu-Rausch-Verhältnis so schlecht ist, dass die zusätzliche Modell-Kapazität hauptsächlich Rauschen anpasst.

Wann Transformer wirklich Mehrwert bringen.

Pitfalls.

Drei häufige Fehler, die ich gesehen habe:

Meine Praxis.

Ich nutze Transformer nur in zwei Szenarien: erstens bei intraday-Strategien mit massiven Daten­ mengen (Tick-Daten, mehrjährig), zweitens bei Multi-Asset-Setups mit reichen Kovariaten. Für alles andere bleibe ich bei Gradient Boosting (LightGBM, XGBoost) als Feature-zu-Label-Modell — oft mit Triple-Barrier-Labels und Meta-Labeling-Architektur.

Transformer sind ein Werkzeug, kein Ziel. Wenn sie helfen, super — wenn nicht, ist ein simpler LightGBM-Klassifizierer oft 50-mal schneller zu trainieren und nicht messbar schlechter. Die ehrliche Einschätzung 2033: Transformer schlagen klassische Methoden auf Marktdaten marginal, sie dominieren sie nicht.

Sie überlegen, ob Transformer für Ihr Trading-Setup Sinn ergeben? Erstgespräch buchen — wir schauen ehrlich auf Datenmenge und Compute-Budget.