KI für Krypto-Forecasting: Hype, Realität und was 24/7-Daten ermöglichen.
Krypto ist für Machine-Learning-Trader eine seltsame Mischung aus Goldgrube und Sackgasse. Die Märkte laufen rund um die Uhr, generieren Daten in einem Volumen, das klassische Equity-Quants neidisch macht — und liefern trotzdem für die meisten ML-Setups ernüchternde Ergebnisse. Hier ist, was nach Jahren der Versuche tatsächlich funktioniert.
Warum 24/7-Märkte für ML grundsätzlich attraktiv sind.
Klassische Finanzmärkte schlafen. Der S&P 500 hat etwa 252 Handelstage und sechseinhalb Stunden pro Tag — etwa 1 600 Stunden Marktzeit im Jahr. Bitcoin hat 8 760 Stunden. Faktor fünf mehr Daten bei vergleichbarer Granularität. Für jedes Modell, das mehr Trainingsmaterial braucht, ist das ein echter Vorteil.
Dazu kommt: die Trends in Krypto sind oft klar gerichtet. Bull- und Bear-Cycles über Monate, nicht Tage. Das ist freundliches Terrain für Trend-Folge-ML-Modelle, weil das Verhältnis Signal zu Rauschen auf höheren Zeitebenen besser ist als bei vielen Mid-Cap-Aktien.
Aber: derselbe Markt ist auf Sub-Tages-Ebene grausam laut. Jede Mid-Frequency-Idee, die in Equities funktioniert, kollabiert hier an Whale-Trades und Manipulation. Wer das Zeitfenster nicht versteht, in dem ML wirken kann, verbrennt schnell Geld.
On-chain-Daten als Feature-Quelle.
Der größte Unterschied zu Equities: Krypto ist transparent. Jede Transaktion liegt in einer öffentlichen Blockchain. Anbieter wie Glassnode, IntoTheBlock und CryptoQuant aggregieren diese Daten zu nutzbaren Metriken. Die ehrliche Auswahl an Features, die in meinen Modellen Mehrwert gebracht haben:
- SOPR (Spent Output Profit Ratio): ob Coins im Profit oder Verlust verkauft werden — guter Stimmungs-Proxy
- Exchange-Net-Flow: wie viele BTC fließen netto auf oder von Börsen — strukturelles Druck-Signal
- MVRV-Z-Score: Marktkapitalisierung relativ zu realisiertem Wert — historisch verlässlich für Cycle-Tops und -Bottoms
- Aktive Adressen und Transfervolumen: Adoptions-Proxy, langsam aber stabil
- Stablecoin-Supply auf Börsen: trockenes Pulver für mögliche Käufe
Ich habe diese Features in einem Multi-Faktor-Modell für BTC-Wochen-Returns kombiniert. Die ehrliche Out-of-Sample-Performance: positives R² um 0,08, sinnvolle Treffer in Extrem-Quantilen, vor allem an Cycle-Wendepunkten. Das reicht nicht für High-Sharpe-Strategien, aber es schlägt naives Buy-and-Hold-Timing.
Sentiment aus Twitter/X und Discord — systematisch.
Krypto-Sentiment auf Social Media ist laut, manipuliert und voller Bots. Trotzdem gibt es ein verwertbares Signal — wenn man die Verarbeitung sauber aufsetzt.
Bei uns läuft eine Pipeline, die täglich rund 50 000 Tweets zu BTC, ETH und SOL zieht, mit einem kleinen LLM (Haiku-Klasse) je Tweet einen Score zwischen -1 und +1 erzeugt und das gewichtete Mittel je Stunde speichert. Wichtig ist das Gewicht: Accounts unter 1 000 Followern zählen nichts, Accounts mit dokumentierter Bot-Aktivität werden vorab gefiltert. Was übrig bleibt, ist ein recht stabiles Mainstream-Sentiment.
Der nutzbarste Befund: nicht das Level des Sentiments, sondern die Veränderung gegenüber dem rollierenden Mittel von 14 Tagen. Wenn das Sentiment binnen 48 Stunden mehr als zwei Standardabweichungen vom Mittel abweicht, folgt in 65 % der Fälle ein Mean-Reversion-Move innerhalb der nächsten Woche. Das ist kein Wundersignal, aber es ist robuster als die Hälfte aller technischen Indikatoren, die ich kenne.
LSTM und Transformer auf BTC-Returns — ehrliche Ergebnisse.
Hier kommt der unangenehme Teil. Ich habe in den letzten Jahren mehrere LSTM-, Transformer- und TCN-Architekturen auf BTC-Hour-Returns und -Day-Returns getestet. Die ehrliche Bilanz:
- Auf Stunden-Returns: kein verlässlicher Edge nach Kosten. Trainings-R² oft über 0,3, Out-of-Sample um Null oder negativ. Klassische Overfitting-Falle.
- Auf Tages-Returns: marginaler Edge bei reinen Preis-Features. Wird interessanter, sobald On-chain- und Sentiment-Features dazukommen — dann sind R² zwischen 0,06 und 0,10 erreichbar.
- Auf Wochen-Returns: hier funktionieren auch einfache Tree-Modelle gut, Deep Learning bringt selten Zusatznutzen, weil zu wenige Datenpunkte.
Die wichtigste Lektion: ein Transformer ist kein magisches Werkzeug. Ohne sinnvolle Features ist er ein teurer Random-Walk-Approximator. Mit guten On-chain-Features bringt er marginal mehr als XGBoost — die zusätzliche Komplexität rechtfertigt das selten.
Funding-Rate-Prediction als praktischer Use-Case.
Funding Rates auf Perpetual-Futures sind ein praxistauglicher ML-Target. Sie sind beobachtbar, mean-reverting und haben klare Treiber: Spot-Premie, Open Interest, Long/Short-Ratios und Volatilität.
import pandas as pd
import xgboost as xgb
# Binance USDT-M Perp Funding-Daten (8h-Intervalle)
df = pd.read_parquet("btc_funding.parquet")
# Features
df["spot_premium"] = (df["perp_price"] / df["spot_price"]) - 1
df["oi_chg_24h"] = df["open_interest"].pct_change(3)
df["ls_ratio"] = df["long_accounts"] / df["short_accounts"]
df["realized_vol_24h"] = df["ret_8h"].rolling(3).std()
X = df[["spot_premium","oi_chg_24h","ls_ratio","realized_vol_24h","funding_rate"]].dropna()
y = df["funding_rate"].shift(-1).dropna()
X, y = X.align(y, join="inner", axis=0)
split = int(len(X) * 0.7)
model = xgb.XGBRegressor(n_estimators=300, max_depth=4, learning_rate=0.05)
model.fit(X.iloc[:split], y.iloc[:split])
print("R²:", model.score(X.iloc[split:], y.iloc[split:]))
Typisches Out-of-Sample-R² in diesem Setup: 0,18 bis 0,25. Das ist deutlich höher als bei Direktions-Forecasts und führt zu einem tatsächlich tradebaren Edge — über Cash-and-Carry-Setups, bei denen man Funding kassiert, statt es zu zahlen. Hier ist ML mehr Optimierung als Vorhersage, und genau das macht es robust.
Hash-Rate-Korrelationen und andere Mythen.
Im Krypto-Twitter steht regelmäßig, dass die BTC-Hash-Rate dem Preis vorausläuft. Backtests dazu sind ein Lehrstück: in Bull-Phasen sieht es nach Vorlauf aus, in Bear-Phasen nicht. Mein eigenes Backtesting zeigt: die Korrelation existiert, aber die Kausalität läuft fast immer vom Preis zur Hash-Rate, nicht umgekehrt. Miner skalieren ihre Kapazität nach Profitabilität.
Das heißt nicht, dass Hash-Rate-Daten nutzlos sind — sondern dass sie ein Reaktions-, kein Vorlauf-Indikator sind. Wer sie als Forecast-Feature verwendet, sollte das wissen und sie nur in Kombination mit anderen Signalen einsetzen.
Ehrliche Bewertung — was bleibt.
Nach mehreren Jahren ernsthafter Arbeit an ML-Setups für Krypto bleibt eine kurze Liste an Dingen, die in meinen Augen wirklich Mehrwert liefern:
- On-chain-Faktoren als Cycle-Indikator für strategische Allokationen, nicht für Daytrading
- Funding-Rate-Forecasting für Cash-and-Carry-Arbitrage
- Sentiment-Extreme als Mean-Reversion-Signal auf Wochenebene
- Volatilitäts-Forecasting für Position-Sizing und Hedging
Was ich heute nicht mehr mache: kurze Zeitebenen mit Deep Learning, Twitter-Pump-Pumper- Sentiment ungefiltert, Hash-Rate als Direktions-Signal. Die meisten verfügbaren Krypto-ML-Strategien aus Open-Source-Repositories sind versteckte Overfits oder survivorship-biased. Wer hier ehrlich misst und konservativ erwartet, kann einen Teil seines Krypto-Exposures sinnvoll steuern — aber kein automatisches Geldsystem bauen.
Sie haben eine Krypto-ML-Idee und wollen ehrlich prüfen, ob etwas dran ist? Erstgespräch buchen — wir backtesten das gemeinsam ohne Selbsttäuschung.