← Alle Insights

Value-at-Risk und CVaR: was die Bankenwelt seit 1990 falsch macht.

Value-at-Risk wurde in den 1990ern bei JPMorgan zur Standard-Risikokennzahl der Finanzwelt. 2008 hat sie blamiert versagt. Conditional-VaR ist die mathematisch sauberere Antwort — und für Privat-Portfolios mindestens so relevant wie für Banken.

Als Dennis Weatherstone 1994 von seinem Risikoteam die berühmte „4:15-Report"-Zahl verlangte — eine einzige Zahl, die täglich um 16:15 Uhr das gesamte Marktrisiko der Bank zusammenfasst — wurde VaR geboren. Eine Zahl, die nicht-Mathematiker verstehen können. Das war ein riesiger Fortschritt. Aber genau diese Vereinfachung wurde später zur Falle.

Was VaR misst — und was nicht.

Value-at-Risk auf 95-%-Niveau über einen Tag bedeutet: Mit 95 % Wahrscheinlichkeit ist der Tagesverlust kleiner als der VaR. Anders gesagt: An 5 % der Tage ist der Verlust größer.

Was VaR nicht sagt, ist das eigentliche Problem: Wie groß ist der Verlust an diesen 5 % der Tage? VaR liefert ein Quantil, kein Tail. Ob die 5-%-Tage durchschnittlich 1,1 × VaR oder 5 × VaR Verlust bringen, sieht man nicht.

Drei Berechnungswege.

Historische VaR

Sie sortieren die historischen Returns aufsteigend und nehmen das 5 %-Quantil. Vorteil: keine Verteilungsannahme. Nachteil: Sie sehen nur, was tatsächlich passiert ist — wenn Ihr Sample kein 2008er-Crash enthält, gibt es im VaR auch keinen.

Parametrische VaR

Sie unterstellen Normalverteilung (oder t-Verteilung) und berechnen VaR analytisch aus Mittelwert und Volatilität. Vorteil: braucht wenig Daten. Nachteil: die Normalverteilung unterschätzt Fat Tails systematisch — bei 99-%-VaR um Größenordnungen.

Monte-Carlo-VaR

Sie simulieren tausende Pfade aus einem Modell (oft Multifaktor + GARCH-Vola) und lesen das 5 %-Quantil ab. Vorteil: flexibel, kann nicht-normale Effekte abbilden. Nachteil: Modellrisiko — falsche Annahmen werden mitsimuliert.

Warum VaR 2008 versagt hat.

Banken hatten 2007 ihre 99-%-VaR akkurat berichtet. Die Modelle waren mathematisch korrekt — gegen die historischen Daten. Das Problem: die historischen Daten enthielten keine Kombination aus Subprime-Crash, Lehman-Bankrott und Interbank-Markt-Freeze. Was tatsächlich an einzelnen Tagen passierte, lag bei 5× oder 10× des täglichen VaR.

Genau das ist Talebs zentraler Vorwurf: VaR vermittelt das Gefühl, das Risiko sei quantifiziert, während die wichtigste Information — wie schlimm wird es im Worst-Case — bewusst aus der Definition ausgeschlossen ist. Tail-Blindness.

Conditional-VaR (Expected Shortfall).

CVaR — auch Expected Shortfall genannt — beantwortet genau die Frage, die VaR offen lässt: Wie groß ist der durchschnittliche Verlust in den schlimmsten 5 % der Fälle?

VaR_95   = 5 %-Quantil der Verlustverteilung
CVaR_95  = E[ Verlust | Verlust > VaR_95 ]

→ CVaR ist immer >= VaR
→ CVaR fängt die Tail-Information ein, die VaR weglässt

Mathematisch ist CVaR sauberer, weil es ein kohärentes Risikomaß ist (im Sinn von Artzner/Delbaen/Eber/Heath 1999) — insbesondere ist es subadditiv: CVaR(A + B) ≤ CVaR(A) + CVaR(B). Diversifikation reduziert CVaR garantiert, niemals erhöht sie es. Für VaR gilt das nicht — VaR kann bei Diversifikation paradox steigen, was es als Risikomaß für Portfolios eigentlich disqualifiziert.

Python-Implementation.

# Historische VaR und CVaR
import numpy as np
import pandas as pd

def var_cvar(returns, alpha=0.05):
    r = np.asarray(returns)
    var  = np.quantile(r, alpha)
    cvar = r[r <= var].mean()
    return var, cvar

# Anwendung auf Tages-Returns eines Portfolios
var95, cvar95 = var_cvar(portfolio_returns, alpha=0.05)
print(f"VaR  95%: {var95:.2%}")
print(f"CVaR 95%: {cvar95:.2%}")

# Parametrische VaR/CVaR unter Normalverteilung
from scipy.stats import norm
def parametric_var_cvar(returns, alpha=0.05):
    mu, sigma = np.mean(returns), np.std(returns, ddof=1)
    z = norm.ppf(alpha)
    var  = mu + sigma * z
    cvar = mu - sigma * norm.pdf(z) / alpha
    return var, cvar

Typisches Bild aus einem Mandanten-Portfolio: VaR_95 bei -1,8 %, CVaR_95 bei -3,1 %. Der Erwartungswert in der schlechten Schwanzhälfte ist also fast doppelt so groß wie das Quantil selbst. Wer nur auf VaR schaut, plant mit der halben Wahrheit.

Anwendung für Privat-Portfolios.

Private Anleger denken selten in Risikomaßen — und wenn, dann in Drawdown. Das ist verständlich, aber unvollständig. Drawdown ist ein Pfad-Konzept, das man erst im Nachhinein kennt. CVaR ist ein statistisches Konzept, das man heute schon ausrechnen kann.

Konkrete Anwendung: Ich definiere mit Mandanten ein CVaR-Budget. Beispiel: „Das Tages-CVaR_95 des Gesamtportfolios soll 2 % nicht überschreiten." Das ist eine harte Zahl, gegen die jede Allokationsentscheidung geprüft wird. Wenn das Hinzufügen einer Position das CVaR sprengt, fliegt entweder die Position oder eine andere muss reduziert werden.

VaR/CVaR und Stress-Tests.

Auch CVaR ist nicht das letzte Wort. Es misst durchschnittlichen Schwanz-Verlust, aber unter der Annahme, dass die historische Verteilung repräsentativ ist. Echte Tail-Events (2008, COVID-Crash 2020) sind oft so selten, dass sie im Sample kaum Gewicht haben. Stress-Tests — explizite Szenarien wie „was passiert bei -30 % Aktien an einem Tag?" — sind die notwendige Ergänzung.

Mein Risikoreporting hat deshalb immer drei Ebenen: VaR (Standard-Kompatibilität), CVaR (das eigentliche Tail-Maß), Stress-Test (was bei wirklich Extremem passiert). Wer nur eine Ebene nutzt, ist blind in mindestens einer Dimension.

Meine Praxis.

Konkrete Regeln, die ich bei jeder Portfolio-Beratung anlege:

Die Bankenwelt hat 30 Jahre gebraucht, um nach Basel III CVaR (Expected Shortfall) als regulatorische Kennzahl zu akzeptieren. Privatanleger müssen nicht so lange warten — die Mathematik liegt offen, die Python-Implementation passt in 20 Zeilen, und der Erkenntnisgewinn ist erheblich.

Sie wollen ein sauberes VaR-/CVaR-Reporting für Ihr Portfolio aufsetzen? Erstgespräch buchen — ich baue es mit Ihnen.