Aufsätze

Trügerische Sicherheit durch Risikomodelle?

Der Wunsch nach einem Zurück zu den guten alten Zeiten ist nun auch im Risikomanagement angekommen. Die Komplexität der finanzmathematischen Methoden sowie deren, so scheint es, unzureichende Leistungsfähigkeit in der Krise lassen manchen Investor an der Sinnhaftigkeit des modernen Risikomanagements zweifeln. Stopp-Loss statt Stochastik lautet die Devise derjenigen, die beim Risikomanagement einfachen und transparenten Verfahren den Vorzug vor ausgefeilten Modellen der Finanzmathematik geben wollen.

Die Vorbehalte der Skeptiker kreisen dabei vor allem um zwei Problemfelder. Welchen Nutzen haben Modelle, die vermehrt nur noch von spezialisierten Finanzmathematikern verstanden werden? Und: Sind die Modelle tatsächlich in der Lage, das Marktgeschehen zu erfassen und dabei auch extreme Ereignisse zeitnah zu berücksichtigen?

Kritik an "Value at Risk"

Gerade die letzte Frage steht im Zentrum der gegenwärtigen Kritik am sogenannten Value at Risk (VaR). Diese in der Bankenwelt und auch im Asset Management weit verbreitete Standardkennziffer quantifiziert den geschätzten Wertverlust, der innerhalb eines festgelegten Zeitraums mit einer bestimmten Wahrscheinlichkeit nicht überschritten wird. Der VaR gilt heute als Standardmaßzahl zur Risikoquantifizierung. Die ihm zugrunde liegenden Ansätze beruhen im Wesentlichen auf drei Modellen. Neben der historischen Simulation zählen dazu vor allem die Varianz-Kovarianz-Methode sowie die Monte-Carlo-Simulation.

Trotz brauchbarer Ergebnisse sind sich Wissenschaft und Praxis allerdings weitgehend einig, dass der VaR verschiedene Mängel aufweist. Neben der schwachen Reaktionsfähigkeit auf sich schnell verändernde Marktsituationen werden die starke Vergangenheitsbezogenheit der Daten als auch die mangelnde Berücksichtigung von Extremrisiken als problematisch gesehen. Besonders hart geht der renommierte amerikanische Finanzwissenschaftler und Buchautor Nassim Nicholas Taleb mit dem VaR ins Gericht. Aussagen, die auf dem VaR-Modell beruhen, hält er schlicht für unbrauchbar, das ganze Konzept für Scharlatanerie. Die Ergebnisse wögen die Akteure in falscher Sicherheit und würden gerade dadurch zu einer Gefahr für das Finanzsystem.

Aber auch Investoren stehen dem VaR skeptisch gegenüber. Ihnen fehlt vor allem die Anbindung an das tatsächliche Marktgeschehen. Die Berücksichtigung der Marktentwicklung und des Marktwissens komme beim VaR zu kurz. Genau diese Anbindung sei jedoch erforderlich, um bestimmte Bewegungen und Ereignisse zu erkennen und zu beurteilen.

Die Kritik am Value at Risk darf nicht ignoriert werden. Eine pauschale Ablehnung des Konzepts wäre in jedem Fall aber grundverkehrt. Denn die Quantifizierung von Anlagerisiken gehört zu den elementaren Herausforderungen im Asset Management. Ziel ist es, die abstrakten Risiken mit konkreten Werten und Kennzahlen zu belegen, um sie so für den Portfoliomanager handhabbar zu machen. Genau diese systematische Steuerung von Risiken ist ohne finanzmathematische Verfahren allerdings nicht möglich. Back to Basics im Sinne einer grundsätzlichen Abkehr von den derzeit existierenden Konzepten der Risikokontrolle kann also nicht der richtige Weg sein. Vielmehr muss es darum gehen, die vorhandenen Modelle sukzessive weiterzuentwickeln und zu optimieren. Denn trotz aller Unzulänglichkeiten - und auch darüber sind sich sowohl Wissenschaft als auch Praxis einig - stellt das VaR-Modell in einem ersten Schritt ein grundsätzlich nützliches Hilfsmittel im Risikomanagement dar.

Rendite und Risiko

In welche Richtung könnte eine sinnvolle Weiterentwicklung des VaR gehen, um den beschriebenen Unzulänglichkeiten des Modells entgegenzutreten? Mit dieser Frage beauftragte Union Investment unlängst Professor Henner Schierenbeck von der Universität Basel im Rahmen einer Untersuchung zur "Renditeoptimierung durch die Verbesserung von Risikomodellen". Neben dem wissenschaftlichen Erkenntnisinteresse stand dabei eine konkrete und handfeste Herausforderung im Vordergrund. Wie lässt sich das Risikopotenzial der Kapitalanlage durch die Optimierung des VaR noch genauer bestimmen?

Für viele Investoren ist diese Frage alles andere als akademisch. Denn nutzen diese ihr selbst gesetztes Risikolimit auf der Basis von ungenauen Risikomodellen vollständig aus, besteht eine erhebliche Gefahr, dass dieses im Fall des Risikoeintritts überschritten wird. Ist sich der Anleger auf der anderen Seite allerdings bewusst, dass sein Risikomodell unzureichend ist, wird er in der Regel nur einen begrenzten Teil des Risikolimits ausschöpfen und damit Gefahr laufen, seine Renditeziele nicht vollständig zu verwirklichen.

Verbesserte Risikoprognose durch Dynamisierung

Ausgangspunkt der Untersuchung war zunächst die Überprüfung der Prognose-Qualität von VaR-Kennzahlen. Hierfür wurde die Quantifizierung des VaR auf der Basis der Normalverteilung methodisch analysiert und mit einem historischen Dax-Portfolio abgeglichen. Hierzu wurden die bis zum 1. Januar 1965 rückgerechneten Dax-Schlusskurse auf täglicher Basis bis zum 30. Mai 2008 zugrunde gelegt. Im Ergebnis ließen sich dabei signifikant häufige Überschreitungen des VaR feststellen.

Interessant war vor allem die Beobachtung, dass die Zeiten gehäufter Überschreitungen mit dynamischen Phasen gestiegener Marktvolatilität zusammenfielen. Es lag daher nahe, als Alternative zum VaR-Standardmodell eine Dynamisierung der Standardabweichung durch eine stärkere Gewichtung näher in der Vergangenheit liegender Renditen zu untersuchen. Dabei wurde deutlich, dass die dynamisierte Standardabweichung tatsächlich eine verbesserte Risikoschätzung ermöglicht (siehe Abbildung 1). Während an zehn Handelstagen eine Überschreitung des VaR 99 Prozent auf Basis des modifizierten Verfahrens erfolgt, an welchen beim Standardansatz keine Überschreitung gegeben war, sind 23 Handelstage zu verzeichnen, an denen mit der modifizierten Betrachtung keine Überschreitung erfolgt. Beim Standardansatz lag diese jedoch vor.

Implizite Volatilität als Risikoindikator

Obwohl also eine erste Modifikation bei der Ermittlung der Standardabweichung bereits Fortschritte in Bezug auf eine möglichst zeitnahe Abbildung von Volatilitätsveränderungen bewirken konnte, bleibt der Rückgriff auf Vergangenheitsdaten ein Problem des VaR-Modells. Als eine Möglichkeit, diese Unzulänglichkeit auszugleichen, wurde daher von Professor Schierenbeck die Ableitung der Standardabweichung unter Berücksichtigung der impliziten Volatilität von Optionsbewertungen gemäß Black-Scholes geprüft.

Hierbei besteht für ein Dax-Portfolio die Möglichkeit, als Underlying auf den V-Dax zurückzugreifen. Dieser ermittelt die in den Dax-Optionen eingepreiste Volatilität. Die Risikoquantifizierung kann somit auf der von den Marktteilnehmern erwarteten Schwankungsbreite erfolgen und muss nicht auf historischen Daten aufbauen. Grundlage ist die Annahme, dass in einem perfekten Markt die in Optionsgeschäften eingepreiste Volatilität der Volatilität der Basiswerte entsprechen sollte. Die Untersuchung dieses Alternativ-Ansatzes erbrachte ebenfalls ein positives Ergebnis: die Risikoquantifizierung auf Basis der impliziten Volatilität wies erkennbar weniger Überschreitungen auf als die historische Simulation (siehe Abbildung 2).

Extremwerttheorie in den VaR integrieren

Trotz der Möglichkeit, zukunftsbezogene Daten zu berücksichtigen, ist die VaR-Messung auf Basis des V-Dax nur eingeschränkt in der Lage, sogenannte Extremrisiken zu quantifizieren. Abhilfe könnte hier allerdings die Extremwerttheorie schaffen. Deren Grundannahme ist, dass bei Kenntnis der Randverteilung die Analyse über die Datenbasis hinaus erweitert werden kann, um so Extremereignisse zu betrachten. Die Untersuchung von Professor Schierenbeck kommt zu dem Ergebnis, dass sich durch diesen Ansatz tatsächlich gute Möglichkeiten zur Verknüpfung von Risikohöhe und Eintrittswahrscheinlichkeit eröffnen.

So konnte am Beispiel des 11. September 2001 gezeigt werden, dass mittels der Peaks-over-Threshold-Methode (POT) die Eintrittswahrscheinlichkeit für einen Verlust von 8,5 Prozent oder mehr auf einen von 2 040 Handelstagen geschätzt wurde. Tatsächlich sind Verluste dieser Größenordnung in der Vergangenheit etwa alle 2 750 Tage eingetreten. Auf Basis der Normalverteilung wären sie jedoch nur an einem von 232 Millionen Handelstagen zu erwarten gewesen.

Mehr Rendite möglich

Auch mit dem in den vergangenen Monaten schmerzlich an Aktualität gewonnenen Thema des Liquiditätsrisikos befasste sich die Studie. Denn eine weitere Schwäche der meisten Risikomesssysteme liegt darin begründet, dass sie auf dem Mittelwert von Geld- und Briefkurs beruhen. Wird eine Position allerdings tatsächlich veräußert, kann dies in der Regel nur zum tieferen Geldkurs erfolgen. Damit kommt das Marktliquiditätsrisiko zum Tragen.

Dieses Risiko besteht grundsätzlich aus zwei Teilen, einem exogenen und dem endogenen Liquiditätsrisiko. Während das exogene Risiko über die Betrachtung der Volatilität der relativen Geld-Brief-Spanne durchaus quantifiziert werden kann, sind die bisherigen Ansätze zu Messung des endogenen Risikos gegenwärtig allerdings nicht sinnvoll in Risikokennzahlen zu integrieren. Denn Letztere beruhen auf einer Vielzahl von Annahmen, für die bislang eine gesicherte Datenbasis fehlt. Mit Ausnahme der Messung von Liquiditätsrisiken konnte die Untersuchung von Professor Schierenbeck insgesamt verschiedene Optionen zur Verbesserung insbesondere des VaR-Modells aufzeigen.

Die Weiterentwicklung von Risikomodellen kann also tatsächlich zu einer Optimierung der Risikomessung und somit zu einer effizienteren Ausnutzung der Risikobudgets bei den Investoren führen. Wie sich dies konkret auf die Rendite auswirkt, auch dies wurde von Professor Schierenbeck untersucht. Durch eine verbesserte Risikoquantifizierung sowie eine effizientere Risikoauslastung, so sein Fazit, ließe sich unter den getroffenen Annahmen die Rendite von Investorenportfolios um bis zu einem Drittel steigern.

Kein blindes Vertrauen in Modelle

Die Ergebnisse der Untersuchung sind ermutigend. Zeigen sie doch, dass Verbesserungen des VaR-Modells und damit eine Optimierung der Risikoschätzung für den Investor durchaus möglich sind. Gleichwohl ist Vorsicht geboten. Denn sämtliche Modelle, so gut sie auch sein mögen, können stets nur eine Annäherung an die Wirklichkeit darstellen, diese aber nie exakt widerspiegeln. Die Schätzung von Risiken mit wissenschaftlich-mathematischen Methoden ist daher stets nur ein erster Schritt.

Es wäre ein Irrglaube anzunehmen, dass Risikomanagement ausschließlich oder überwiegend einer Frage von Systemen und Modellen sei. Die Vorstellung einer F9-Risikosteuerung, bei der jemand am Computer die F9-Taste drückt und am Ende ein Ergebnis auf dem Schirm hat, ist in diesem Zusammenhang gleichermaßen irreführend wie gefährlich. Denn die Kunst einer guten Risikosteuerung besteht zum einen darin, den Prozess der Ergebnisgewinnung zu kennen sowie zum anderen, die gewonnenen Ergebnisse zu verstehen und aus ihnen die richtigen Schlüsse zu ziehen.

Hierzu bedarf es eines qualifizierten und selbstständig denkenden Portfoliomanagers, der Entscheidungen der Risikosteuerung nicht modellgläubig an den Computer delegiert, sondern diese auf der Grundlage der vorliegenden Risikoanalysen eigenständig trifft. Dazu ist es erforderlich, die Analysen und die ihnen zugrunde liegenden Parameter wirklich zu verstehen. Von entscheidender Bedeutung ist daher das Wissen um die Annahmen, die in den Analysen getroffen wurden, um mögliche blinde Flecke der eingesetzten Modelle sowie um die Zusammenhänge zwischen unterschiedlichen Risiken.

Um diese Herausforderungen meistern zu können, braucht es neben einer erstklassigen Ausbildung und einer analytischen Begabung vor allem viel Erfahrung sowie ein auf Eigenverantwortung ausgerichtetes Arbeitsumfeld. Erst so erwächst aus dem Zusammenspiel von Mensch und Maschine in einem strukturierten organisatorischen Rahmen ein professionelles und effizientes Risikomanagement.

Alexander Schindler , Mitglied des Vorstands , Union Investment
Noch keine Bewertungen vorhanden


X