Aufsätze

Asset Manager: Anforderungen an ein modernes Risikomanagement

Die Finanzkrise mit ihrem bisherigen Höhepunkt im Herbst 2008 ist ein extremes Beispiel dafür, was im Finanzbereich schiefgehen kann und wie weitreichend die Auswirkungen auf die gesamte Wirtschaft sein können. Der frühere Fed-Chairman Alan Greenspan hat seinerzeit die Ereignisse in einer Anhörung vor dem US-Kongress 2008 als "Tsunami" bezeichnet.

Antworten auf drei zentrale Fragen

Viele Fragen im Hinblick auf das Risikomanagement sind durch diese Finanzkrise wieder aufgeworfen worden, die eine differenzierte Beantwortung erfordern. Die Antworten aus Sicht eines Asset Managers sind in Kurzform skizziert, eine ausführlichere Argumentation folgt anschließend.

1. Hat das Risikomanagement in dieser Krise nicht offenkundig versagt? An vielen Stellen eindeutig ja. Oft wurden zweierlei Fehler gemacht. Erstens wurden mathematische Modelle nicht adäquat verwendet und zweitens verhielt man sich so, als könnten diese quantitativen Risikomodelle alle möglichen Unwägbarkeiten erfassen. Dies ist jedoch nicht der Fall. Vermutlich wurde auch der tatsächliche Risikogehalt der Produkte teilweise schlichtweg unterschätzt.

2. Wie sehr kann man künftig Risikokennzahlen wie Value at Risk beziehungsweise generell mathematischen Modellen vertrauen? Zunächst muss eine Value-at-Risk-Kennzahl die jeweils aktuellen Marktgegebenheiten möglichst gut abbilden und dann muss klar sein, wo die Grenzen der Aussagekraft liegen. Wenn dies berücksichtigt wird, sind Kennzahlen wie der Value at Risk nach wie vor ein wesentlicher und sinnvoller Bestandteil des Risikomanagements.

3. Brauchen Asset Manager und Investoren ein neues Risikoverständnis? Welche Lehren sollten für ein modernes Risikomanagement gezogen werden? Die eingesetzten Methoden im Risikomanagement sollten notwendig und ausreichend sein. Mathematik ist absolut notwendig, jedoch nicht ausreichend. Was bedeutet dies konkret? Zunächst sollte modernes Risikomanagement aus marktgerecht parametrisierten mathematischen Modellen und fortgeschrittenen quantitativen Analysemethoden bestehen. Dies ist der mathematische Teil. Besonders wichtig erscheint darüber hinaus das Verständnis für die Grenzen der quantitativen Elemente. Eine mindestens ebenbürtige Rolle sollte einer qualitativen Beurteilung, die auf Erfahrung und durchaus auch auf gesundem Menschenverstand beruht, zuteil werden. In Zukunft muss diesem qualitativen Risikomanagement eine größere Beachtung geschenkt werden.

Konzentration auf die Marktrisiken

Die hier präsentierten Gedanken konzentrieren sich auf die Erfassung der Marktrisiken. Insofern werden organisatorische Fragestellungen wie die hierarchische Einbindung des Risikomanagements, operationelle Risiken oder auch das Thema Vergütungssysteme nicht weiter vertieft. Es sei hier lediglich bemerkt, dass für ein wirkungsvolles Risikomanagement natürlich zwingend vorausgesetzt werden muss, dass Risiken zeitnah und an der richtigen Stelle adressiert werden und dass die entscheidenden Personen auch im Sinne der Vermeidung existenzieller Risiken motiviert und "incentiviert" sind.

Ist nun der Value at Risk eine brauchbare Risikokennzahl oder nicht? Grundsätzlich kann man sagen, dass der Value at Risk umso brauchbarer ist, je liquider ein Asset ist. Die zweite Voraussetzung ist, dass eine gute Abbildung der aktuellen Marktvolatilität erreicht wird. Veranschaulicht wird dies an folgendem Beispiel. Als Asset wird der Dow-Jones-Euro-Stoxx-50-Index verwendet. Futures auf diesen Index waren auch zum Höhepunkt der Krise und bei höchsten Volatilitäten jederzeit liquide. Die Voraussetzung der Liquidität ist also erfüllt.

In Abbildung 1 und 2 sind nun zwei verschiedene Berechnungsmethoden für den täglichen Value at Risk des Euro-Stoxx-50 dargestellt, die den zweiten Punkt der Abbildung der aktuellen Marktvolatilität beleuchten. Die erste Variante verwendet eine Historie von einem Jahr, wobei alle Tage gleich gewichtet sind. Auf dieser Basis wird unter der Annahme einer Normalverteilung der Renditen der Value at Risk für jeden Tag berechnet. Die gelbe Fläche beschreibt dabei den Bereich, in dem zu einer Wahrscheinlichkeit von 98 Prozent der jeweils nächste Tagesreturn des Indexes liegen sollte (Value-at-Risk-Band). Dies entspricht einem Value at Risk mit 99 Prozent Konfidenzniveau. Betrachtet man diesen sowohl für positive als auch negative Renditen, so ergibt sich ein Bereich von 100 Prozent - (2 x 1 Prozent) = 98 Prozent.

Die roten Punkte zeigen die Fälle, in denen der Tagesreturn des Indexes außerhalb dieses 98-Prozent-Bereichs ist. Über den gezeigten Zeitraum von 750 Tagen sollten statistisch gesehen nur 15 Punkte (zwei Prozent) rot sein, tatsächlich sind es 44. Außerdem sieht man, dass das Value-at-Risk-Band nur sehr träge auf Veränderungen der Volatilität reagiert, während die tatsächliche Marktvolatilität deutlich schneller schwankt. Dieses Value-at-Risk-Modell ist somit nicht wirklich zur täglichen Risikomessung geeignet.

Nur für "normale" Verhältnisse tauglich

Abbildung 2 zeigt eine deutlich bessere Berechnungsmethode, bei der erstens eine Verteilung mit "fetteren Tails" verwendet wird und zweitens die Historie exponentiell gewichtet wird, das heißt die jeweils jüngere Vergangenheit wird stärker berücksichtigt als weiter zurückliegende Bereiche der Vergangenheit.1) Die Anzahl der Ausreißer beträgt hier nur zwölf, liegt also sehr nah bei der statistischen Vorhersage von 15. Man sieht außerdem, dass sowohl der Höhepunkt der Krise im Herbst 2008 als auch der weitere Verlauf gut erfasst werden. Mit Hilfe dieses Modells konnte man also auch in extremen Marktphasen brauchbare Aussagen über den täglichen Risikogehalt einer Position im Dow-Jones-Euro-Stoxx-50-Index erhalten.

Tatsächlich wurde in der Praxis selbst bei großen Investmentbanken kein vernünftig parametrisiertes Value-at-Risk-Modell eingesetzt. So ist in den Geschäftsberichten einer Bank dieser Kategorie zu entnehmen, dass man im Jahr 2006 keinen Ausreißer hatte, im Jahr 2007 bereits 29 und im Jahr 2008 sogar 44. Diese Anzahl Ausreißer steht einer 99-Prozent-Value-at-Risk-Prognose gegenüber. Bei angenommenen 250 Börsentagen pro Jahr sollten statistisch also nur 2,5 Ausreißer pro Kalenderjahr auftreten. Dieses Modell war also völlig ungeeignet für die tägliche Risikomessung, es verwendete fünf Jahre gleichgewichtete Historie!

Gleichzeitig sind in diesem Beispiel auch die grundsätzlichen Grenzen des Value at Risk erkennbar. Betrachtet man hierzu in Abbildung 2 den Monat Januar 2008. Am 21. Januar 2008 fiel der Index um 7,3 Prozent.2) Der berechnete Value at Risk für diesen Tag betrug jedoch nur minus 2,8 Prozent. Der Verlust war damit nicht nur außerhalb der 99-Prozent-Vorhersage, er war empfindlich größer als der Value at Risk. Die folgenden Tagesbewegungen, die auch sehr groß waren, liegen dann jedoch wieder im Bereich der Value-at-Risk-Prognose (nicht so in Abbildung 1! ).

Der Value at Risk ist - bei marktgerechter Parametrisierung - für "normale" Marktverhältnisse eine taugliche Risikokennzahl und damit ein sinnvoller Bestandteil für die tägliche Arbeit im Portfolio- und Risikomanagement. Allerdings können eben gerade "nicht normale" Marktbewegungen nicht vorhergesagt werden.3) Hierfür sind weitere Analysen und Überlegungen notwendig.

Ergänzung um Stresstests

Warum ist dies so? Hierzu ein kurzer Vergleich zur Physik: Physiker untersuchen die Welt, indem sie dasselbe Experiment wieder und wieder durchführen. Aus den Ergebnissen lassen sich mathematische Modelle entwickeln, die ein Abbild der Realität darstellen, welches dann auch bei zukünftigen Wiederholungen des Experiments richtige Vorhersagen über den Ausgang macht. Tatsächlich sind nun viele Modelle der Finanzmathematik aus Modellen der Physik entwickelt worden. Das Problem hierbei ist jedoch, dass Finanzmärkte von Menschen bestimmt werden und dass man nicht davon ausgehen kann, dass sich dies mit mathematischen Modellen umfassend und zu jeder Zeit exakt beschreiben lässt. Die Vorhersagen werden meistens gut sein, hin und wieder aber auch weit daneben liegen. Zwei Elemente sollten die zusätzlichen Risikoanalysen in jedem Fall umfassen:

Stresstests, die nicht alltägliche Marktbewegungen abbilden, zum Beispiel einen Tages-Aktienverlust von zehn Prozent. Es ist bereits seit vielen Jahren gängige Praxis, Kennzahlen wie den Value at Risk um derartige Stresstests zu ergänzen.

Szenarien für den unwahrscheinlichen Fall gesucht

"Reverse engineered Stresstests". Diese Art Stresstest wird bisher nur eher selten eingesetzt, stellt aber eine äußerst wirkungsvolle Analyse dar. Die Limitierung "normaler" Stresstests besteht darin, dass man Marktbewegungen unterstellt, die zwar eher unwahrscheinlich sind, die jedoch im Bereich der normalen Vorstellungswelt sind beziehungsweise die bereits schon einmal aufgetreten sind. Diese Limitierung zu überschreiten würde bedeuten, die sogenannten "schwarzen Schwäne"4) zu modellieren, was ja aber gerade von der Idee her nicht möglich ist.

Eine Möglichkeit, den schwarzen Schwänen zumindest näher zu kommen, ist die Vorgehensweise der "Reverse engineered Stresstests". Hierbei lautet die Fragestellung: Was müsste passieren, damit mein Portfolio x Prozent Verlust erleidet? Es werden also nicht vordefinierte Szenarien unterstellt und dann die Entwicklung des Portfolios unter diesen Szenarien untersucht, sondern umgekehrt Szenarien gesucht oder auch erfunden, die zu dem gewünschten Verlust führen. Diese Vorgehensweise soll an einem Beispiel veranschaulicht werden.

Abbildung 3 zeigt die Entwicklung eines realen Euro-Geldmarktfonds. Vor September/Oktober 2008 verlief die Entwicklung des Fonds so wie man es von einem Geldmarktfonds erwartet. Hier hätten auch die üblichen Risikokennzahlen wie der VaR und die üblichen Stresstests, die beispielsweise einen unmittelbaren Anstieg der kurzfristigen Zinsen um 0,50 Prozent unterstellen, vermutlich kein nennenswertes Risiko angezeigt. Ein Verlust von vier Prozent, wie er im Verlauf dann aufgetreten ist, wäre wohl als unmöglich bezeichnet worden. Es ist nicht bekannt, welche Vermögensgegenstände genau in dem Fonds enthalten waren. Eine plausible Vermutung ist jedoch, dass Papiere enthalten waren, die amerikanische Hypotheken verbrieften. Es ist bekannt, dass viele dieser Wertpapiere zunächst mit höchsten Ratings versehen waren. Insofern konnten auch Stresstests, die auf Rating-abhängige Kreditrisiken aufgebaut waren, keine Anzeichen für einen bevorstehenden Verlust in dem tatsächlich erlittenen Ausmaß liefern.

Die unabhängig von allen Risikomodellen zu stellende Frage wäre hier gewesen: Was müsste passieren, damit der Fonds vier Prozent verliert? Bei der Beantwortung von Fragen dieser Art ist durchaus Kreativität gefragt, nach dem Motto von Albert Einstein: "Fantasie ist wichtiger als Wissen, denn Wissen ist begrenzt". Auf diese Art und Weise hätte man durchaus zu Szenarien kommen können, die dann tatsächlich Realität wurden. Nachdem man dann diese Szenarien beschrieben hat, ist der nächste Schritt eine Einschätzung der Wahrscheinlichkeit dieser Ereignisse beziehungsweise die Entscheidung, ob man sich vor dem wenn auch subjektiv vermutlich sehr unwahrscheinlichen - Fall schützen will.

Beispiel Goldman Sachs

Am Beispiel von Goldman Sachs soll die notwendige Verbindung von Mathematik und eher qualitativen Komponenten weiter verdeutlicht werden. Es ist bekannt, dass Goldman Sachs in wesentlich geringerem Ausmaß unter den Kursverlusten der US-Hypotheken-Verbriefungen gelitten hat, als die meisten Konkurrenten.

Einem Artikel der New York Times vom 4. Januar 2009 kann man Folgendes entnehmen: Im Dezember 2006, also weit vor dem ersten Ausbruch der Krise, fand unter der Leitung des CFO David Viniar ein Treffen von etwa 15 hochrangigen Managern statt. Hintergrund der Besprechung war die Beobachtung, dass über die vergangenen zehn Tage zwar relativ kleine, aber ununterbrochene Verluste gemacht wurden und dass sich einige Risikokennzahlen ungewöhnlich entwickelten. Es war zwar keine Risikokennzahl über ihrem Limit, man wollte jedoch besser verstehen, was vor sich geht.

In der Besprechung wurden über mehrere Stunden hinweg verschiedenste Risikokennzahlen analysiert. Am Ende kam man schließlich zu der Frage, wie sich der Markt der "Mortgage Backed Securities" anfühle. Das Gefühl war, dass sich der Markt wohl eher zum Schlechten als zum Guten hin entwickeln werde. Daraufhin wurde die Entscheidung getroffen, die Risiken wesentlich zu reduzieren. Es sieht so aus, als ob nur durch die Verbindung von mathematischen Modellen und subjektiven qualitativen Elementen hier diese retrospektiv betrachtet extrem wichtige Entscheidung getroffen werden konnte.

Ein weiterer wichtiger Faktor soll schließlich noch erwähnt werden: Liquidität. Bei allem Risikomanagement geht es nicht nur um die Frage, welchen Preisrisiken man ausgesetzt ist, sondern auch darum, ob man seine Anlagen auch veräußern kann, wenn dies erforderlich wird. Nicht nur die Vielzahl an Offenen Immobilienfonds, die vorübergehend geschlossen werden mussten, haben gezeigt, wie wichtig dieses Thema werden kann.

Ausreichend Raum für die qualitative Komponente

Zusammenfassend sollte modernes Risikomanagement alle quantifizierbaren und auch nicht quantifizierbaren Risiken erkennen, mathematische Modelle dort, wo sie sinnvoll sind, wohlüberlegt einsetzen und insbesondere auch der qualitativen Komponente ausreichend Raum geben. Hierbei ist sehr wichtig, extreme Ereignisse, die in Realität doch häufiger auftreten als es die Normalverteilung erwarten ließe, adäquat in die Risikosteuerung einzubeziehen. Andererseits erscheint es nicht sinnvoll, sich ausschließlich auf diese zu konzentrieren. Würde man dies tun, stiege die Risikoaversion so hoch, dass man nichts mehr täte außer auf die Extremereignisse zu warten.5)

Best Practise ist daher, sich aller Risiken bewusst zu werden und sicherzustellen, dass man auch Extremereignisse überleben wird, wenn auch mit - möglichst leichten - Blessuren.

 

Alexander Raviol , Partner und CIO Alternative Solutions, Lupus alpha, Frankfurt am Main
Noch keine Bewertungen vorhanden


X