Universität Ulm

Transcription

Universität Ulm
Ulm
Universität Ulm
Lehren aus der Finanzkrise
Überrollt von der Krise und den Folgen?
Was vor der Krise prognostiziert werden konnte und die
Lehren für die Zukunft
Betreuender Hochschullehrer:
Prof. Dr. Gunter Löffler
Studentische Teammitglieder:
Nicole Beu
Matthias Böhm
Sebastian Schwerdtel
Beitrag zum Postbank Finance Award 2009
Überrollt von der Krise und den Folgen?
Was vor der Krise prognostiziert werden konnte
und die Lehren für die Zukunft
Beitrag zum Postbank Finance Award 2009
Inhaltsverzeichnis
Abbildungsverzeichnis
II
Tabellenverzeichnis
III
Abkürzungsverzeichnis
IV
Symbolverzeichnis
VI
1
Einleitung
1
2
Der Fall Fannie Mae und Freddie Mac
3
3
Was zur Krise führte und was man darüber hätte wissen können
5
4
3.1
Was war aus anderen Bankenkrisen bekannt?
5
3.2
Was war neu? − Subprime und strukturierte Produkte
6
3.3
Was hätten die Marktteilnehmer über die Risiken wissen können?
Modell zur Simulation von Risikoszenarien
4.1
Anwendung des Box-Jenkins-Ansatzes
16
Wahl der Modellklasse
16
4.1.2
ARIMA-Modell
16
4.1.3
Spezifikation, Schätzung und Diagnose
17
Modellierung der Zeitreihe
18
4.2.1
Modellierung der Innovationen
18
4.2.2
Simulation und Evaluation
21
Empirische Implementierung des Simulationsmodells
23
5.1
Datengrundlage
23
5.2
Deskriptive Statistik
24
5.3
Modellierung der Daten
30
5.3.1
Modellidentifikation
30
5.3.2
Modellschätzung und -diagnose
31
5.4
6
15
4.1.1
4.2
5
11
Simulation von Risikoszenarien
Schlussbemerkungen
34
43
Anhang A1: Stochastische Zeitreihenmodellierung
46
Anhang A2: Bemerkungen zum Bootstrap-Algorithmus
48
Anhang B: Tabellen
50
Literaturverzeichnis
54
Beitrag zum Postbank Finance Award 2009
Abbildungsverzeichnis
Abb. 1:
Bankenkrisen – Realer Immobilienpreis
S. 6
Abb. 2:
Verbriefungsprozess
S. 8
Abb. 3:
Höherwertige Verbriefungen und Liquiditätstransformation S. 10
Abb. 4:
Modell zur Simulation von Risikoszenarien
S. 15
Abb. 5:
Verlauf des vierteljährlichen Immobilienpreisindex HPI
S. 25
(1975-2005)
Abb. 6:
Verlauf der vierteljährlichen US-Arbeitslosenrate UER
S. 26
(1975-2005)
Abb. 7:
Verlauf des monatlichen LFS, der Differenz zwischen 3-
S. 27
Monats-Libor (USD) L3M und Federal Funds Rate FFR
Abb. 8:
(Partielle) Autokorrelogramme
S. 30
Abb. 9:
Worst-Case-Szenarien für den vierteljährlichen
S. 37
Immobilienpreisindex HPI
Abb. 10:
Worst-Case-Szenarien für die vierteljährliche US
S. 39
Arbeitslosenrate UER
Abb. 11:
Worst-Case-Szenarien für den monatlichen Zinsspread
S. 40
LFS (I)
Abb. 12:
Worst-Case-Szenarien für den monatlichen Zinsspread
S. 41
LFS(II)
II
Beitrag zum Postbank Finance Award 2009
Tabellenverzeichnis
Tab. 1:
Test auf Stationarität (p-Wert in Klammer)
S. 28
Tab. 2:
Empirische Momente der (gefilterten) Zeitreihen
S. 29
Tab. 3:
Signifikanz des ersten empirischen Moments
S. 29
Tab. 4:
Parameterschätzung und t-Test
S. 32
Tab. 5:
Empirische Momente der Modellresiduen
S. 32
Tab. 6:
Autokorrelation der Modellresiduen (p-Wert in Klammer)
S. 33
Tab. 7:
Signifikanzprüfung mittels modellbasierten Bootstraps
S. 34
Tab. 8:
Verzerrung und Signifikanz der Residuenmomente
S. 35
Tab. 9:
Schätzer der Parameter einer schiefen t-Verteilung
S. 36
Tab. B1:
Modellselektion mit Selektionskriterien
S. 50
Tab. B2:
Risikoszenarien mit Normalapproximation
S. 51
Tab. B3:
Risikoszenarien mit einer schiefen t-Verteilung
S. 52
Tab. B4:
Risikoszenarien mit der Bootstrap-Methode
S. 53
III
Beitrag zum Postbank Finance Award 2009
Abkürzungsverzeichnis
ABCP
Asset-Backed Commercial Paper
ABS
Asset-Backed Security
ADF
augmented Dickey-Fuller-Test
AIC
Akaike’s Information Criterion
ARIMA-Prozess
Integrierter autroregressiver moving average-Prozess
ARMA-Prozess
Autoregressiver moving average-Prozess
AR-Prozess
Autoregressiver Prozess
CDO
Collateralized Debt Obligation
CP
Commercial Paper
FFR
Federal Funds Rate
FICO
Fair Isaac Corporation
HPI
House Price Index
JB
Jarque-Bera-Test
KS
Kolmogorow-Smirnow-Test
L3M
3-Monats-LIBOR (USD)
LFS
Differenz zwischen 3-Monats-LIBOR (USD) und Federal
Funds Rate
LIBOR
London Interbank Bid Offered Rate
MA-Prozess
Moving average-Prozess
MBS
Mortgage-Backed Security
ML
Maximum-Likelihood
MTN
Medium-Term Note
RMBS
Residential Mortgage-Backed Security
SBC
Schwarz-Bayes Criterion
SIV
Structured Investment Vehicle
IV
Beitrag zum Postbank Finance Award 2009
SPV
Special Purpose Vehicle
TAR-Modell
Threshold Autoregressive Model
UER
US-Arbeitslosenquote
V
Beitrag zum Postbank Finance Award 2009
Symbolverzeichnis
∇
Differenzenoperator
µt
Mittelwertfunktion
E
Erwartungswert
σ t2
Varianzfunktion
γ (t1 , t 2 )
Autokovarianzfunktion
ρ (t1 , t 2 )
Autokorrelationsfunktion
Ω
Ergebnisraum
ω
Winkelgeschwindigkeit, Kreisfrequenz
ψi
Gewicht im MA-Prozess
πi
Gewicht im AR-Prozess
L(θ | x)
Likelihood-Funktion
α
Niveau
θˆ
Maximum-Likelihood-Schätzer
Yt
Wert der Zeitreihe zum Zeitpunkt t
Zt
Schock zum Zeitpunkt t
p
Parameteranzahl beim AR-Modell
q
Parameteranzahl beim MA-Modell
d
Anzahl der Filterungen
h
Anzahl der Prognoseschritte
VI
Beitrag zum Postbank Finance Award 2009
1
Einleitung
Finanzkrisen ereignen sich immer wieder, in vielen Ländern und über die
Jahrhunderte hinweg. Der Verlauf der Ereignisse ist oft ähnlich (vgl. z.B.
Reinhart/ Rogoff, 2008 sowie unsere Analyse in Abschnitt 3): Deregulierung oder
Produktinnovationen eröffnen neue Märkte. Banken und andere Marktteilnehmer
versuchen, die damit verbundenen Renditechancen zu nutzen. Ein Aufwärtstrend
im
jeweiligen
Marktsegment
stellt
sich
ein.
Vom
Erfolg
verwöhnt,
vernachlässigen Marktteilnehmer traditionelle Bewertungsregeln und setzen auf
die Fortsetzung des Trends. Am Ende braucht es keinen großen externen Schock,
um das System zum Kippen zu bringen. Die im Zuge des Booms aufgebauten
Risikopositionen sind so groß, dass nicht nur einzelne Institute, sondern auch das
ganze System fragil geworden ist.
Diese Beobachtung lässt zwei konträre Deutungen zu, aus denen man sehr
unterschiedliche Lehren für die Vermeidung zukünftiger Krisen ziehen kann:
Die erste Deutung betont Komplexität und Strukturbrüche. Wenn die nächste
Krise ebenfalls mit der Erschließung neuer Märkte verbunden ist, werden sich die
Marktteilnehmer ähnlich wie in früheren Krisen schwer damit tun, Risiken korrekt
einzuschätzen.
Neue
Produkte
stellen
große
bewertungstechnische
Herausforderungen dar, die historische Datenbasis zur Kalibrierung von Modellen
fehlt ebenso wie entsprechende Erfahrungen der Akteure. Die Antwort der Politik
darauf wäre: strikte Kontrolle, insbesondere von innovativen Produkten und all
derjenigen Institutionen, die damit in Verbindung stehen, sowie große Vorsicht
bei der Deregulierung von Märkten. Auf der Modellierungsseite würde man die
Herausforderung vor allem in der korrekten Modellierung innovativer
Finanzprodukte zu sehen.
Die zweite Deutung betont die Wiederkehr des ewig Gleichen. Wenn
Finanzkrisen immer wieder nach dem gleichen Muster verlaufen, sollte es
eigentlich auch nicht so schwer sein, Risiken richtig zu erkennen. Die Aufsicht
sollte dann vor allem sicherstellen, dass Marktteilnehmer vorhandenes Wissen
auch tatsächlich anwenden. Im Bereich der Bankenregulierung könnten einfache
Ansätze wie die Erhöhung der Eigenkapitalanforderung in Boomzeiten
− in
Spanien erfolgreich praktiziert
− großen Erfolg versprechen. Auf der
Modellierungsseite würde es weniger darum gehen, innovative Produkte
1
Beitrag zum Postbank Finance Award 2009
möglichst gut zu bewerten, als traditionelle Risikomessverfahren sinnvoll
anzuwenden.
In der vorliegenden Arbeit möchten wir diskutieren, welche der beiden Deutungen
durch die Erfahrungen der aktuellen Krise gestützt wird. Mit etwas anderen
Worten lautet unsere Fragestellung: Kamen Finanzinstitutionen ins Wanken, weil
sie von schwer zu durchschauenden Entwicklungen überrollt wurden, oder weil
sie bewusst überhöhte Risiken eingingen? Haben die traditionellen Risikomodelle
versagt, oder haben Manager versäumt, diese richtig anzuwenden?
Unser eigener Beitrag zur Beantwortung dieser Fragen stützt sich auf folgende
statistische
Untersuchung:
Wir
analysieren,
welche
Zukunftsszenarien
Risikomanager im Jahre 2005 – also vor Beginn der Krise – aufgestellt hätten,
wenn sie branchenübliche Prognoseverfahren angewendet hätten. Wenn wir die
Analysen für den US-Immobilienpreisindex HPI durchführen, erhalten wir
folgendes Bild: Die im Jahr 2005 für die Zeit bis 2008 aufgestellten Worst-CaseSzenarien sind schlechter als die später eingetretene tatsächliche Entwicklung;
dabei ist die Wahrscheinlichkeit der Szenarien so hoch, dass Banken sie gemäß
ihren eigenen Risikomanagementstandards hätten einkalkulieren müssen. Dieses
klare empirische Ergebnis steht in starkem Kontrast zu der weit verbreiteten
Meinung, dass das Risiko eines Immobiliencrashs sehr schwer abzuschätzen war,
da die vorliegenden historischen Daten keinen Hinweis darauf gaben (vgl. z.B.
Brunnermeier,
2008).
Wenn
wir
unsere
Analysen
noch
für
andere
Krisenindikatoren durchführen, ergibt sich im Wesentlichen das gleiche Bild.
Marktteilnehmer hätten somit zu einer korrekten Einschätzung der relevanten
Risiken kommen können. Diese Schlussfolgerung finden wir auch in anderen
Untersuchungen bestätigt. Wir beginnen unseren Beitrag mit einer Fallstudie der
Immobilienfinanzierer Fannie Mae und Freddie Mac. Darin wird deutlich, dass
das Management mehrfach Warnungen aus dem eigenen Risikomanagement
verworfen hat. In dem anschließenden Literaturüberblick treffen wir teilweise auf
konträre Deutungen. Während einige Beiträge die Komplexität und Intransparenz
des Subprime-Marktes und der darauf aufbauenden Produkte, für ein mangelndes
Risikoverständnis verantwortlich machen, belegen andere, dass das Kernproblem
kein mangelndes Verständnis der einzelnen Produkte sondern ein allzu großes
Vertrauen in weiter steigende Hauspreise war. Ein solches Vertrauen hätte aber –
wie von uns gezeigt – einem Blick auf die Daten nicht standhalten können.
2
Beitrag zum Postbank Finance Award 2009
2
Der Fall Fannie Mae und Freddie Mac
Am 7. September 2008 übernahm das US-Finanzministerium die Kontrolle über
die Hypothekenbanken Fannie Mae (Federal National Mortgage Association) und
Freddie Mac (Federal Home Loan Mortgage Corporation). Die beiden Institute
hatten auf dem Hypothekenmarkt so hohe Verluste erlitten, dass eine Insolvenz
ohne Stützung des Staates unvermeidbar gewesen wäre.
Fannie Mae und Freddie Mac erwerben Hypotheken von anderen Banken und
Kreditvermittlern und verkaufen sie an Investoren weiter. Weil der Markt –
korrekterweise, wie sich nun herausstellte – darauf baute, dass der Staat im Falle
einer Zahlungsunfähigkeit der beiden Institute einspringen würde, konnten sie
sich günstig refinanzieren. Sie trugen somit maßgeblich dazu bei, dass
Hypotheken günstig und in ausreichendem Umfang refinanziert werden konnten.
Bei der Entscheidung, welche Hypotheken aufgekauft wurden, waren die beiden
Institute lange Zeit konservativ. Sie stellten hohe Anforderungen an die Bonität
der Kreditnehmer. Als andere Institute jedoch immer mehr Subprime-Hypotheken
– also Hypotheken mit hohem Ausfallrisiko – vergaben, wurde auch in den
beiden Instituten überlegt, ob man sich in diesem Segment engagieren sollte.
Wie aus der Anhörung des Komitees für Aufsichts- und Regierungsreform 1
deutlich wird, entschieden sich Fannie Mae und Freddie Mac in vollem
Bewusstsein der damit verbundenen Risiken dafür, sich auf dem Subprime-Markt
zu engagieren.
In einem vertraulichen Dokument aus dem Jahr 2005 beschreibt Daniel Mudd,
damals Vorstandsvorsitzender von Fannie Mae, dass die Bank vor einer
grundlegenden Entscheidung stand: Entweder sollte man sich auf sichere
Hypotheken konzentrieren und dazu die strengen Kreditstandards aufrecht
erhalten, oder aber dem Markt folgen und in unsicherere Subprime-Kredite
investieren. Dem Dokument zufolge wurde der zweite Weg favorisiert, da die
Möglichkeit hoher Renditen nur im Subprime-Markt gesehen wurde.
Während die Entscheidung für ein riskantes Geschäft aus Risiko-RenditeGesichtspunkten durchaus sinnvoll sein kann, belegen weitere Dokumente, dass
1
Vgl. http://oversight.house.gov/story.asp?ID=2252, hier findet sich ebenfalls die Mitschrift der
Anhörung.
3
Beitrag zum Postbank Finance Award 2009
die beiden Institute intern unzureichend auf den Einstieg in den Subprime-Markt
vorbereitet waren und Warnungen ignorierten.
Bereits 2004 forderte der Chef-Risikomanager von Freddie Mac vom
Vorstandsvorsitzenden Richard Syron, dass keine Kredite mehr gekauft werden
sollten, bei deren Vergabe die Kreditnehmer kein eigenes Einkommen oder
Vermögen nachweisen mussten. Er warnte davor, dass mit diesen Produkten die
Gefahr der Täuschung und der ruinösen Kreditgewährung besonders groß sei.
Diese Empfehlung wurde jedoch nicht befolgt. Stattdessen wurde der ChefRisikomanager entlassen. 2
Bei Fannie Mae war die Situation ähnlich. 2006 warnte der Chef-Risikomanager
den Vorstandsvorsitzenden Daniel Mudd vor den Folgen einer unzureichenden
Risikokontrolle: “There is a pattern emerging of inadequate regard for the control
process.“ 3 Der Vorstand versäumte darauf zu reagieren, behauptete aber trotzdem
gegenüber dem Board (dem deutschen Aufsichtsrat vergleichbar), dass Fannie
Mae
den
Einstieg
ins
Subprime-Segment
durch
entsprechende
Kontrollmaßnahmen flankiere. Wieder wandte sich der Chef-Risikomanager
daraufhin direkt an den Vorstand und schrieb: "I have been saying that we are not
even close to having proper control processes for credit market and operational
risk. I got a 60 percent budget cut. Do I look stupid?“ 4
Diese Einblicke machen deutlich, dass die Hypothekenbanken keineswegs von
den eingetretenen Ereignissen überrascht wurden. Das Management ging hohe
Risiken ein, obwohl die Unternehmen darauf nicht vorbereitet waren, und es gab
intern genügend Stimmen, die auf die Höhe der Risiken hinwiesen.
2
Vgl. S. 4 der Mitschrift der Anhörung.
S. 5 der Mitschrift der Anhörung.
4
S. 5 der Mitschrift der Anhörung.
3
4
Beitrag zum Postbank Finance Award 2009
3
Was zur Krise führte und was man darüber hätte wissen
können
3.1
Was war aus anderen Bankenkrisen bekannt?
Reinhart und Rogoff (2008) betrachten in ihrer Studie 18 Krisen aus westlichen
Industrienationen; die fünf größten davon fassen sie in der Gruppe der Big 5
zusammen. 5 In ihren Analysen decken sie große Parallelen in der Entwicklung
von Krisen auf. Insbesondere Preise von Vermögenswerten wie Immobilien und
Aktien erweisen sich als gute Frühindikatoren für Bankenkrisen.
Abbildung
1
zeigt
die
reale
Immobilienpreisentwicklung
verschiedener
historischer Krisen im direkten Vergleich zur aktuellen Situation in den USA. Der
Zeitpunkt t stellt das Startjahr der Krise dar und ist für die aktuelle Krise daher
das Jahr 2007. Die Abbildung macht deutlich, dass sich die USA schon in den
Jahren 2004 und 2005 (also t-3 und t-2) auf einem Pfad befanden, der der
Vorgeschichte der fünf großen Bankenkrisen entspricht. Im Jahr 2006 waren die
Immobilienpreise auf einem Niveau, das über dem entsprechenden Durchschnitt
der fünf größten Krisen lag.
Ein einfacher Vergleich mit früheren Bankenkrisen hätte daher schon im Jahr
2004 Anlass zur Besorgnis geben müssen. Zu deutlich sind die Parallelen. Die
Besorgnis hätte noch dadurch wachsen müssen, dass vielen Bankenkrisen eine
Phase der Deregulierung voranging (vgl. Kaminsky/ Reinhart, 1999). Der
skandinavischen Bankenkrise der 1990er Jahre ging z.B. eine umfassende, 1980
beginnende Deregulierung voraus, die zu einem dynamischen Wachstum der
Kreditmärkte führte. Vor der aktuellen Finanzkrise gab es zwar in den USA außer
der endgültigen Aufhebung der Trennung von Geschäfts- und Investmentbanken
(Glass-Steagall-Act) im Jahr 1999 keine weitreichenden Gesetzesänderungen.
Anderseits nutzen viele Banken Produktinnovationen, um Risiken zu verkaufen
oder auf Zweckgesellschaften außerhalb ihrer Bilanz zu übertragen. Damit
wurden immer mehr Risiken der Zuständigkeit der Aufsichtsbehörden entzogen,
und der Umfang der Regulierung nahm de facto ab.
5
Die Big 5 sind: Spanien (1977), Norwegen (1987), Finnland (1991), Schweden (1991), Japan
(1992). Die weiteren 13 Krisen sind: Australien (1989), Kanada (1983), Dänemark (1987),
Frankreich (1994), Deutschland (1977), Griechenland (1991), Island (1985), Italien (1990),
Neuseeland (1987), Vereinigtes Königreich (UK) (1973, 1991, 1995), USA (1984).
5
Beitrag zum Postbank Finance Award 2009
Wie diese Innovationen aussahen und welchen Einfluss sie auf die Entstehung der
Finanzkrise hatte, möchten wir im nächsten Abschnitt beleuchten.
Abb. 1: Bankenkrisen – Realer Immobilienpreis
160
Median der Bankenkrisen in den advanced economies
155
USA (2007) Krise
150
Median der Big 5 Krisen
145
arithmetischer Mittelwert der Bankenkrisen den advanced
economies
arithmetischer Mittelwert der Big 5 Krisen
140
Index
135
130
125
120
115
110
105
100
Index t-4=100
95
t-4
t-3
t-2
t-1
t
t+1
t+2
t+3
Quelle: Eigene Abbildung in Anlehnung an Reinhart/ Rogoff (2008, S. 341), aktualisierte Daten
sind durch Reinhart/ Rogoff zur Verfügung gestellt worden.
3.2
Was war neu? − Subprime und strukturierte Produkte
Bevor mit der Analyse des Hypothekenmarktes begonnen werden kann, müssen
zunächst wichtige Begriffe geklärt werden. An erster Stelle steht hier die
Subprime-Hypothek, welche sich von höherwertigen Hypotheken (Prime) durch
ein höheres Kreditrisiko unterscheidet; dazwischen sind die sogenannten Alt-A
Hypotheken angesiedelt. Um die Kreditwürdigkeitskategorien voneinander
abzugrenzen, wird häufig der Fair Isaac Corporation (FICO) Score verwendet.
Dieser gegen Bezahlung einsehbare Score hat eine Bandbreite von 300 bis 850
Punkten. Ein höherer Wert steht für bessere Bonität. Im Wesentlichen gründet die
Bewertung auf der Zahlungsmoral (ca. 35%), einer Bewertung der Höhe bereits
ausstehender Verbindlichkeiten (ca. 30%), der Länge verfügbarer Daten (ca.
15%), den jüngsten Kreditaktivitäten (ca. 10%) sowie einer Evaluation der
Inanspruchnahme unterschiedlicher Kreditaufnahmemöglichkeiten (ca. 10%) (vgl.
Fair Isaac Corporation, 2007).
Es gibt keine allgemeingültigen Klassifikationsregeln, jedoch sind folgende
Kriterien für eine Einstufung üblich (vgl. Gorton, 2008): Bei einem FICO Score
6
Beitrag zum Postbank Finance Award 2009
von unter 660 wird eine Hypothek zum Subprime-Segment gezählt. Für nicht mit
dem FICO-Score vertraute Leser ist sicher aufschlussreich, dass eine SubprimeEinstufung auch auf einen Zahlungsverzug von mindestens 60 Tagen in den
vergangenen zwei Jahren oder zwei mindestens 30-tägige Zahlungsverzögerungen
im letzten Jahr zurückzuführen sein kann. Dies macht deutlich, wie gefährdet
Kreditnehmer
aus
dem
Subprime-Segment
sind.
Sie
waren
oft
so
einkommensschwach, dass sie die mit dem Kredit verbundenen Zinszahlungen
nur deswegen leisten konnten bzw. leisten zu können glaubten, weil diese in den
ersten Vertragsjahren sehr niedrig angesetzt waren. Solche adjustable-rate
Mortgages fanden denn im Subprime-Segment auch immer stärkere Verbreitung
(vgl. z.B. Finke et al., 2005). Die Ausweitung des Subprime-Segments ging auch
mit einer Aufweichung üblicher Kreditvergabestandards einher.
Immobilienfinanzierer waren nicht nur innovativ, was das Design von
Kreditverträgen und die Kreditvergabepraxis betraf. 6 Sie nutzten auch moderne
Finanzinstrumente, um die mit den Krediten verbundene Risiken weiterzureichen.
Das Geschäftsmodell des originate and hold, in dem die vergebenen Kredite in der
eigenen Bilanz verblieben, wandelte sich zum originate and distribute Modell. Die
Distribution,
also
der
Weiterverkauf
der
Kreditrisiken,
erfolgte
über
Verbriefungen oder Kreditderivate.
Abbildung 2 stellt die Struktur einer Verbriefung dar. Wie bisher beginnt alles mit
einer Ansammlung von Krediten bei einem Immobilienfinanzierer, dem
Originator. Dann wird eine Zweckgesellschaft, ein Special Purpose Vehicle
(SPV), gegründet, welche den reinen Zweck der Buchhaltung für diese
Kreditsammlung hat. Nun wird der Hypothekenpool von der Bilanz des
Originators auf die des SPV übertragen; das SPV gibt Schuldverschreibungen aus,
die durch den Kreditpool besichert sind. Durch die Vielzahl von Krediten ergibt
sich bereits eine Diversifikation, und darüber hinaus stellt das SPV ein klar
abgrenzbares Investitionsrisiko für den Investor dar, das nur aus dem Kreditrisiko
dieser Hypotheken besteht. Ein Ausfall des Originators – z.B. in Folge von
Managementfehlern – stellt kein Investmentrisiko mehr dar. Sind die enthaltenen
Kredite allerdings relativ riskant – z.B. Subprime-Kredite – ist der Kreditpool
immer noch so riskant, dass er für viele Anleger unattraktiv ist. Aufgrund von
6
Ein notorisches Beispiel hierfür sind die liars’ loans, bei denen Antragsteller ihr Einkommen
nicht belegen mussten.
7
Beitrag zum Postbank Finance Award 2009
rechtlichen Vorschriften oder Selbstbindung ist nämlich vielen Investoren (z.B.
Geldmarktfonds oder Versicherungen) nur möglich, in Papiere höchster Bonität
zu investieren. Um diese Anleger zu gewinnen, kann das Kreditportfolio in
Tranchen mit unterschiedlichem Rang zerlegt werden. Zinszahlungen und
Rückzahlungen werden zunächst verwendet, um die vorrangigen Senior-Tranchen
zu bedienen. Danach verbleibende Mittel werden zur Bedienung der MezzanineTranchen verwendet. Am Ende steht die sogenannte Equity-Tranche. Zusätzlich
zu dieser Tranchenstruktur kann das Risiko u.a. noch durch folgende Elemente
gesteuert werden (vgl. z.B. Kiff und Mills, 2007):
•
Overcollateralization: Die Summe der Sicherheitswerte übersteigt den Wert
der Verbindlichkeiten bei Emission bewusst, es wird also eine implizite
Kreditversicherung eingebaut.
•
Excess spread: Der durch die Schuldner zu leistende Betrag an Zahlungen
überschreitet den, der an die Wertpapiereigner zu leisten ist.
Abb. 2: Verbriefungsprozess
Originator
Ratingagentur
Treuhänder
Emissionskonsortium
Kreditverbesserungen
Kreditvertrag
KreditSPV
Servicer
Tilgung + Zins nehmer
Subprime
Hypotheken Pool
Mezzanine
Senior
Equity
RMBS
B|BB|BBB|A|AA AAA
Quelle: Eigene Darstellung in Anlehnung an Bethel/ Ferrell/ Hu (2008, S. 55), Bair (2007, S. 6),
Deutsche Bundesbank (2004, S. 30), Effenberger (2004, S. 4), IMF staff estimates
indirekt zitiert nach International Monetary Fund (2008, S. 60).
Die verkauften Schuldverschreibungen nennt man Mortgage-Backed Securities
(MBS), eine Unterklasse der Asset-Backed Securities (ABSs) (vgl. International
Monetary Fund, 2008). Wenn es sich um Hypotheken auf Wohnimmobilien
handelt, heißen die Produkte wie in Abbildung 2 Residential Mortgage-Backed
Securities (RMBS).
8
Beitrag zum Postbank Finance Award 2009
Die bei der Tranchierung entstehenden Verbriefungen werden nahezu alle von
Ratingagenturen bewertet, um ihr Risiko gegenüber potenziellen Investoren
kommunizieren zu können. Zu den anderen am Verbriefungsprozess Beteiligten
gehört ein Treuhänder, der die Interessenwahrung der Investoren garantieren soll
(vgl. Office of Thrift Supervision, 2003), sowie Banken, die als Teil eines
Emissionskonsortiums
die
Vermarktung
der
Verbriefung
und
deren
Strukturierung unterstützen. Die Konsortialbanken nutzen ihre Netzwerke, um an
potentielle Investoren heranzutreten und einen marktfähigen Preis zu bestimmen
(vgl. Office of Thrift Supervision, 2003).
Der Servicer steht zwischen den Investoren und den einzelnen Schuldnern. Er
verwaltet die Zahlungsströme, wobei er gewisse Rechte hat, diese zu beeinflussen.
Nicht selten ist der Originator auch der Servicer (vgl. Bethel/ Ferrell/ Hu, 2008).
Der Servicer kümmert sich u.a. um die Belange hinsichtlich Zahlungsverzug oder
die Abwicklung ausfallender Hypotheken (vgl. Bair, 2007). Der Schuldner hat
keine Wahlmöglichkeit bei seinem Servicer.
Auf den ersten Blick scheint die Struktur einer Verbriefung so gewählt, dass die
von den Investoren zu tragenden Risiken bestmöglich isoliert, kommuniziert und
administriert werden. Es ergeben sich potentielle Interessenskonflikte, die zu
Lasten der Investoren gehen können. Ratingagenturen werden nicht von den
Investoren beauftragt werden, sondern von den am Verbriefungsprozess
beteiligten Finanzinstitutionen. Daher besteht die Gefahr, dass die Interessen der
Investoren hinten angestellt werden. Außerdem können Servicer versuchen, zum
Beispiel durch zusätzliche Gebühren und Versicherungen (vgl. Eggert, 2007) ihre
eigenen Erträge zu Lasten der Investoren zu steigern.
Verbriefungen der hier beschriebenen Struktur waren seit den 1980er Jahren
üblich. Was in den letzten Jahren vor der Krise dazu kam, waren darauf
aufbauende Konstruktionen. Motivation war wiederum die Bedienung von
Anlegerpräferenzen, konkret nach möglichst sicheren oder kurz laufenden
Anlagen.
Zum Beispiel wertete man die im Rahmen der Verbriefung
entstandenen Mezzanine-Tranchen mit mittlerem Risiko weiter auf, oder man
transformierte die langlaufenden Hypotheken, die als Sicherheiten dienten, in
kurzfristige Schuldverschreibungen.
9
Beitrag zum Postbank Finance Award 2009
Abb. 3: Höherwertige Verbriefungen und Liquiditätstransformation
Cash CDO SPV
Treuhänder,
Depotführendes Institut
Finanzinstitut 1
Investment
CDO2
A
A
A
AA M
e
A
z
z
BBB a
n
BB i
n
B
e
Equity
Senior
Asset Portfolio
aus RMBS BBB
Tranchen
(möglich wären
auch ABS und
andere)
Senior
Hedge Gegenpartei
CDO
A
A
A
AA M
e
A
z
z
BBB a
n
BB i
n
B
e
Equity
Kreditzusage
Conduit
SIV
Emission
z.B. CP
mit Laufzeit:
1 Tag bis
9 Monate
Kauf
Finanzinstitut 2
Quelle: Eigene Darstellung in Anlehnung an IMF staff estimates indirekt zitiert nach International
Monetary Fund (2008, S. 60), Counterparty Risk Management Policy Group (2005, S.
A.19) und Textausführungen in Sachverständigenrat (2007, S. 125f.).
Abbildung 3 stellt den zuerst genannten Prozess exemplarisch anhand einer
Collateralized Debt Obligation (CDO) aus BBB Mortgage-Backed Bonds dar.
Eine CDO ist ein SPV, das beispielsweise RMBS kauft und erneut tranchiert (vgl.
Gorton, 2008, S. 34). Damit können wiederum Schuldverschreibungen mit
höchster Bonitätsnote geschaffen werden. Die Vorgehensweise ist ähnlich wie bei
der Schaffung von RMBS und soll daher hier nicht mehr im Detail erklärt werden.
CDOs können wiederum als Sicherheit in einer als CDO squared bekannten
Struktur (vgl. Abb. 3) dienen. Die aus der Tranchierung von RMBS entstandenen
Tranchen werden somit erneut strukturiert. Dadurch kommen wiederum bis zu
85% des Pools mit AAA Rating auf den Markt (vgl. International Monetary Fund,
2008, S. 59).
Eine Fristentransformation ist über Structured Investment Vehicles (SIVs),
Commercial Paper conduits und SIV-lites erfolgt. Abbildung 3 enthält ein
einfaches Beispiel dafür. Die Investmentvehikel erwerben Verbriefungen mit
langer Laufzeit, die sie durch revolvierende Ausgabe von kurzfristigen AssetBacked Commercial Papers (ABCP; mittlere Laufzeit 90 Tage) oder MediumTerm Notes (MTN; mittlere Laufzeit etwas über einem Jahr) finanzieren. Das
Kreditinstitut, welches das Investmentvehikel betreibt, muss in der Regel eine
10
Beitrag zum Postbank Finance Award 2009
Kreditlinie einräumen, um die Refinanzierung zu sichern. Nach den unter Basel I
geltenden Vorschriften musste diese Zusage allerdings nicht mit Eigenkapital
unterlegt werden, wenn sie wie üblich revolvierend für Laufzeiten von weniger als
365 Tagen ausgesprochen wurde.
3.3
Was hätten die Marktteilnehmer über die Risiken wissen können?
Die im vergangenen Abschnitt beschriebenen Entwicklungen und Strukturen
waren nicht nur neu, sondern oft auch schwer durchschaubar. Im Folgenden
möchten wir einige der Probleme skizzieren, die sich daraus für Marktteilnehmer
ergeben konnten:
1) Durch die Veränderung der Kreditvergabestandards veränderten sich die
erwarteten
Ausfallraten
in
Kreditportfolios.
Die
kurze
verfügbare
Datenhistorie erschwerte die Quantifizierung dieser Veränderungen.
2) Der Übergang zum originate and distribute Modell veränderte die Anreize der
Immobilienfinanzierer. Inwieweit dies zu einem zusätzlichen Anstieg der
Ausfallraten führte, war wiederum schwer abzusehen.
3) Durch Verbriefungen und darauf aufbauende Konstruktionen wurden die
Risiken intransparent. Zum einen war es für Investoren aufgrund fehlender
Dokumentation, aber auch wegen der reinen Anzahl schwierig bis unmöglich,
die zugrunde liegenden Immobilienkredite zu analysieren. Zum anderen war
das
Risikoprofil
eines
strukturierten
Finanzproduktes
aufgrund
der
Verschachtelung und der verschiedenen Sicherungselemente selbst dann
schwer zu erfassen, wenn vollkommene Klarheit über das Risiko des
Kreditpools bestanden hätte.
4) Strukturierte Finanzprodukte wurden zwar von Ratingagenturen bewertet. Sie
verwendeten dazu jedoch das gleiche Konzept und die gleiche Symbolik wie
bei der Bewertung von Unternehmensanleihen. Investoren neigten daher dazu,
eine AAA Tranche vom Risiko her mit einer AAA Unternehmensanleihe
gleichzusetzen. Diese Gleichsetzung ist allerdings nur in der von den
Ratingagenturen
modellierten
Risikodimension
–
der
langfristigen
Ausfallwahrscheinlichkeit – angemessen. Sie darf nicht auf eine andere
Risikodimension übertragen werden, nämlich das systematische Risiko,
welches sich darin äußert, dass die Ausfallwahrscheinlichkeit in einer
11
Beitrag zum Postbank Finance Award 2009
wirtschaftlich schlechten Situation ansteigt. Das systematische Risiko ist bei
strukturierten
Produkten
typischerweise
deutlich
höher
als
bei
Unternehmensanleihen.
Diese und ähnliche Beobachtungen führen dazu, dass der Komplexität und
Intransparenz des Immobilienmarktes und der darauf aufbauenden Finanztitel eine
große Mitschuld am Entstehen der Krise zu gegeben wird. Entsprechende
Ansichten finden sich z.B. in den Übersichtsartikeln von Gorton (2008) oder
Crouhy, Jarrow und Turnbull (2008). Die angesprochenen Probleme werden auch
in detaillierten Studien untersucht. Demyanyk und van Hemert (2008) zeigen zum
Beispiel, dass die Kreditqualität schon lange vor 2007 deutlich zurückging, dass
dies aber schwer aus den Daten zu erkennen war, da die stetig steigenden
Immobilienpreise zu niedrigen Ausfallraten führten.
Zusammen betrachtet kann man schnell zu dem Schluss kommen, – hier etwas
pointiert dargestellt – dass die Finanzkrise wesentlich darauf zurückging, dass
Finanzinstitutionen komplexe Strukturen schufen, um hilflosen Anlegern
hochriskante Produkte zu überhöhten Preisen zu verkaufen. Es gibt aber einige
Beobachtungen, die eine andere Interpretation nahe legen. Die wichtigsten seien
im Folgenden zusammengefasst:
Das Risiko von Subprime-Krediten war gut einzuschätzen
Gerardi et al. (2008) verwenden Kreditdaten, wie sie Marktteilnehmern im Jahr
2005 zur Verfügung gestanden hätten, um Ausfallraten zu schätzen. Sie kommen
zu dem Schluss, dass das Ausfallrisiko mit gängigen statistischen Modellen
korrekt hätte vorhergesagt werden können. Hätte man im Jahr 2005 die später
eingetretene Immobilienpreisentwicklung durchgespielt, hätte man den dadurch
bedingten Anstieg in den Insolvenzen auch richtig vorhersagt. Gerardi et al.
(2008) sichern ihre Ergebnis noch dadurch ab, dass sie Analystenberichte aus den
Jahren vor dem Ausbruch der Krise studieren. Auch darin wird deutlich, dass den
Marktteilnehmern das gestiegene Risiko im Hypothekenmarkt durchaus bewusst
war. Die Tatsache, dass Analysten den Markt eher positiv sahen, lag nicht an der
Unterschätzung des Bonitätsrisikos, sondern daran, dass sie das Risiko eines
Immobiliencrashs unterschätzten.
12
Beitrag zum Postbank Finance Award 2009
Der größte Teil des Risikos landete nicht bei ahnungslosen Investoren
Die hohe Anzahl von Fälle, in denen Investoren komplett von den Wertverlusten
ihrer Anlagen überrascht wurden, soll nicht darüber hinwegtäuschen, dass die
Risiken zum großen Teil bei den Institutionen verblieben, die die Hypotheken und
die darauf aufbauenden Produkte auf den Weg gebracht hatten. Die ersten Opfer
der Krise waren gerade Immobilienfinanzierer, die am Anfang der originate and
distribute Kette standen; die ersten mussten schon 2006 Insolvenz anmelden. 7
Was den Verbleib der Verbriefungen angeht, so berichten Greenlaw et al. (2008),
dass Finanzinstitutionen wie Geschäftsbanken oder Investmentbanken etwa zwei
Drittel des ca. 1,4 Billionen Dollar umfassenden Risikos aus Subprime-Krediten
hielten – trotz der vielfältigen Verbriefungen. Da diese Banken oft selbst direkt an
der Verbriefung beteiligt waren, hatte der Großteil der Investoren durchaus eine
gute Basis zur Abschätzung der Risiken. Auch das Argument, dass der
Weiterverkauf zu gefährlichen Fehlanreizen führte, verliert an Überzeugungskraft,
wenn der Großteil der Risiken das Bankensystem tatsächlich gar nicht verließ.
Das hohe systematische Risiko von strukturierten Produkten war kein Geheimnis
Warum beinhalten Tranchen einer Verbriefung, die vom Rang her über der
untersten, der Equity Tranche stehen, ein hohes systematisches Risiko? Sie
erleiden erst dann Verluste, wenn diese im Kreditpool so hoch sind, dass die
Equity Tranche aufgezehrt ist. In einem Kreditpool kommt es zu hohen Verlusten,
wenn sich die Wirtschaft in einer schlechten Situation befindet. Mit dieser
simplen Logik hätte man sich ohne größere Detailkenntnisse klar machen können,
dass strukturierte Produkte vor allem dann betroffen sind, wenn die allgemeine
Wirtschafslage auch schlecht ist. Wer auf der Suche nach konkreten Zahlen war,
die dieses Risiko quantifizieren, wäre z.B. in der Arbeit von Gibson (2004) fündig
geworden, in der das hohe systematische Risiko von CDOs klar dargestellt wird.
Sicher hätten die Ratingagenturen durch entsprechende Hinweise dazu beitragen
können, dass das systematische Risiko den Investoren besser bewusst war. Aber
auch so hätten sich Investoren ein korrektes Bild der Risiken machen können.
7
Ende Dezember 2006 meldete der Immobilienfinanzierer Ownit Mortgage Solutions Insolvenz
an. Weitere Zusammenbrüche folgten im Januar und Februar. (Quelle: www.bloomberg.com).
13
Beitrag zum Postbank Finance Award 2009
Zusammen betrachtet belegen diese Beobachtungen, dass es den wichtigen
Marktteilnehmern durchaus möglich gewesen wäre, die in der Finanzmarktkrise
zum Tragen gekommenen Risiken rechtzeitig und ausreichend genau zu erfassen.
Die Krise sollte daher nicht als das Produkt einer unheilvollen Entwicklung
angesehen werden, die, einmal angestoßen, nicht mehr zu durchschauen und zu
stoppen war.
Ein Punkt ist dabei aber noch nicht geklärt: War es vielleicht auf Basis der
verfügbaren Daten unmöglich, die Entwicklung der Immobilienpreise richtig
einzuschätzen? Gerardi et al. (2008) zeigten ja gerade, dass zwar das Risiko der
einzelnen Kredite richtig eingeschätzt wurde, nicht aber das Risiko eines
Immobiliencrashs. Ob Risikomanager dieses zentrale Risiko richtig hätten
erfassen können, untersuchen wir in den nächsten Abschnitten.
14
Beitrag zum Postbank Finance Award 2009
4
Modell zur Simulation von Risikoszenarien
Da vieles darauf hindeutet, dass Marktteilnehmer im Vorfeld der Krise zentrale
Risikofaktoren wie die Entwicklung der Immobilienpreise falsch einschätzten,
wollen wir überprüfen, ob dies auf grundsätzliche Modellierungsprobleme
zurückging. Unsere Grundidee ist folgende: wir verwenden in der Finanzbranche
gängige Verfahren, um Risikoszenarien zu erstellen, wie sie Finanzinstitutionen
im Jahr 2005 – also bereits vor Beginn der Krise – erstellt haben könnten.
Im Risikomanagement von Banken ist es üblich, Risikofaktoren im Rahmen einer
Zeitreihenanalyse zu prognostizieren. Dies heißt praktisch, dass man aus den
Daten der Vergangenheit Aufschluss über mögliche Entwicklungen der Zukunft
gewinnt. Daher verwenden auch wir Modelle aus der Zeitreihenanalyse, und
folgen dem weit verbreiteten Ansatz von Box und Jenkins (1970). Die
Vorgehensweise ist in Abbildung 4 dargestellt.
Abb. 4: Modell zur Simulation von Risikoszenarien
Wahl der Modellklasse
Spezifikation, Schätzung und Diagnose
Box-Jenkins-Ansatz
Modellierung der Zeitreihe
Modellierung
des Innovationsprozesses
Simulation
von Zukunftsszenarien
Evaluation
der Risikoszenarien
Output
Quelle: Eigene Darstellung in Anlehnung an Box/ Jenkins, 1970, S. 19
Am Anfang steht die Wahl einer Modellklasse. Daran schließt sich die Schätzung
der Modellparameter an. Will man zu Szenarien gelangen, muss man noch
Annahmen über die Innovationen treffen, die zufälligen und nicht vorhersehbaren
Störfaktoren. Unsere Vorgehensweise in den einzelnen Schritten wird im
Folgenden dargestellt.
15
Beitrag zum Postbank Finance Award 2009
4.1
4.1.1
Anwendung des Box-Jenkins-Ansatzes
Wahl der Modellklasse
In der Literatur findet man in der Regel zwei Klassen von Modellen: Zum einen
nichtlineare Modelle wie das TAR-Modell (engl. Threshold Autoregressive) von
Tong und Lim (1980), Künstlich Neuronale Netze von Rojas (1993) und
Autoregressive Prozesse mit stochastischen Koeffizienten von Nicholls und Quinn
(1982), zum anderen lineare Modelle wie das Modell von Box und Jenkins
(1970). Im Folgenden wird das sog. ARIMA-Modell (engl. autoregressive
integrated moving average) verwendet, das zur Klasse der linearen Modelle zählt
(siehe Anhang A1). Es ist eines der Standardmodelle in der Zeitreihenanalyse.
4.1.2
ARIMA-Modell
Das ARIMA-Modell gehört zu den linearen stochastischen Prozessen, und stellt
eine Mischung aus AR- und MA-Modellen (siehe Anhang A1) dar.
Zunächst wird ein ARMA(p,q)-Prozess betrachtet. Dabei setzt sich der
gegenwärtige Wert der Zeitreihe Yt aus den vergangenen Zeitreihenwerten
Yt −1 , Yt − 2 ,..., Yt − p
sowie
aus
vergangenen
und
gegenwärtigen
Schocks
Z t , Z t −1 ,..., Z t − q zusammen (vgl. Rinne/ Specht, 2002, S. 168):
(4.1.2.1)
Yt − π 1Yt −1 − ... − π p Yt − p = ψ 1 Z t −1 + ... + ψ q Z t − q + Z t
Die Schocks Z t , Z t −1 ,..., Z t − q entstehen aus einem White-Noise-Prozess (siehe
Anhang A1), einer Folge stochastisch unabhängiger und identisch verteilter
Zufallsvariablen. Die Parameter π 1 ,..., π p und ψ 1 ,...,ψ q geben die jeweilige
Gewichtung an.
Voraussetzung für diese Darstellung ist, dass die Zeitreihen schwach stationär
sind (vgl. Rinne/ Specht 2002, S. 284), also zu jeder Zeit den gleichen
Erwartungswert und eine nur vom Zeitabstand abhängige Kovarianz (siehe
Anhang A1) haben. Dies ist jedoch häufig bei ökonomischen Daten nicht
gegeben, da die Zeitreihen Zyklen oder Trends beinhalten.
16
Beitrag zum Postbank Finance Award 2009
Um das Modell in solchen Fällen trotzdem anwenden zu können, betrachtet man
nicht die Zeitreihe selbst, sondern eine geeignete d-fache Differenz (vgl. Rinne/
Specht 2002, S. 284 und Anhang A1).
Das neue Modell wird integriertes ARMA-Modell der Ordnung (p,q) genannt,
oder auch kurz ARIMA(p,d,q).
4.1.3
Spezifikation, Schätzung und Diagnose
Um Prognosen mithilfe eines ARIMA-Modells zu erstellen, muss zunächst ein
Modell angepasst werden. Dies geschieht nach Box und Jenkins (1970) in
mehreren Phasen.
Die Modellspezifikation bildet den Ausgangspunkt des Ansatzes. Hier wird
entschieden, welche Parameter (p,d,q) für das ARIMA-Modell zu wählen sind.
Die Wahl der Parameter steht zu diesem Zeitpunkt keineswegs fest, besonders
während der Diagnosephase wird häufig nachspezifiziert (vgl. Schlittgen/
Streitberg 2001, S. 288).
Falls die vorliegende Reihe nicht stationär ist, muss sie durch Differenzenbildung
(siehe Anhang A1) in eine möglichst stationäre Reihe überführt werden (vgl.
Schlittgen/ Streitberg 2001, S. 289). Im weiteren Verlauf wird stets eine bereits
geeignet differenzierte Zeitreihe betrachtet.
Anschließend folgt die größere Herausforderung, die Bestimmung der Parameter
p und q:
Nach dem klassischen Box-Jenkins-Ansatz betrachtet man die empirische
Autokorrelationsfunktion und die empirische partielle Autokorrelationsfunktion
(siehe Anhang A1). Aus bestimmten Mustern, die diese Funktionen aufweisen,
kann man Rückschlüsse auf die dem Modell zugrunde liegenden Parameter
ziehen.
Außerdem kann man Modell-Selektionskriterien benutzen. Diese beruhen darauf,
dass einerseits durch mehr freie Parameter eine bessere Anpassung gelingt, aber
andererseits das Prinzip der Sparsamkeit angewandt werden muss, da mehr
Parameter Instabilität bringen. Es ist also ein guter Kompromiss zu finden. Dazu
gibt es verschiedene Kriterien, z.B. Akaike’s (1974) Information Criterion (AIC)
17
Beitrag zum Postbank Finance Award 2009
und das Schwarz-Bayes (vgl. Schwarz, 1978) Criterion (SBC), die die
Verwendung zusätzlicher Parameter bestrafen.
Bei der Modellschätzung geht es darum, die Parameter des Prozesses zu
schätzen, nachdem die Modellordnung spezifiziert wurde, d.h. man sucht nun die
Gewichte des ARIMA(p,d,q)-Prozesses. Für die Schätzung verwendet man z.B.
die
Momentenmethode
oder
die
Maximum-Likelihood-Methode
(siehe Anhang A1).
Im nächsten Schritt, der Modelldiagnose, soll festgestellt werden, ob die
vorliegende Reihe von dem spezifizierten und geschätzten ARIMA-Prozess
generiert wurde. Dazu kann man z.B. die Kenngrößen der Reihe mit denen des
Prozesses vergleichen. Oft wird die theoretische Autokorrelationsfunktion der
Daten mit der des geschätzten Modells verglichen. Man trägt beide Funktionen in
einem Diagramm auf und beurteilt visuell, ob es große Unterschiede zwischen der
Reihe und dem Prozess gibt (vgl. Schlittgen/ Streitberg, 2001, S. 322ff.).
Eine andere Methode untersucht die Autokorrelationen der Residuenreihe (vgl.
Schlittgen/ Streitberg, 2001, S. 327). Falls das angenommene Modell zutrifft,
sollten die Residuen eine Realisierung eines White-Noise-Prozesses sein, und
damit unkorreliert.
Schließlich wendet man das gewählte Modell auf die Zeitreihe an, um
beispielsweise Zukunftsszenarien zu generieren.
4.2
4.2.1
Modellierung der Zeitreihe
Modellierung der Innovationen
Um die beschriebenen ökonomischen Größen geeignet fortzuschreiben, müssen
die Innovationen Z t modelliert werden, die sich aus folgender Formel ergeben:
(4.2.1.1)
Z t = Yt − π 1Yt −1 − ... − π p Yt − p − ψ 1 Z t −1 − ... − ψ q Z t − q
Zur Modellierung werden zwei verschiedene Wege verfolgt: ein parametrischer
und ein nicht-parametrischer Ansatz.
Beim parametrischen Ansatz müssen zunächst Annahmen über die Verteilung der
Innovationen getroffen werden:
18
Beitrag zum Postbank Finance Award 2009
•
Geht man von einer Normalverteilung aus, so müssen zwei Parameter
geschätzt werden: Mittelwert und Standardabweichung.
•
Legt man eine schiefe t-Verteilung zugrunde, so sind vier Parameter zu
bestimmen: Lage, Skalierung, Form und Freiheitsgrad.
Die Annahme der Normalverteilung stellt einen naiven Ansatz dar, der den
besonderen Eigenschaften von ökonomischen Größen nicht immer gerecht wird.
Mit
der
schiefen
t-Verteilung
wird
dagegen
berücksichtigt,
dass
finanzwirtschaftliche Größen wie Preisinidizes oder Zinsspreads oftmals nicht
normalverteilt sind, sondern Charakteristika wie Schiefe und leptokurtotische
Effekte aufweisen (vgl. Rinne/ Specht, 2002, S. 325-327).
Um die Parameter der Verteilungen zu schätzen, werden die ersten vier
empirischen Momente der Residuen untersucht. Dies geschieht mit der
Maximum-Likelihood-Methode (siehe Anhang A1). Folgend wird die Validität
der getroffenen Verteilungsannahme geprüft: Mit dem Jarque-Bera-Test wird
untersucht, ob die Innovationen einer Normalverteilung folgen (vgl. Bera/ Jarque,
1980), und der Kolmogorow-Smirnow-Test dient zur Prüfung der Güte der
angepassten schiefen t-Verteilung an die Residuen (vgl. Chakravarti, 1967,
S. 392-394).
Im nicht-parametrischen Ansatz werden keine Verteilungsannahmen getroffen,
sondern das Bootstrap-Verfahren angewendet (siehe Anhang A2). Es handelt sich
um eine computerbasierte Methode, um Aussagen über die Genauigkeit von
statistischen Schätzern zu erhalten (vgl. Boos, 2003).
In der vorliegenden Arbeit werden Zeitreihen betrachtet, d.h. zeitlich geordnete
Folgen von Beobachtungen, bei denen in der Regel stochastische Abhängigkeit
gegeben ist. Somit kann der Bootstrap nicht ohne weiteres angewendet werden, da
ohne Beachtung der Autokorrelationsstruktur der Zeitreihe die Asymptotik der
gewonnenen Verteilung der Statistik beim Ziehen mit Zurücklegen nicht mehr
gewährleistet ist (vgl. Efron/ Tibshirani, 1993, S. 86, 90-92).
19
Beitrag zum Postbank Finance Award 2009
Erweiterungen
der
Bootstrap-Methodologie,
um
vorhandene
Autokorrelationsstrukturen in Zeitreihen explizit zu berücksichtigen, sind im
Allgemeinen
•
der modellbasierte Bootstrap (vgl. Efron/ Tibshirani, 1986; Chatterjee,
1986 und Neto/ Souza, 1996) und
•
Varianten des Moving Blocks Bootstrap (vgl. Künsch, 1989).
In dieser Arbeit werden der modellbasierte Ansatz und ein Ansatz basierend auf
dem Moving Blocks Bootstrap, der Stationary Bootstrap (vgl. Politis/ Romana,
1994), verwendet.
Beim modellbasierten Bootstrap wird die Autokorrelationsstruktur der Zeitreihe
durch ein parametrisches Modell abgebildet. Das Ziehen mit Zurücklegen erfolgt
aus den Modellresiduen (vgl. Efron/ Tibshirani, 1993, S. 95-96). Die Validität des
modellbasierten Bootstraps wurde von Efron und Tibshirani (1986) für
autoregressive Modelle erster Ordnung, von Chatterjee (1986) für AR(2)- sowie
ARMA(1,1)-Prozesse und unter anderem von Lorenzo, Romo und Ruiz (2004) für
allgemeine ARIMA(p,d,q)-Modelle gezeigt.
Liegt eine stationäre Zeitreihe vor, wird ein ARMA(p,q)-Modell an die Daten
angepasst. Mit der Maximum-Likelihood-Methode werden die Modellresiduen
gemäß (4.2.1.1) erzeugt. Ist das spezifizierte ARMA(p,q)-Modell das korrekte
Modell, liegen unabhängig und identisch verteilte Residuen Z t vor. Es sei Z it* die
i-te Bootstrap-Stichprobe vom Umfang n für i = 1,2,…,B, die durch Ziehen mit
Zurücklegen aus den Modellresiduen Z t gewonnen worden ist. Mit dem
originären ARMA(p,q)-Modell und den zugehörigen Paramaterschätzern wird
rekursiv eine Bootstrap-Zeitreihe erzeugt. Auf deren Basis wird die gewünschte
Statistik berechnet und die Verteilung des Schätzers im Umfang B ermittelt (vgl.
Neto/ Souza, 1996, S. 345).
Für die rekursive Modellierung der Boostrap-Zeitreihe werden p Startwerte
benötigt. Diese können durch Fixierung der ersten p Beobachtungen aus der
Originalzeitreihe gewonnen werden oder durch Erzeugung aus der zugrunde
liegenden bedingten Randverteilung der jeweiligen Zeitreihe (vgl. Neto/ Souza,
1996, S. 346).
20
Beitrag zum Postbank Finance Award 2009
Der originäre Moving Blocks Bootstrap nach Künsch (1989) stellt eine nichtparametrische Alternative zum modellbasierten Bootstrap dar, bei der die
Abhängigkeiten mit Blöcken modelliert werden (vgl. Efron/ Tibshirani, 1993, S.
101-102). Eine Weiterentwicklung folgte 1994 von Politis und Romana, nämlich
der Stationary Bootstrap.
4.2.2
Simulation und Evaluation
Die zukünftige Entwicklung der Zeitreihen wird nun mithilfe einer Monte-CarloSimulation untersucht. Diese Methode basiert auf dem Gesetz der großen Zahlen:
Ein Zufallsexperiment wird sehr oft wiederholt, um daraus Schlüsse auf die
Verteilung von Zufallsgrößen zu ziehen (vgl. z.B. Arndt/ Haenel, 1999).
Das anfangs spezifizierte ARIMA-Modell wird nun für den gewünschten
Prognosezeitraum mit h Schritten fortgeschrieben. Mithilfe des Monte-CarloVerfahrens werden pro Zeitreihe 100.000 h-Schritt-Simulationen durchgeführt.
Man erhält 100.000 Szenarien über die mögliche Entwicklung der Zeitreihen.
Für jede h-Schritt-Simulation werden jeweils h Innovationen benötigt, um die
Reihe fortzuschreiben. Die Erzeugung der Innovationen erfolgt auf zweierlei
Weise:
Im parametrischen Ansatz werden die benötigten Parameter der Verteilungen aus
den empirischen Innovatonen geschätzt. Aus den so spezifizierten Verteilungen
werden Zufallszahlen gezogen, die jeweils in Vektoren der Länge h geschrieben
werden. Schließlich wird die Zeitreihe mit den Innovationen aus den generierten
Vektoren fortgeschrieben.
Im nicht-parametrischen Ansatz wird eine Erweiterung des Bootstrap-Verfahrens
verwendet (vgl. Lorenzo/ Romo/ Ruiz, 2004, S. 453-455):
Als erstes wird mit Zurücklegen aus den Residuen des spezifizierten Modells
gezogen, und daraus rekursiv eine neue Bootstrap-Zeitreihe aufgebaut. Das
Modell wird erneut an die Bootstrap-Zeitreihe angepasst. Schließlich wird das
Bootstrap-Modell mit den Innovationen aus den empirischen Residuen des
Originalmodells fortgeschrieben.
21
Beitrag zum Postbank Finance Award 2009
Schließlich müssen die Szenarien ausgewertet werden. Interessant sind in der
vorliegenden Arbeit die 1% und 0,1% Worst-Case-Szenarien, also die 1000 bzw.
100 schlechtesten Fälle aus den 100.000 simulierten Szenarien.
22
Beitrag zum Postbank Finance Award 2009
5
Empirische Implementierung des Simulationsmodells
Wir untersuchen folgende Zeitreihen:
- den US Immobilienindex HPI (House Price Index), der vom Office of Federal
Housing Enterprise Oversight ermittelt wird. Gegenüber dem ebenfalls häufig
verwendeten
Case/Shiller-Index
hat
er
den
Vorteil
einer
längeren
Datenverfügbarkeit. Der HPI basiert wie der Case/Shiller auf der Repeat-Sales
Method und wird in den USA oft zur Verfolgung des Marktgeschehens
verwendet, z.B. von den Immobilienfinanzierern Fannie Mae und Freddie
Mac.
- die Arbeitslosenrate in den USA UER. Wir wählen diese Größe, da wir auch
Szenarien über die realwirtschaftliche Lage erstellen wollen.
- die Differenz (Spread) zwischen dem 3-Monats-LIBOR (USD) L3M und der
Federal Funds Rate FFR, von uns im Weiteren als LFS bezeichnet. Je höher
der Spread, desto teurer ist es für Banken, sich von anderen Banken Geld zu
leihen. In dem Anstieg dieser Differenz im August 2007 und später noch
einmal nach der Insolvenz von Lehman manifestiert sich die Liquiditätskrise,
die zu einem zentralen Element der aktuellen Finanzkrise geworden ist. Wir
möchten daher auch untersuchen, inwiefern diese Liquiditätsproblematik im
Rahmen einer Worst-Case-Analyse als möglich vorhergesagt worden wäre.
5.1
Datengrundlage
Die zu untersuchenden Zeitreihen sind der vierteljährlich verfügbare HPI, die
saisonbereinigte UER, ebenfalls auf vierteljährlicher Basis, und der monatliche
LFS. Die Datenquelle des HPI ist das Office of Federal Housing Enterprise
Oversight 8. Die Zeitreihe der UER ist vom US Bureau of Labor Statistics 9, und
die des LFS setzt sich aus einer gemischten Datenquelle zusammen: Der L3M
stammt aus dem Bloomberg System 10, die FFR vom US Board of Governors of
the Federal Reserve System 11. Der HPI und die UER umfassen jeweils 122
Zeitreihenwerte, der LFS 246 Beobachtungen.
8
Quelle: http://www.ofheo.gov/
Quelle: http://www.bls.gov/
10
Kennung: US0003M
11
Quelle: http://www.federalreserve.gov/
9
23
Beitrag zum Postbank Finance Award 2009
Der Schätzraum des HPI und der UER reicht vom 1. Quartal 1975 bis zum 2.
Quartal 2005. Der LFS erstreckt sich von Januar 1985 bis Juni 2005. Die Daten
wurden zur Untersuchung mit dem All Urban Consumer Price Index des US
Bureau of Labor Statistics zum 2. Quartal 2005 bzw. Juni 2005 deflationiert.
Reale Risikoszenarien werden für den HPI und die UER vom 3. Quartal 2005 bis
zum 3. Quartal 2008 und für den LFS von Juli 2005 bis September 2008 simuliert.
Die zukünftigen Perioden umfassen somit 13 Quartale bzw. 39 Monate.
Alle Beobachtungen wurden vor der Modellanpassung logarithmiert. Die
simulierten Szenarien werden zur besseren Darstellung entlogarithmiert,
außerdem stellen wir die Szenarien für die Ursprungsreihe dar, selbst wenn sie für
die Modellschätzung aus Stationaritätsgründen differenziert wurde.
Signifikanztests erfolgen zum Niveau α = {0,1; 0,05; 0,01}. Die {0,01; 0,001}bzw. {0,99; 0,999}-Quantile dienen der Evaluation von Worst-Case-Szenarien aus
den erzeugten Verteilungen der h-Schritt-Simulationen für die untersuchten
ökonomischen Größen.
5.2
Deskriptive Statistik
Zu Beginn wird der HPI betrachtet (vgl. Abb. 5). Es liegt visuell mindestens ein
linearer Trend vor. Die gefilterte Reihe des HPI mit einem Differenzenfilter
zweiter Ordnung lässt keine Trends mehr erkennen (Filterung erster Ordnung ist
nicht aufgeführt, zeigt aber einen deutlichen Trend in der zweiten Hälfte), so dass
ein quadratischer Trend angenommen wird. Es sind zwei globale Extrema
auszumachen: Ein Maximum zum 3. Quartal 1980 und ein Minimum zum 3.
Quartal 1980 der zweimal differenzierten Reihe. Der Median liegt mit 0,000040
sehr nahe am Mittelwert von 0,00013, was auf eine symmetrische Verteilung
schließen lässt.
24
Beitrag zum Postbank Finance Award 2009
5.6
5.4
ln(HPI)
5.8
Abb. 5: Verlauf des vierteljährlichen Immobilienpreisindex HPI (1975-2005)
75/Q1
79/Q4
84/Q4
89/Q4
94/Q4
99/Q4
04/Q4
0.00
-0.04
2
 (ln(HPI))
0.04
Jahr/Quartal
75/Q3
80/Q2
85/Q2
90/Q2
95/Q2
00/Q2
05/Q2
Jahr/Quartal
Quelle: Eigene Erstellung, eigene Darstellung.
In Abbildung 6 ist die UER dargestellt. Es liegt visuell mindestens ein linearer
Trend vor, der durch Bildung der ersten Differenz verschwindet. Es kann
demnach von einem linearen Trend ausgegangen werden. Es sind zwei globale
Extrema zu erkennen: Zum 2. Quartal 1980 liegt ein Maximum vor und zum 3.
Quartal 1983 ein Minimum. Ein weiteres lokales Maximum findet sich zum 4.
Quartal 2001. Der Median ist mit -0,017 kleiner als der Mittelwert mit -0,004.
Daher kann von einer positiven Schiefe, d.h. einer linkssteilen Verteilung der
UER ausgegangen werden.
25
Beitrag zum Postbank Finance Award 2009
2.2
1.8
1.4
ln(UER)
Abb. 6: Verlauf der vierteljährlichen US-Arbeitslosenrate UER (1975-2005)
75/Q1
79/Q4
84/Q4
89/Q4
94/Q4
99/Q4
04/Q4
00/Q1
05/Q1
0.10
0.00
-0.10
1
 (ln(UER))
Jahr/Quartal
75/Q2
80/Q1
85/Q1
90/Q1
95/Q1
Jahr/Quartal
Quelle: Eigene Erstellung, eigene Darstellung.
Bei Betrachtung des LFS (vgl. Abb. 7) fällt kein direkter Trend auf, jedoch ein
sehr sprunghaftes Verhalten im Mittelwert. So findet sich im September 2001 ein
globales Minimum und im Juni 2004 ein globales Maximum. Sonst weist die
Reihe sehr viele lokale Extrema auf. Daher kann von ausgeprägten Tails der
Verteilung ausgegangen werden. Der Median ist mit 0,051 fast identisch mit dem
Mittelwert von 0,059, was auf eine symmetrische Verteilung hindeutet, aber
wegen vieler Extrema nicht überbewertet werden darf.
26
Beitrag zum Postbank Finance Award 2009
Abb. 7: Verlauf des monatlichen LFS, der Differenz zwischen 3-Monats-Libor
0.2
-0.1
0.0
0.1
ln(L3M)-ln(FFR)
0.3
0.4
L3M und Federal Funds Rate FFR
85/01
88/04
91/08
94/12
98/04
01/08
04/12
Jahr/Monat
Quelle: Eigene Erstellung, eigene Darstellung.
Die Stationarität der Zeitreihen wird mit dem erweiterten (augmented) DickeyFuller-Test (ADF) geprüft, der die Nullhypothese einer Einheitswurzel (siehe
Anhang A1) testet. Es werden drei Modelle getestet: ein gewöhnliches Random
Walk-Modell, ein Random Walk mit Drift und ein Random Walk mit Drift und
zusätzlichem deterministischem Trend (vgl. Tab. 1). Die Modellordnung wird mit
dem Selektionskriterium AIC bestimmt:
27
Beitrag zum Postbank Finance Award 2009
Tab. 1: Test auf Stationarität (p-Wert in Klammer)
ADF
(Random Walk)
ADF
(+Drift)
ADF
(+Drift +Trend)
3,614010
(0,90)
4,157907
(0,95)
2,218618
(> 0,99)
1
∇ (ln(HPI))
-2,455071
(0,01594516)
-2,861185
(0,05442174)
-3,125266
(0,1091117)
2
∇ (ln(HPI))
-14,89035
(< 0,01)
-14,84861
(< 0,01)
-14,78499
(< 0,01)
-1,092946
(0,9248314)
-2,413684
(0,1752387)
-2,853476
(0,2219738)
-5,897826
(< 0,01)
-5,936891
(< 0,01)
-5,93096
(< 0,01)
-3,909094
(< 0,01)
-5,21597
(< 0,01)
-5,488144
(< 0,01)
ln(HPI)
ln(UER)
1
∇ (ln(UER))
ln(L3M)-ln(FFR)
Quelle: Eigene Erstellung, eigene Darstellung.
Es wird bei allen drei Testmodellen deutlich, dass für die Zeitreihe des HPI ein
quadratischer Trend vorliegt, so dass ein Differenzenfilter zweiter Ordnung nötig
ist, um Stationarität herzustellen. Beim UER ist dagegen nur ein linearer Trend
vorhanden, so dass ein einfacher Differenzenfilter ausreicht. Der LFS ist bereits
als stationär anzunehmen. Da der LFS ein sehr sprunghaftes Verhalten zeigt, und
dies zu Problemen bei der Identifizierung von Einheitswurzeln mittels des ADFTests führt (vgl. Rinne/ Specht, 2002, S. 366), wird zusätzlich der KwiatkowskiPhillips-Schmidt-Shin-Test (vgl. Kwiatkowski et al., 1992) durchgeführt. Er testet
u.a. die Nullhypothese der Trendstationarität. Diese kann nur auf dem 1%-Niveau
verworfen werden (Prüfgröße = 0,1984 ; p-Wert = 0,01659 ). Beim Test der
Nullhypothese der Niveaustationarität kann diese mit einem p-Wert von 0,02085
(Prüfgröße = 0,6196 ) ebenfalls nur auf einem 1% Niveau verworfen werden. Auf
Basis dieser Ergebnisse wird die Annahme der Stationarität des LFS getroffen.
Bei Untersuchung der ersten vier empirischen Momente der gefilterten Daten
(vgl. Tab. 2) kann die durch visuelle Kontrolle der Zeitreihen positive Kurtosis
bestätigt werden. Die Wölbung des LFS ist nach bisherigen Betrachtungen
erwartungsgemäß am höchsten. Die Tails des HPI sind ausgeprägter als die der
UER. Die Schiefe ist bei der UER am größten, gefolgt vom LFS. Das sprunghafte
Verhalten der Reihe verfälscht somit die Aussage aus dem Vergleich von Median
und Mittelwert. Der HPI hat eine leicht negative Schiefe nahe Null. Die Momente
bedingen, dass der Jarque-Bera-Test (JB), der die Nullhypothese der
Normalverteilung prüft, zu hohe Werte annimmt. Bei keiner der Reihen kann
28
Beitrag zum Postbank Finance Award 2009
demnach zu den gegebenen Signifikanzniveaus von einer normalverteilten
Grundgesamtheit ausgegangen werden.
Tab. 2: Empirische Momente der (gefilterten) Zeitreihen
Mittelwert
Std.abw.
Schiefe
Kurtosis
JB
(p-Wert)
2
∇ (ln(HPI))
0,0001298036
0,01096195
-0,003600021
4,921316
19,4575
(9,817e-05)
1
∇ (ln(UER))
-0,003924741
0,04302898
0,9891432
4,242988
27,5206
(1,057e-06)
0,05895278
0,07319207
0,797514
6,485412
150,5952
(< 2,2e-16)
ln(L3M)-ln(FFR)
Quelle: Eigene Erstellung, eigene Darstellung.
In Tabelle 3 wird das erste Moment auf Signifikanz geprüft, um später
entscheiden zu können, ob das ARIMA-Modell eine Konstante enthalten soll:
Tab. 3: Signifikanz des ersten empirischen Moments
2
∇ (ln(HPI))
0,1297147
(0,8967921)
t-Statistik
(p-Wert)
BCa-Intervalle
(# 10.000)
1
∇ (ln(UER))
-1,003327
(0,3157030)
ln(L3M)-ln(FFR)
12,63304
(1,388110e-36)
α
10 %
[-0,000363; 0,000572]
[-0,013347; 0,007010]
[0,041873; 0,081138]
5%
[-0,000474; 0,000663]
[-0,015209; 0,009368]
[0,038896; 0,085452]
1%
[-0,000679; 0,000871]
[-0,018141; 0,013212]
[0,033466; 0,094294]
(z0; â)
(-0,045386; -5,47e-05)
(0,019302; 0,014987)
(0,060195; 0,008475)
Quelle: Eigene Erstellung, eigene Darstellung.
Die t-Statistik zeigt, dass die Mittelwerte bzw. Drifts von HPI und UER nicht
signifikant von Null verschieden sind. Die Anwendung des Stationary Bootstraps
bestätigt diese Aussage. Auf allen drei Signifikanzniveaus ist die Null im BCaIntervall (siehe Anhang A2) enthalten. Die optimale erwartete Blocklänge wird
hier und im Weiteren mit dem Algorithmus, der in Politis und White (2003) sowie
Patton, Politis und White (2008) beschrieben ist, bestimmt. Die Reihe des LFS
zeigt dagegen nach der t-Statistik sowie den Bootstrap-BCa-Intervallen, dass die
Drift signifikant von Null verschieden und positiv ist (vgl. Tab. 3).
29
Beitrag zum Postbank Finance Award 2009
5.3
Modellierung der Daten
5.3.1
Modellidentifikation
In Abbildung 8 sind die (partiellen) Autokorrelogramme der drei gefilterten
Zeitreihen zusammengestellt:
0.2
-0.4 -0.2 0.0
Autokorrelation
Abb. 8: (Partielle) Autokorrelogramme
5
10
15
20
Lag
30
Beitrag zum Postbank Finance Award 2009
Null verschieden. Außerdem schwingt sie langsam sinusförmig aus. Ausgehend
von der ersten Differenz ist das Muster eines ARI(1,1)-Modells zu erkennen.
Die Partielle Autokorrelationsfunktion des LFS hat einen deutlich signifikanten
Wert bei Lag 1. Alle anderen Werte sind nicht signifikant von Null verschieden.
Die Autokorrelationsfunktion zeigt ein langsam exponentiell ausklingendes
Muster, wobei nach Lag 10 keine signifikant von Null verschiedenen
Autokorrelationen mehr vorhanden sind, so dass auf ein AR(1)-Modell
geschlossen wird
Die Identifikation wird nachfolgend mit Hilfe von Informationskriterien unter
dem Aspekt des Prinzips der Sparsamkeit verfeinert (vgl. Anhang B, Tab. B1):
Beim Vergleich der Modellselektionskriterien wird nach dem AIC für den HPI
mit einem Wert von -785,66 ein stark parametrisiertes ARIMA(3,2,1)-Modell
ausgewählt und nach dem SBC ein ARI(2,2)-Modell mit einem Wert von -778,84.
Da das AIC dazu neigt, überparametrisierte Modelle zu bevorzugen (vgl.
Schlittgen/ Streitberg, 2001, S. 339), und in der vorhergehende Mustererkennung
unter anderem dieses Modell identifiziert werden konnte, wird das ARI(2,2)Modell für den HPI als Arbeitsmodell gewählt.
Für die UER wird nach dem AIC ein stark parametrisiertes ARIMA(3,1,3) Modell
mit einem Wert von -461,50 bevorzugt. Das SBC präferiert dagegen ein
sparsames ARI(1,1)-Modell mit einem Wert von -457,54. Dieses wird für die
UER
als
Arbeitsmodell
gewählt,
da
es
auch
mit
der
(partiellen)
Autokorrelationsfunktion identifiziert werden konnte.
Bei der Zeitreihe des LFS wählen beide Kriterien ein sparsames AR(1)-Modell
aus, das AIC mit einem Wert von -826,67 und das SBC mit einem Wert von
- 816,15 . Dieses Modell wird als Arbeitsmodell verwendet.
5.3.2
Modellschätzung und -diagnose
Die identifizierten Arbeitsmodelle werden mit Hilfe der Maximum-LikelihoodMethode (ML-Methode) geschätzt (siehe Anhang A1). Um zu entscheiden, ob die
Koeffizienten signifikant von Null verschieden sind, wird ein t-Test durchgeführt.
Zur Absicherung der Parametersignifikanz wird eine Analyse mittels des
modellbasierten Bootstraps durchgeführt. Außerdem werden die Modellresiduen
31
Beitrag zum Postbank Finance Award 2009
auf ihre empirischen Momente sowie auf noch bestehende Autokorrelationen
untersucht.
Tab. 4: Parameterschätzungen und t-Test
ARI(2,2;ln(HPI))
ARI(1,1;ln(UER))
AR(1;ln(L3M)-ln(FFR))
Parameter
ar1
ar2
ar1
Drift
ar1
ML-Schätzer
-0,5125658
-0,4890240
0,5721407
0,06017695
0,79257651
Std.fehler
0,08087538
0,08141392
0,07564258
0,013459039
0,038540385
t-Statistik
(p-Wert)
-6,337724
(2,331841e-10)
-6,006639
(1,894086e-09)
7,563739
(3,916452e-14)
4,471118
(7,781175e-06)
20,56483
(5,669823e-94)
Quelle: Eigene Erstellung, eigene Darstellung.
Alle Parameter der ausschließlich autoregressiven Modelle sind laut t-Statistik
und zugehörigem p-Wert signifikant. In den Prozessgleichungen für den HPI und
die UER wurde die Konstante unterdrückt. Das Modell für den LFS wurde unter
der Annahme eines signifikanten Mittelwertes geschätzt. Ein t-Wert von ca. 4,47
bestätigt das erwartete Ergebnis eines positiven von Null verschiedenen Drifts.
In Tabelle 5 werden die Momente der Modellresiduen untersucht:
Tab. 5: Empirische Momente der Modellresiduen
Mittelwert
Std.abw.
Schiefe
Kurtosis
JB
(p-Wert)
ARI(2,2;ln(HPI))
0,0004056267
0,00878593
0,6127142
4,173557
14,1546
(0,000844)
ARI(1,1;ln(UER))
-0,002559274
0,03513016
0,5843702
4,011214
11,9425
(0,002551)
AR(1;ln(L3M)-ln(FFR))
4,792451e-05
0,04463238
0,7922874
6,475222
148,9197
(< 2,2e-16)
Quelle: Eigene Erstellung, eigene Darstellung.
Die Effekte in den Momenten der Modellresiduen, wie sie in den gefilterten
Originaldaten zu finden waren, sind immer noch vorhanden: eine positive, nahezu
unveränderte Kurtosis und eine durchweg positive Schiefe. Hatte der HPI anfangs
noch eine leicht negative Schiefe nahe Null, so ist nun eine Erhöhung
festzustellen. Keine der Modellresiduen entstammen einer normalverteilten
32
Beitrag zum Postbank Finance Award 2009
Grundgesamtheit gemäß dem Jarque-Bera-Test. Die nachfolgende BootstrapAnalyse zur Parametersignifikanz erhält somit besondere Bedeutung, weil der tTest auf der Normalapproximation der Residuen basiert, und diese vor allem für
den LFS auf einem hohen Signifikanzniveau nicht erfüllt ist.
Bei Betrachtung der Autokorrelation der Modellresiduen wird der Ljung-Box-Test
verwendet (vgl. Ljung/ Box, 1978), der die Nullhypothese prüft, dass keine
Autokorrelation vorliegt. Untersucht werden für den HPI und UER die ersten 20
Lags und für den LFS die ersten 30 Lags. Die Festlegung der Lags erfolgt nach
der Faustregel Lags = 2 ⋅ n mit n als Anzahl der Zeitreihenwerte (vgl. Rinne/
Specht, 2002, S. 411). Anhand der Prüfgröße und den zugehörigen p-Werten ist
zu erkennen, dass die gewählten Modelle die Autokorrelation sehr gut einfangen.
Die
Nullhypothese
der
Unabhängigkeit
kann
zu
keinem
gegebenen
Signifikanzniveau verworfen werden (vgl. Tab. 6).
Tab. 6: Autokorrelation der Modellresiduen (p-Wert in Klammer)
Lag
5
10
15
20
25
30
ARI(2,2;ln(HPI))
2,326598
7,368142
13,25225
5,710561
(0,5074446) (0,6796165) (0,8821966) (0,7763749)
-
-
ARI(1,1;ln(UER))
1,743911
8,060832
17,12448
10,10652
(0,7827265) (0,5280276) (0,7543549) (0,5814348)
-
-
AR(1;ln(L3M)-ln(FFR))
2,300506
9,121862
10,72038
13,90158
17,25933
24,18336
(0,6806769) (0,4261022) (0,7078493) (0,7893981) (0,8373928) (0,7198398)
Quelle: Eigene Erstellung, eigene Darstellung.
Da die Modellresiduen somit weißes Rauschen mit einer unbekannten Verteilung
darstellen und geeignete Modelle zur Modellierung der Zeitreihen identifiziert
worden sind, kann der modellbasierte Bootstrap zur Signifikanzprüfung
angewandt werden. In Tabelle 7 sind die Bootstrap-Standardfehler und die BCaIntervalle der Parameter der jeweiligen Modelle angegeben. Die Intervalle wurden
zu den gegebenen Signifikanzniveaus errechnet.
33
Beitrag zum Postbank Finance Award 2009
Tab. 7: Signifikanzprüfung mittels modellbasierten Bootstraps
ARI(2,2;ln(HPI))
ARI(1,1;ln(UER))
AR(1;ln(L3M)-ln(FFR))
Parameter
ar1
ar2
ar1
mean
ar1
ML-Schätzer
-0,5125658
-0,4890240
0,5721407
0,06017695
0,79257651
Std.fehler
0,08101438
0,08057525
0,07665666
0,01328763
0,04044595
BCa-Intervalle
(# 10.000)
α
10 %
[-0,642321; -0,377829] [-0,609844; -0,345213]
[0,449419; 0,695032]
[0,039005; 0,082454]
[0,741077; 0,861056]
5%
[-0,663647; -0,347218] [-0,632338; -0,317772]
[0,425866; 0,715612]
[0,034837; 0,087042]
[0,727275; 0,869706]
1%
[-0,707735; -0,288389] [-0,673887; -0,258960]
[0,374682; 0,767218]
[0,025913; 0,096550]
[0,700030; 0,880971]
(-0,038361; 0,009539)
(0,052412; 0,044307)
(0,014539; 0,008931)
(0,356054; 0,026545)
(z0; â)
(0,005013; -0,009331)
Quelle: Eigene Erstellung, eigene Darstellung.
Die Standardfehler der Modellparameter für den HPI und die UER sind ähnlich
den geschätzten Standardfehlern aus der parametrischen ML-Schätzung. Die BCaIntervalle der Parameter enthalten zu keinem gegebenen Signifikanzniveau die
Null, so dass signifikante Schätzer vorliegen. Weiterhin ist eine hohe
Verzerrungskonstante bei dem autoregressiven Parameter des Modells für den
LFS zu beobachten ( z 0 ≈ 0,36 ). Dies deutet darauf hin, dass die Verteilung des
Schätzers von der angenommenen Normalverteilung aus der ML-Schätzung
abweicht, was bei der Untersuchung der Modellresiduen gezeigt werden konnte
(vgl. Tab. 5).
Die identifizierten und geschätzten Modelle für den HPI, die UER und den LFS
sind nach vorangegangenen Analysen geeignet, um die Abhängigkeitsstruktur der
Zeitreihen
adäquat
wiederzugeben,
und
können
im
Folgenden
zur
Szenariosimulation verwendet werden.
5.4
Simulation von Risikoszenarien
Wie oben beschrieben, verwenden wir zwei Ansätze für die Simulation von
Modellinnovationen:
die
parametrische
Modellierung
mittels
einer
Normalverteilung bzw. einer schiefen t-Verteilung und die nicht-parametrische
Erzeugung der Verteilung aus den empirischen Innovationen.
34
Beitrag zum Postbank Finance Award 2009
Im parametrischen Fall der Normalverteilung werden zunächst die ersten beiden
empirischen Momente der Residuen für HPI, UER und LFS geschätzt und mittels
Bootstrap auf Verzerrung und Signifikanz geprüft:
Tab. 8: Verzerrung und Signifikanz der Residuenmomente
ARI(2,2;ln(HPI))
ARI(1,1;ln(UER))
AR(1;ln(L3M)-ln(FFR))
Mittelwert
Std.abw.
Mittelwert
Std.abw.
Mittelwert
Std.abw.
Schätzer
0,0004056267
0,00878593
-0,002559274
0,03513016
4,792451e-05
0,04463238
Std.fehler
0,0008029338
0,007144687
0,003198192
0,002763329
0,002821937
0,003332212
Verzerrung
3,306694e-06
-6,710614e-05
1,007332e-05
-0,0002769596
4,045085e-06
-0,000227779
|Verzerrungs-Ratio|
0,004118264
0,09392453
0,003149692
0,1002268
0,001433443
0,06835669
entzerrter Schätzer
0,00040232
0,008853036
-0,002569347
0,03540712
4,387942e-05
0,04486015
10 %
[-0,000885; 0,001755]
[0,007789; 0,010225]
[-0,007696; 0,002887]
[0,031151; 0,040549]
[-0,004469; 0,004846]
[0,039913; 0,051158]
5%
[-0,001126; 0,002005]
[0,007610; 0,010563]
[-0,008658; 0,004041]
[0,030412; 0,041572]
[-0,005419; 0,005737]
[0,037651; 0,055177]
1%
[-0,001549; 0,002641]
[0,007283; 0,011099]
[-0,010382; 0,006269]
[0,029085; 0,043605]
[-0,007120; 0,007912]
[0,037651; 0,055177]
(z0; â)
(-0,001504; 0,009401)
(0,102449; 0,061689)
(0,001755; 0,008891)
(0,105726; 0,048600)
(0,002005; 0,008436)
(0,079795; 0,059289)
BCa-Intervalle
(# 10.000)
α
Quelle: Eigene Erstellung, eigene Darstellung.
Wie in Tabelle 8 zu erkennen ist, enthalten die BCa-Intervalle des
Mittelwertschätzers zu jedem Signifikanzniveau die Null. Die Intervalle des
empirischen Schätzers der Standardabweichung enthalten dagegen nur positive
Werte, die kleiner Eins sind. Weiterhin werden die ersten beiden empirischen
Momente auf Verzerrung geprüft: Die Verzerrungen sind dabei allesamt sehr
klein. Die statistische Güte der Schätzer wird mit dem Absolutwert des
Quotienten aus Verzerrung und Standardfehler (|Verzerrungs-Ratio|) untersucht
(vgl. Efron/ Tibshirani, 1993, S. 128-129). Es zeigt sich, dass jeder Quotient
kleiner als der Richtwert 0,25 ist, und somit keine Entzerrung nötig ist. Bei
späterer Anpassung der Normalverteilung an die Innovationen werden die zur
Simulation benötigten Residuen aus einer zentrierten Normalverteilung erzeugt,
wobei die Standardabweichung den empirischen Schätzern aus Tabelle 5
entspricht.
35
Beitrag zum Postbank Finance Award 2009
Die geschätzten ML-Parameter für die schiefe t-Verteilung sind in Tabelle 9
dargestellt:
Tab. 9: Schätzer der Parameter einer schiefen t-Verteilung
Lage
Skalierung
Form
Freiheitsgrade
KS
(p-Wert)
ARI(2,2;ln(HPI))
-0,006240951
0,009711517
1,261997205
9,192116385
0,0678
(0,9491)
ARI(1,1;ln(UER))
-0,02760381
0,03659334
1,17711804
6,99389314
0,0583
(0,9868)
AR(1;ln(L3M)-ln(FFR))
-0,01361931
0,02891408
0,45995627
2,73629418
0,0653
(0,673)
Quelle: Eigene Erstellung, eigene Darstellung.
Die Lage aller drei angepasster Verteilungen ist negativ und nahe Null, was die
Bootstrap-Analyse des ersten empirischen Moments stützt. Beim HPI ist die
Skalierung am geringsten und die Form am größten, obwohl Schiefe und Kurtosis
der Modellresiduen noch hinter denen des LFS liegen (vgl. Tab. 5). Dies wird
jedoch durch eine höhere Anzahl an Freiheitsgraden ausgeglichen. Die höchsten
Werte der Skalierung und Form hat die Reihe der UER, was ebenfalls in einer
hohen Anzahl an Freiheitsgraden resultiert. Hatte der LFS noch die extremsten
empirischen Momente (vgl. Tab. 5), so weist er bei der Anpassung der
Modellresiduen an eine schiefe t-Verteilung die geringsten Werte an Skalierung
und Form auf. Jedoch wird durch eine geringe Anzahl an Freiheitsgraden die
Schiefe und Kurtosis der Innovationen betont. Bei Untersuchung der Ergebnisse
des Kolmogorow-Smirnow-Tests (KS), der die Nullhypothese prüft, dass zwei
Stichproben aus derselben Grundgesamtheit stammen, ist festzustellen, dass zu
keinem Signifikanzniveau die Nullhypothese abzulehnen ist. Man kann
annehmen, dass die Modellresiduen aus einer schiefen t-Verteilung stammen. Die
statistische Relevanz der Verteilung der Innovationen ist somit im Gegensatz zur
Normalverteilungsannahme gegeben (vgl. Tab. 5).
Im nicht-parametrischen Fall sind keine weiteren Schätzungen im Vorfeld
durchzuführen, so dass im nächsten Schritt die Simulationen durchgeführt
werden.
36
Beitrag zum Postbank Finance Award 2009
In Abbildung 9 sind die Simulationsergebnisse für den HPI aufgeführt. Die drei
Teilabbildungen basieren auf der Normalverteilung, der schiefen t-Verteilung und
dem Bootstrap (die genauen Zahlenwerte sind in Anhang B, Tab. B2-B4,
aufgeführt).
Abb. 9: Worst-Case-Szenarien für den vierteljährlichen Immobilienpreisindex
HPI
Beobachtung
1%-Worst Case
0.1%-Worst Case
280
HPI
320
360
Normalverteilung
05/Q3
05/Q4
06/Q1
06/Q2
06/Q3
06/Q4
07/Q1
07/Q2
07/Q3
07/Q4
08/Q1
08/Q2
08/Q3
07/Q3
07/Q4
08/Q1
08/Q2
08/Q3
07/Q3
07/Q4
08/Q1
08/Q2
08/Q3
Jahr/Quartal
Beobachtung
1%-Worst Case
0.1%-Worst Case
280
HPI
320
360
schiefe t-Verteilung
05/Q3
05/Q4
06/Q1
06/Q2
06/Q3
06/Q4
07/Q1
07/Q2
Jahr/Quartal
Beobachtung
1%-Worst Case
0.1%-Worst Case
280
HPI
320
360
Bootstrap
05/Q3
05/Q4
06/Q1
06/Q2
06/Q3
06/Q4
07/Q1
07/Q2
Jahr/Quartal
Quelle: Eigene Erstellung, eigene Darstellung.
Der HPI erreicht im 4. Quartal 2006 mit 369,82 seinen Höhepunkt. Geht man von
diesem Höhepunkt aus, verliert der HPI bis zum 3. Quartal 2008 11,40%. Im
Vergleich zum 2. Quartal 2005, dem Beginn der Simulationsanalyse, verliert er
6,64%.
Die beiden Worst-Case-Szenarien hätten im Vergleich zum realisierten Verlauf
einen noch stärkeren Rückgang vorhergesagt. Die extremsten Risikoszenarien
werden mit der Normalverteilungsannahme simuliert. Hier wird beim 1%-Worst37
Beitrag zum Postbank Finance Award 2009
Case-Szenario ein Rückgang um 11,27% im Zeitraum vom 2. Quartal 2005 bis
zum 3. Quartal 2008 prognostiziert. Das 0,1%-Worst-Case-Szenario sagt einen
Rückgang von 19,27% voraus. Weniger extreme Szenarien prognostiziert die
nicht-parametrische Bootstrap-Methode. Die am nächsten an der Realität
liegenden Szenarien liefert die schiefe t-Verteilung als Verteilungsapproximation
für die Innovationen.
Wie hätte eine Bank auf eine solche Szenarioanalyse reagieren sollen? Auf Sicht
eines Jahres streben Banken in der Regel an, einen Worst-Case zu überstehen, der
mit einer Wahrscheinlichkeit von 0,1% oder weniger eintritt. Dies entspricht in
etwa einer Ratingnote von A. Auf Sicht von drei Jahren beträgt die kumulierte
Ausfallwahrscheinlichkeit von Unternehmen mit einem A-Rating 0,24% (vgl.
Standard and Poor’s 2005). Da die Hauspreise laut der Szenarionalayse mit einer
Wahrscheinlichkeit von 1% und mehr auf das Niveau von 2008 fallen konnten,
hätten Banken, die das für sie typische Mindestrating von A anstreben, sich auf
einen Rückgang der Immobilienpreise vorbereiten müssen, der schlimmer als der
tatsächliche gewesen wäre.
Sicherlich könnte man argumentieren, dass Finanzinstitute weit geringere
Verluste erlitten hätten, wenn die Immobilienpreise in den Jahren 2005 und 2006
nicht noch weiter gestiegen wären. In vielen der simulierten Szenarien beginnen
die Preise nämlich schon 2005 zu fallen. Um diesem Argument zu begegnen,
untersuchen wir die ex-ante Wahrscheinlichkeiten, dass die Hauspreise sich so
entwickelt haben, wie sie es tatsächlich taten: Wir legen einen Korridor um die
Zeitreihe des HPI vom 3. Quartal 2005 bis zum 3. Quartal 2008. Dieses Band
wird über die Zeit linear breiter. Es wächst von +/- 2% auf +/- 4%. Es ist damit
immer noch sehr eng an der tatsächlichen Entwicklung. Zählt man nun in der
obigen Simulation, wie oft eine simulierte Zeitreihe innerhalb des Korridors lag,
so erhält man bei normalverteilten Innovationen eine Wahrscheinlichkeit von
0,282%. Bei der Bootstrap-Methode erhält man eine Wahrscheinlichkeit von
0,260%, dass die simulierte Zeitreihe innerhalb des Korridors lag. Beide
Wahrscheinlichkeiten liegen damit leicht über der Insolvenzwahrscheinlichkeit
eines mit dem Rating A bewerteten Unternehmens (0,25%). Wegen der fat tails
der schiefen t-Verteilung liegt hier die Wahrscheinlichkeit mit 0,187% leicht unter
0,25%. Die tatsächlich eingetretene Immobilienpreisentwicklung lag damit
38
Beitrag zum Postbank Finance Award 2009
durchaus im Bereich der Möglichkeiten, die Banken im Rahmen ihres
Risikomanagements berücksichtigen sollten.
Nach der Immobilienpreisentwicklung wenden wir uns der US-Arbeitslosenrate
als Indikator für die gesamtwirtschaftliche Entwicklung zu. Die Simulationen sind
in Abbildung 10 dargestellt (genaue Zahlen in Anhang B, Tab. B2-B4):
Abb. 10: Worst-Case-Szenarien für die vierteljährliche US-Arbeitslosenrate UER
8
10
Beobachtung
1%-Worst Case
0.1%-Worst Case
6
UER
12
Normalverteilung
05/Q3
05/Q4
06/Q1
06/Q2
06/Q3
06/Q4
07/Q1
07/Q2
07/Q3
07/Q4
08/Q1
08/Q2
08/Q3
07/Q3
07/Q4
08/Q1
08/Q2
08/Q3
07/Q3
07/Q4
08/Q1
08/Q2
08/Q3
Jahr/Quartal
8
10
Beobachtung
1%-Worst Case
0.1%-Worst Case
6
UER
12
schiefe t-Verteilung
05/Q3
05/Q4
06/Q1
06/Q2
06/Q3
06/Q4
07/Q1
07/Q2
Jahr/Quartal
8
10
Beobachtung
1%-Worst Case
0.1%-Worst Case
6
UER
12
Bootstrap
05/Q3
05/Q4
06/Q1
06/Q2
06/Q3
06/Q4
07/Q1
07/Q2
Jahr/Quartal
Quelle: Eigene Erstellung, eigene Darstellung
Die Beobachtungen der UER haben im 4. Quartal 2006 mit 4,4% ihren
vorläufigen Tiefsstand erreicht. Ausgehend vom 3. Quartal 2005 steigt die UER
bis zum 3. Quartal 2008 um 20% auf 6% an. Vom tiefsten Stand ausgehend, ist es
ein Anstieg um 36,36%. Die Entwicklung der UER konnte wiederum mit den
Worst-Case-Szenarien
aller
drei
Varianten
passend
simuliert
werden
(vgl. Abb. 10). Die extremsten 1%- und 0,1%-Worst-Case-Szenarien brachte
39
Beitrag zum Postbank Finance Award 2009
dabei die Bootstrap-Methode hervor: Sie prognostizierte einen Anstieg der UER
um 81,30% bzw. 124,53% auf 10,12% bzw. 12,53%. Weniger extrem fielen die
simulierten Szenarien der Normalapproximation und der schiefen t-Verteilung
aus.
Ebenso wie bei den Immobilienpreisen zeigt die Szenarioanalyse der USArbeitslosenrate, dass Banken eine Verschlechterung der gesamtwirtschaftlichen
Situation hätten einkalkulieren müssen, die noch schlechter als die tatsächliche
Entwicklung ausfällt.
Der LFS wurde während der empirischen Untersuchung wegen vieler Sprünge
und lokaler Extrema als problematisch eingestuft. Auch die zukünftige
Entwicklung ist gekennzeichnet durch zwei starke Sprünge im Januar und
September 2008. Folglich geht der LFS vom Juli 2005 bis September 2008 um
97,27% nach oben. Ausgehend vom Tiefpunkt im Januar 2008 macht der LFS
einen Sprung um 183,48%.
Zunächst werden die Simulationen mit der Normalverteilungsannahme und den
empirischen Innovationen durchgeführt. Dargestellt wird der Spread als
Verhältnis des L3M zur FFR (genaue Zahlen in Anhang B, Tab. B2 und B4):
Abb. 11: Worst-Case-Szenarien für den monatlichen Zinsspread LFS (I)
Normalverteilung
1%-Worst Case
1.5
0.1%-Worst Case
1.0
L3M / FFR
2.0
Beobachtung
05/07
05/11
06/04
06/09
07/02
07/07
07/12
08/05
07/07
07/12
08/05
Jahr/Monat
Beobachtung
1%-Worst Case
1.5
0.1%-Worst Case
1.0
L3M / FFR
2.0
Bootstrap
05/07
05/11
06/04
06/09
07/02
Jahr/Monat
Quelle: Eigene Erstellung, eigene Darstellung
40
Beitrag zum Postbank Finance Award 2009
In Abbildung 11 ist zu erkennen, dass beide Varianten die extreme Entwicklung
des Zinsspreads nicht erfassen können. Die Normalverteilung kann die
Entwicklung ab Mai 2008 nicht mehr adäquat abbilden. Bei der Simulation mit
den empirischen Innovationen kann nur das 0,999-Quantil die Entwicklung bis
einschließlich August 2008 nachzeichnen. Den extremen Sprung im September
2008 kann keines der vier Worst-Case-Szenarien darstellen.
Im Hinblick auf die hohe Kurtosis und die Schiefe der Modellresiduen des LFS
(vgl. Tab. 5) wird die Simulation mit der schiefen t-Verteilung durchgeführt
(genaue Zahlen in. Anhang B, Tab. B3):
Abb. 12: Worst-Case-Szenarien für den monatlichen Zinsspread LFS (II)
2.0
schiefe t-Verteilung
L3M / FFR
Beobachtung
1%-Worst Case
1.0
1.5
0.1%-Worst Case
05/07
05/11
06/04
06/09
07/02
07/07
07/12
08/05
Jahr/Monat
Quelle: Eigene Erstellung, eigene Darstellung
In Abbildung 12 ist zu erkennen, dass beide Worst-Case-Szenarien die
Entwicklung bis einschließlich August 2008 vorhersagen können. Es fällt das
volatile Verhalten des 0,999-Quantils der simulierten Worst-Case-Szenarien auf,
was u.a. an den fat tails der angepassten Verteilung liegt, wodurch extremere
Beobachtungen wahrscheinlicher werden. Das 0,1%-Worst-Case-Szenario liegt
damit nur geringfügig unter dem tatsächlich eingetretenen Wert. Und selbst wenn
die Worst-Case-Szenarien in diesem Fall deutlich unter den später realisierten
Werten liegen würden, dürfte man die Ergebnisse nicht überinterpretieren. Der
Zinsspread ist kein Faktor, der die Krise auslöste, sondern eine Konsequenz der
41
Beitrag zum Postbank Finance Award 2009
Krise. Wenn sich Banken angemessen auf einen Rückgang der Immobilienpreise
und des Wirtschaftswachstums vorbereitet hätten, wäre es entweder zu keiner
Krise gekommen oder sie wäre deutlich milder verlaufen. Es wird teilweise
angeführt, dass die Liquiditätsproblematik etwas spezifisch Neues der aktuellen
Krise sei. Jedoch zeigen Analysen von Taylor und Williams (2008) und Taylor
(2009), dass der Spread das Insolvenzrisiko der Banken widerspiegelte, also
letztlich eine direkte Konsequenz der Verluste war, die Banken gerade im
Subprime-Bereich erlitten, und auf die sie sich mit entsprechenden Worst-CaseSzenarien hätten vorbereiten können.
42
Beitrag zum Postbank Finance Award 2009
6
Schlussbemerkungen
Seit den 90er Jahren haben Banken und andere Finanzinstitutionen stark in die
Entwicklung interner Risikomanagementsysteme investiert. Szenarioanalysen sind
ein wesentlicher Teil des Risikomanagements. Zum Beispiel schreibt Bear
Stearns, die im März 2008 kollabierte Investmentbank, in jedem ihrer
Geschäftsberichte aus den Jahren 2004-2006: “Stress testing (also referred to as
scenario analysis) measures the risk of loss over a variety of extreme market
conditions that are defined in advance. Stress testing is a key methodology used in
the management of market risk as well as counterparty credit risk.”
Vor diesem Hintergrund ist zu fragen, warum Banken sich nicht auf einen
Zusammenbruch der US-Immobilienpreise sowie den damit ausgelösten
Wertverlust von Hypotheken und darauf vergebener Wertpapiere vorbereiteten.
Dass ein Immobiliencrash den Hypothekenmarkt massiv beeinflussen würde, war
den meisten Marktteilnehmern klar (vgl. Gerardi et al., 2008). Offenbar lag das
Problem vielmehr darin, dass man das Risiko eines Immobiliencrashs
unterschätzte. Dies wird wiederum von vielen Beobachtern darauf zurückgeführt,
dass die verfügbare Datenhistorie zu kurz war. Sie enthielt keine Crashs, und es
war somit schwer oder gar unmöglich, das Risiko korrekt einzuschätzen. Ein
solches Argument wird oft mit einer grundsätzlichen Kritik an der Verlässlichkeit
von Risikomodellen verbunden, da diese fast ausnahmslos auf der Analyse
historischer Daten aufbauen (vgl. z.B. Taleb, 2007).
Um die Validität dieser Sicht zu untersuchen, haben wir uns gedanklich in das
Jahr 2005 zurückversetzt, als die Aufwärtsbewegung am US-Immobilienmarkt
noch im Gange war. Wir machten genau das, was Banken wie Bear Stearns
vorgegeben haben zu tun: Szenarien für die Zukunft zu generieren. Was wir
herausfanden, ist überraschend. Mit üblichen Prognoseverfahren hätte man im
Jahr 2005 Szenarien generiert, die teilweise deutlich schlechter als die später
tatsächlich eingetretenen Situationen ausfallen. Die Eintrittswahrscheinlichkeit
dieser
Szenarien
ist
so
hoch,
dass
Banken
sie
im
Rahmen
ihres
Risikomanagements hätten berücksichtigen müssen.
Bei der Generierung der Szenarien haben wir verschiedene Verfahren und
Annahmen verwendet und die Vorgehensweise durch zahlreiche Tests
abgesichert. Dies sollte nicht in der Weise falsch interpretiert werden, dass eine
solche Szenarioanalyse einen technischen Aufwand erfordert, der das in
43
Beitrag zum Postbank Finance Award 2009
Finanzinstitutionen typischerweise vorhandene Know-How übersteigt. Das, was
Modellierer vielleicht als erstes tun würden, wenn sie schnell eine Risikoprognose
abgeben sollen, nämlich normalverteilte Innovationen anzunehmen und das
Zeitreihenmodell ohne weitere Tests nach üblichen Kriterien auszuwählen, würde
bei den Immobilienpreisen sogar zu den extremsten Ergebnissen führen. Um
solche Szenarien zu generieren, braucht man keine rocket scientists.
Insgesamt betrachtet kann man aus unseren Untersuchungen ableiten, dass der
Rückgang der Immobilienpreise in den USA sowie die anschließende
Verschlechterung
der
wirtschaftlichen
Lage
die
Marktteilnehmer
nicht
unvorbereitet hätte treffen müssen. Sie hätten sich schon 2005 oder früher darauf
einstellen können und sollen: durch eine Erhöhung der Kreditvergabestandards,
einer Verringerung ihres Engagements im Immobilienmarkt, einer Erhöhung des
Eigenkapitals und einer generellen Zurückhaltung bei der Übernahme von
Risiken. Vielleicht wäre die Krise dadurch verhindert worden. Auf jeden Fall aber
wäre sie nicht so schwer ausgefallen.
Diese Erkenntnisse sind sehr wichtig, wenn man sich der Frage zuwendet, wie
zukünftige Krisen vermieden werden können. Sollte man Finanzinstitutionen
strenger als bisher regulieren und viel vorsichtiger gegenüber Finanzinnovationen
sein, da es offenbar nicht möglich ist, die relevanten Risiken mit den vorhandenen
Modellen korrekt zu messen? Wir sind anderer Auffassung. Die für die
Entstehung
der
aktuellen
Krise
relevanten
Risiken
hätten
sich
mit
Standardverfahren korrekt quantifizieren lassen. Diese Beobachtung stützt sich
dabei nicht nur auf die eben beschriebene Szenarioanalyse. Im ersten Teil unserer
Arbeit kamen wir auf ganz anderem Weg zu ähnlichen Ergebnissen. Ein Blick in
die Entscheidungsprozesse der kollabierten Hypothekenfinanzierer Fannie Mae
und Freddie Mac zeigt, dass die Vorstände mehrfach Warnungen ihrer
Risikomanager beiseite schoben. Eine Analyse der Literatur zur Subprime-Krise
offenbarte, dass dort zwar vielfach Komplexität, Intransparenz und Strukturbrüche
in den Vordergrund gestellt werden. Jedoch belegen andere Studien überzeugend,
dass Marktteilnehmer das Risiko ihrer Engagements trotz aller Innovationen und
Komplexitäten richtig erfasst haben bzw. leicht hätten erfassen können.
Diese Beobachtungen bedeuten natürlich nicht, dass es keinen Reformbedarf in
Bezug auf Risikomanagement und Regulierung gibt. Man sollte aber an
geeigneter Stelle ansetzen. Es wäre unseres Erachtens falsch, Regulierung auf
44
Beitrag zum Postbank Finance Award 2009
einem Misstrauen gegenüber der traditionellen Risikomodellierung aufzubauen.
Aufsichtsbehörden sollten vielmehr stärker darauf achten, dass bestehende
Risikomesssysteme auch tatsächlich angewendet werden. Im Folgenden führen
wir einige mögliche Ansatzpunkte auf:
•
Stärkere Anforderungen an die Transparenz, insbesondere was interne
Szenarien für wichtige Risikofaktoren angeht. Wie an dem obigen Zitat
aus den Bear Stearns Geschäftsberichten deutlich geworden ist, haben sich
Banken lange Jahre damit gebrüstet, ein gutes Risikomanagement zu
betreiben. Dies war für Außenstehende aber kaum nachzuprüfen. Hier
würde es z.B. schon helfen, dass Banken ihre Worst-Case-Szenarien
veröffentlichen und dokumentieren, inwiefern sie diesen auch widerstehen
könnten.
•
Änderung der Vergütungsstruktur und Stärkung des Risikomanagements.
Die in der Presse oft kritisierte Struktur der Bonuszahlungen hat mit dazu
beigetragen, dass Manager Rendite über Risiko stellten. Änderungen in
diesem
Bereich
können
daher
wichtig
sein,
um
eine
bessere
Berücksichtigung von Risiken sicherzustellen. Eine Stärkung des
Risikomanagements
könnte
auch
dadurch
erfolgen,
dass
Risikomanagementabteilungen intern organisatorisch aufgewertet werden.
•
Anti-zyklische Eigenkapitalanforderungen. Auch in Zukunft lässt sich
wahrscheinlich nicht vermeiden, dass Marktteilnehmer in Boomzeiten eher
die Renditechancen als die damit verbundenen Risiken sehen. Zu tief ist
im Menschen offenbar der Glaube an Trends und die Überschätzung der
eigenen Fähigkeiten verankert (vgl. z.B. Shiller, 2003). Die Lösung dieses
Problems besteht wohl nicht darin, dass Aufsichtsbehörden Bankmanagern
die Teilnahme an Kursen über Behavioral Finance verordnen. Eine Lösung
könnte
aber
darin
bestehen,
dass
man
in
Boomzeiten
höhere
Anforderungen an die Eigenkapitalanforderung stellt. Dies würde – da
man sich dann ja in einem Boom befindet – die Wirtschaft kaum belasten,
aber dafür sorgen, dass ausreichende Reserven für den nächsten
Abschwung aufgebaut werden.
45
Beitrag zum Postbank Finance Award 2009
Anhang A1: Stochastische Zeitreihenmodellierung
Definition A1.1 (Stochastischer Prozess)
Ein stochastischer Prozess ist eine Familie von Zufallsvariablen Y(ω,t) mit ω Є Ω
und t Є T auf einem Wahrscheinlichkeitsraum [Ω, A, P], mit einer beliebigen,
aber nicht zufälligen Indexmenge T aus den reellen Zahlen (vgl. Rinne, Specht
2002, S. 157).
Definition A1.2 (Mittelwert)
µ t := E Ω {Y (ω , t )}
Definition A1.3 (Varianzfunktion)
σ t2 := E Ω {[Y (ω , t ) − µ t ] 2 }
Definition A1.4 (Autokovarianzfunktion)
γ (t1 , t 2 ) := E Ω {[Y (ω , t1 ) − µ t ][Y (ω , t 2 ) − µ t ]}
1
2
Definition A1.5 (Autokorrelationsfunktion)
ρ (t1 , t 2 ) :=
γ (t1 , t 2 )
σt σt
1
2
Definition A1.6 (Schwache Stationarität)
Ein stochastischer Prozess heißt schwach stationär, wenn gilt:
(1)
µ t := µ∀t
(2)
γ (t1 , t 2 ) := γ l ∀t 2 − t1 = l .
und
Theorem A1.7
Besitzt das charakteristische Polynom eines Prozesses die Einheitswurzel als
Nullstelle, so liegt ein nichtstationärer Prozess vor.
(zum Beweis vgl. z.B. Schlittgen/ Streitberg, 2001, S. 113ff.)
46
Beitrag zum Postbank Finance Award 2009
Definition A1.8 (White-Noise-Prozess)
Sei Z t ein diskreter unkorrelierter stochastischer Prozess mit Erwartungswert
Null und konstanter Varianz. Dann ist Z t ein White-Noise-Prozess (Weißes
Rauschen).
Definition A1.9 (MA(q)-Prozess)
Sei Z t ein White-Noise-Prozess.
Ein stochastischer Prozess heißt MA(q)-Prozess, wenn er die Darstellung
Yt = Z t + ψ 1 Z t −1 + ψ 2 Z t − 2 + ... + ψ q Z t − q
besitzt.
Definition A1.10 (AR(p)-Prozess)
Sei Z t ein White-Noise-Prozess.
Ein stochastischer Prozess heißt AR(p)-Prozess, wenn er die Darstellung
Yt = π 1Yt −1 + π 2Yt − 2 + ... + Z t
besitzt.
Definition A1.11 (Differenz)
Die erste Differenz von Yt ist gegeben durch
Wt := Yt − Yt −1 = ∇Yt .
Dabei ist ∇ der Differenzenoperator Nabla.
Die weiteren Differenzen erhält man rekursiv.
Bem. zur Maximum-Likelihood-Methode:
Die Maximum-Likelihood-Methode ist ein parametrisches Verfahren, bei dem
man anhand der Beobachtungen schätzt, welche Parameter für ein Modell am
wahrscheinlichsten sind (vgl. Schlittgen/ Streitberg, 2001, S. 269ff). Dazu
betrachtet man die sog. Likelihood-Funktion
L(θ | x) := p ( x | θ )
und maximiert diese.
Der ML-Schätzer θˆ ist dann gegeben durch:
θˆ = arg max L(θ | x)
θ
47
Beitrag zum Postbank Finance Award 2009
Anhang A2: Bemerkungen zum Bootstrap-Algorithmus
Zum Bootstrap
Der Bootstrap ist eine computerbasierte Methode, um Aussagen über die
Genauigkeit
von
statistischen
Schätzern
zu
erhalten,
also
z.B.
die
Standardabweichung eines Schätzers oder Konfidenzintervalle für unbekannte
Parameter (vgl. Boos 2003).
1. Betrachte eine Stichprobe {x1, , x 2 ,..., x n } von unabhängigen Datenpunkten,
im Folgenden als Vektor: x = ( x1, , x 2 ,..., x n ) beschrieben.
2. Erzeuge aus der Stichprobe B Bootstrap-Stichproben x * = ( x1* , x 2* ,..., x n* )
durch n-maliges Ziehen mit Zurücklegen aus der ursprünglichen
Stichprobe.
Typische Werte für B liegen zwischen 50 und 200.
3. Berechne die Statistiken s ( x *1 ) , s ( x *2 ) ,…, s ( x *B ) der BootstrapStichproben.
4. Berechne
die
Schätzung
für
den
Standardfehler
aus
der
Standardabweichung der Statistiken (vgl. Efron/ Tibshirani, 1993, S. 10ff).
Der Vorteil der Methode liegt darin, dass die Anforderungen an die Stichprobe
wesentlich geringer sind als bei herkömmlichen statistischen Methoden. So
können schon relativ kleine Stichproben behandelt werden, bei denen z.B. der
zentrale Grenzwertsatz noch keine Schlüsse von der Stichprobe auf die
Grundgesamtheit zulässt (vgl. Shikano 2005, S. 1).
Zur Inferenz-Statistik
Mithilfe des Bootstraps kann man auch Konfidenzintervalle schätzen, so bspw.
Perzentil-Intervalle: Für diese einfache, aber gleichzeitig rechenintensive Methode
benötigt man etwa 1000 Bootstrap-Stichproben (vgl. Shikano 2005, S. 3f).
Das (1 − α ) -Konfidenzintervall für den Parameter θ ist gegeben durch:
(A2.1)
(θˆlow , θˆup ) = (θˆ
α
*( )
2
, θˆ
α
*(1− )
2
).
48
Beitrag zum Postbank Finance Award 2009
Dabei
θˆ
α
*( )
2
θˆ
ist
(1),θˆ
α
*( )
2
α
*( )
2
(2),...,θˆ
α
das
2
-Perzentil
der
Bootstrap-Stichprobe
α
*( )
2
( B) .
Zu BCa-Intervallen
Falls die betrachtete Statistik schief verteilt oder verzerrt ist, wird die sog. Biascorrected and accelerated-Methode (BCa) verwendet (vgl. Efron/ Tibshirani, 1993,
S. 184ff).
Das (1 − α ) -Konfidenzintervall für den Parameter θ ist gegeben durch:
(A2.2)
(θˆlow , θˆup ) = (θˆ *(α1 ) , θˆ *(α 2 ) )
(A2.2a)
α
( )




zˆ 0 + z 2
α 1 = Φ zˆ 0 +

α
( )

2
1 − aˆ ( zˆ 0 + z ) 

(A2.2b)
α
(1− )




zˆ 0 + z 2
α 2 = Φ zˆ 0 +
.
α
(1− )

1 − aˆ ( zˆ 0 + z 2 ) 

wobei
Φ (⋅) steht hier für die kumulierte Verteilungsfunktion der Standardnormal-
verteilung, und z (α ) ist das α − Quantil der Standardnormalverteilung.
Der Parameter â gibt die Beschleunigung (engl. acceleration) an:
(A2.3)
∑
aˆ =
6{∑
n
i =1
(θˆ(⋅) − θˆ(i ) ) 3
(θˆ(⋅) − θˆ(i ) ) 2
i =1
n
}
3/ 2
ẑ0 dient zur Korrektur der Verzerrung (engl. bias-correction), und wird so
berechnet:
(A2.4)
 # {θˆ * (b) < θˆ 
.
ˆz 0 = Φ −1 


B


Für â = ẑ0 = 0 erhalten wir das gleiche Intervall wie bei der Perzentil-Methode.
49
Beitrag zum Postbank Finance Award 2009
Anhang B: Tabellen
Tab. B1
Modellselektion mit Selektionskriterien
2
∇ (ln(HPI))
AICl
p
0
1
2
3
SBCl
p
0
1
2
3
1
∇ (ln(UER))
q
0
-741,64
-752,22
-784,43
-784,09
1
-779,58
-778,14
-784,72
-785,66
2
-779,04
-779,85
-783,03
-783,93
3
-783,10
-781,11
-783,23
-783,15
0
-741,64
-752,43
-778,84
-775,70
q
1
2
-776,78 -773,45
-772,55 -771,46
-776,33 -771,85
-774,48 -769,95
3
-774,72
-769,93
-769,25
-766,37
AICl
p
0
1
2
3
SBCl
p
0
1
2
3
ln(L3M)-ln(FFR)
q
0
-451,91
-460,33
-458,89
-457,30
1
-446,38
-458,78
-457,04
-455,40
2
-454,31
-457,52
-455,76
-463,65
3
-459,40
-457,45
-459,62
-461,50
0
-415,91
-457,54
-453,30
-448,91
q
1
2
-443,58 -448,72
-453,19 -449,13
-448,65 -444,58
-444,21 -449,67
3
-451,02
-446,27
-445,65
-444,73
AICl
p
0
1
2
3
SBCl
p
0
1
2
3
q
0
-585,30
-826,67
-824,82
-824,11
1
-728,77
-824,86
-822,67
-825,75
2
-780,39
-825,42
-825,28
-818,67
3
-796,57
-826,30
-821,92
-822,63
0
-578,29
-816,15
-810,80
-806,59
q
1
2
-718,25 -766,37
-810,84 -807,90
-805,15 -804,25
-804,71 -794,13
3
-779,04
-805,27
-797,38
-794,58
Quelle: Eigene Erstellung, eigene Darstellung
50
Beitrag zum Postbank Finance Award 2009
Tab. B2
Risikoszenarien mit Normalapproximation
ARI(2,2;ln(HPI))
Q3/ 2005
Beobachtung
Q4/ 2005
Q1/ 2006
Q2/ 2006
Q3/ 2006
Q4/ 2006
Q1/ 2007
Q2/ 2007
Q3/ 2007
Q4/ 2007
Q1/ 2008
Q2/ 2008
Q3/ 2008
350,979301 357,659156 362,272545 359,887494 361,410511 369,820005 368,494463 362,199027 359,437031 358,354801 353,565781 340,604564 327,676736
1%-Worst-Case
342,800972 342,720160 343,316797 341,795363 339,300410 336,891499 333,664531 329,308788 324,983383 321,203873 315,204882 310,591915 303,934998
0,1%-Worst-Case
340,747090 339,159826 337,874773 334,715130 330,411602 324,399502 319,382126 312,938000 305,532051 299,352033 290,111832 285,286017 275,081964
ARI(1,1;ln(UER))
Beobachtung
Q3/ 2005
Q4/ 2005
Q1/ 2006
Q2/ 2006
Q3/ 2006
Q4/ 2006
Q1/ 2007
Q2/ 2007
Q3/ 2007
Q4/ 2007
Q1/ 2008
Q2/ 2008
Q3/ 2008
5,000000
4,900000
4,700000
4,700000
4,700000
4,400000
4,500000
4,500000
4,700000
4,800000
4,900000
5,400000
6,000000
1%-Worst-Case
5,463699
5,832119
6,210968
6,601328
7,012884
7,368961
7,746547
8,087640
8,428305
8,739384
9,065534
9,368618
9,699864
0,1%-Worst-Case
5,596698
6,127762
6,644842
7,194417
7,724878
8,306077
8,799361
9,382901
9,772276
10,091519
10,578856
11,226801
11,657796
AR(1;ln(L3M)-ln(FFR))
Beobachtung
07/ 2005
08/ 2005
09/ 2005
10/ 2005
11/ 2005
12/ 2005
01/ 2006
02/ 2006
03/ 2006
04/ 2006
05/ 2006
06/ 2006
07/ 2006
1,134969
1,105714
1,122928
1,126984
1,105000
1,090445
1,090909
1,074053
1,089325
1,070981
1,060350
1,098323
1,043059
1%-Worst-Case
1,276477
1,297519
1,306314
1,306106
1,301893
1,300865
1,297266
1,296783
1,291037
1,292577
1,289517
1,289037
1,286821
0,1%-Worst-Case
1,317085
1,355843
1,371181
1,368329
1,369600
1,372254
1,365584
1,361657
1,360619
1,355428
1,355880
1,361296
1,362737
08/ 2006
09/ 2006
10/ 2006
11/ 2006
12/ 2006
01/ 2007
02/ 2007
03/ 2007
04/ 2007
05/ 2007
06/ 2007
07/ 2007
08/ 2007
1,028095
1,022857
1,022977
1,022857
1,022901
1,020952
1,016755
1,017110
1,020000
1,020952
1,020952
1,018757
1,119771
Beobachtung
1%-Worst-Case
1,287136
1,283636
1,286171
1,285059
1,285230
1,282201
1,283138
1,283066
1,282799
1,282519
1,284380
1,283384
1,284163
0,1%-Worst-Case
1,354779
1,351914
1,354130
1,353118
1,349810
1,346100
1,349539
1,351800
1,347757
1,353288
1,360143
1,353374
1,348700
09/ 2007
10/ 2007
11/ 2007
12/ 2007
01/ 2008
02/ 2008
03/ 2008
04/ 2008
05/ 2008
06/ 2008
07/ 2008
08/ 2008
09/ 2008
1,058451
1,028099
1,142817
1,109080
0,789817
1,026007
1,029935
1,250000
1,353854
1,391565
1,388682
1,405315
2,238950
Beobachtung
1%-Worst-Case
1,281795
1,281469
1,281220
1,283661
1,281794
1,282021
1,282025
1,283298
1,282747
1,282463
1,282047
1,280922
1,282383
0,1%-Worst-Case
1,351425
1,348010
1,353617
1,354764
1,347008
1,351258
1,347139
1,351020
1,351121
1,351921
1,353781
1,347346
1,351282
Quelle: Eigene Erstellung, eigene Darstellung
51
Beitrag zum Postbank Finance Award 2009
Tab. B3
Risikoszenarien mit einer schiefen t-Verteilung
ARI(2,2;ln(HPI))
Q3/ 2005
Beobachtung
Q4/ 2005
Q1/ 2006
Q2/ 2006
Q3/ 2006
Q4/ 2006
Q1/ 2007
Q2/ 2007
Q3/ 2007
Q4/ 2007
Q1/ 2008
Q2/ 2008
Q3/ 2008
350,979301 357,659156 362,272545 359,887494 361,410511 369,820005 368,494463 362,199027 359,437031 358,354801 353,565781 340,604564 327,676736
1% Worst Case
343,678614 343,977642 345,117313 344,434517 343,023769 341,736988 339,570052 336,270927 333,785111 329,612697 326,663527 321,275702 317,263382
0,1% Worst Case
341,086728 339,463423 340,107174 337,446267 334,236891 329,960473 324,890736 319,850406 315,036625 308,228598 303,568782 298,091910 291,791539
ARI(1,1;ln(UER))
Beobachtung
Q3/ 2005
Q4/ 2005
Q1/ 2006
Q2/ 2006
Q3/ 2006
Q4/ 2006
Q1/ 2007
Q2/ 2007
Q3/ 2007
Q4/ 2007
Q1/ 2008
Q2/ 2008
Q3/ 2008
5,000000
4,900000
4,700000
4,700000
4,700000
4,400000
4,500000
4,500000
4,700000
4,800000
4,900000
5,400000
6,000000
1%-Worst-Case
5,620150
6,083558
6,501856
6,878569
7,282165
7,692851
7,989702
8,292194
8,584262
8,885292
9,127006
9,452712
9,771147
0,1%-Worst-Case
6,096547
6,809803
7,506730
8,246601
8,763127
9,386762
9,840128
10,293809
10,816583
11,192294
11,419723
12,528704
12,499460
AR(1;ln(L3M)-ln(FFR))
Beobachtung
07/ 2005
08/ 2005
09/ 2005
10/ 2005
11/ 2005
12/ 2005
01/ 2006
02/ 2006
03/ 2006
04/ 2006
05/ 2006
06/ 2006
07/ 2006
1,134969
1,105714
1,122928
1,126984
1,105000
1,090445
1,090909
1,074053
1,089325
1,070981
1,060350
1,098323
1,043059
1%-Worst-Case
1,393544
1,446131
1,474098
1,471763
1,470384
1,467960
1,470512
1,458339
1,456225
1,449659
1,454665
1,454592
1,448043
0,1%-Worst-Case
2,000130
2,028592
2,173993
2,173817
2,169385
2,119121
2,375585
2,235777
2,168351
2,171708
2,115558
2,034526
1,982689
08/ 2006
09/ 2006
10/ 2006
11/ 2006
12/ 2006
01/ 2007
02/ 2007
03/ 2007
04/ 2007
05/ 2007
06/ 2007
07/ 2007
08/ 2007
1,028095
1,022857
1,022977
1,022857
1,022901
1,020952
1,016755
1,017110
1,020000
1,020952
1,020952
1,018757
1,119771
Beobachtung
1%-Worst-Case
1,437606
1,450922
1,454876
1,440616
1,444006
1,439801
1,452760
1,450096
1,443856
1,444090
1,453930
1,434240
1,440018
0,1%-Worst-Case
2,073775
2,142784
2,255242
2,025820
1,970978
2,022762
2,054942
2,152367
2,230114
2,112796
2,042114
2,040810
1,989894
09/ 2007
10/ 2007
11/ 2007
12/ 2007
01/ 2008
02/ 2008
03/ 2008
04/ 2008
05/ 2008
06/ 2008
07/ 2008
08/ 2008
09/ 2008
1,058451
1,028099
1,142817
1,109080
0,789817
1,026007
1,029935
1,250000
1,353854
1,391565
1,388682
1,405315
2,238950
Beobachtung
1%-Worst-Case
1,461550
1,434554
1,448769
1,448562
1,445426
1,444955
1,445031
1,451595
1,449382
1,443229
1,447360
1,448196
1,444344
0,1%-Worst-Case
2,101814
2,042045
2,182284
2,207885
2,030590
2,070059
2,063973
2,196586
2,106915
2,097618
2,033563
2,031714
2,084203
Quelle: Eigene Erstellung, eigene Darstellung
52
Beitrag zum Postbank Finance Award 2009
Tab. B4
Risikoszenarien mit der Bootstrap-Methode
ARI(2,2;ln(HPI))
Q3/ 2005
Beobachtung
Q4/ 2005
Q1/ 2006
Q2/ 2006
Q3/ 2006
Q4/ 2006
Q1/ 2007
Q2/ 2007
Q3/ 2007
Q4/ 2007
Q1/ 2008
Q2/ 2008
Q3/ 2008
350,979301 357,659156 362,272545 359,887494 361,410511 369,820005 368,494463 362,199027 359,437031 358,354801 353,565781 340,604564 327,676736
1% Worst Case
343,508834 343,810429 344,468572 344,002829 341,652279 339,973247 337,238756 333,060159 329,152258 325,269989 320,626593 316,191147 308,954610
0,1% Worst Case
343,479233 340,945331 339,740625 338,345305 333,909592 328,932436 324,687587 317,738107 313,529170 305,775853 297,996830 290,748893 281,737362
ARI(1,1;ln(UER))
Beobachtung
Q3/ 2005
Q4/ 2005
Q1/ 2006
Q2/ 2006
Q3/ 2006
Q4/ 2006
Q1/ 2007
Q2/ 2007
Q3/ 2007
Q4/ 2007
Q1/ 2008
Q2/ 2008
Q3/ 2008
5,000000
4,900000
4,700000
4,700000
4,700000
4,400000
4,500000
4,500000
4,700000
4,800000
4,900000
5,400000
6,000000
1%-Worst-Case
5,582214
5,994133
6,439893
6,854942
7,277432
7,641502
8,094595
8,468595
8,768752
9,080499
9,444808
9,791979
10,120304
0,1%-Worst-Case
5,582214
6,353211
7,064420
7,565737
8,193239
8,808981
9,529925
10,016366
10,700319
11,035358
11,529118
12,298317
12,533980
AR(1;ln(L3M)-ln(FFR))
Beobachtung
07/ 2005
08/ 2005
09/ 2005
10/ 2005
11/ 2005
12/ 2005
01/ 2006
02/ 2006
03/ 2006
04/ 2006
05/ 2006
06/ 2006
07/ 2006
1,134969
1,105714
1,122928
1,126984
1,105000
1,090445
1,090909
1,074053
1,089325
1,070981
1,060350
1,098323
1,043059
1%-Worst-Case
1,328553
1,368223
1,365967
1,364245
1,357033
1,355683
1,349055
1,347865
1,346485
1,346521
1,339265
1,334328
1,334675
0,1%-Worst-Case
1,411906
1,458421
1,472255
1,479043
1,477161
1,464570
1,473291
1,465296
1,466683
1,457797
1,457782
1,438693
1,444136
08/ 2006
09/ 2006
10/ 2006
11/ 2006
12/ 2006
01/ 2007
02/ 2007
03/ 2007
04/ 2007
05/ 2007
06/ 2007
07/ 2007
08/ 2007
1,028095
1,022857
1,022977
1,022857
1,022901
1,020952
1,016755
1,017110
1,020000
1,020952
1,020952
1,018757
1,119771
Beobachtung
1%-Worst-Case
1,333692
1,335789
1,333509
1,335113
1,332977
1,334607
1,331240
1,337840
1,334103
1,328685
1,332355
1,334913
1,329121
0,1%-Worst-Case
1,431992
1,457966
1,449963
1,455104
1,476366
1,448878
1,446104
1,438610
1,452961
1,459845
1,443515
1,447241
1,445972
09/ 2007
10/ 2007
11/ 2007
12/ 2007
01/ 2008
02/ 2008
03/ 2008
04/ 2008
05/ 2008
06/ 2008
07/ 2008
08/ 2008
09/ 2008
1,058451
1,028099
1,142817
1,109080
0,789817
1,026007
1,029935
1,250000
1,353854
1,391565
1,388682
1,405315
2,238950
Beobachtung
1%-Worst-Case
1,331538
1,332429
1,335773
1,331517
1,328762
1,331497
1,332011
1,331010
1,331701
1,332355
1,337155
1,331886
1,334030
0,1%-Worst-Case
1,439486
1,447289
1,447054
1,452513
1,437492
1,454593
1,446027
1,447035
1,450217
1,442294
1,456251
1,449870
1,448079
Quelle: Eigene Erstellung, eigene Darstellung
53
Beitrag zum Postbank Finance Award 2009
Literaturverzeichnis
AKAIKE, H. (1974): A new Look at the Statistical Model Identification. IEEE
Transactions on Automatic Control, Vol.19, S. 716–723.
ARNDT, J./ HAENEL, C. (1999): Pi – Algorithmen. Computer, Arithmetik. Springer
Verlag, 2. Auflage.
BAIR, S. C. (2007): Possible Responses to Rising Mortgage Foreclosures. Hearing
before the Committee on Financial Services, U.S. House of Representatives, Apr.
2007.
BETHEL, J. E./ FERRELL, A./ HU, G. (2008): Law and Economics Issues in
Subprime Litigation. Working Paper, März 2008.
BOOS, D. D. (2003): Introduction to Bootstrap World. Statistical Science, Vol. 18,
S. 168-174.
BRUNNERMEIER, M. K. (2008): Deciphering the 2007-08 Liquidity and Credit
Crunch. Working Paper, Mai 2008.
Chakravarti, I. M. (1967): Handbook of Methods of Applied Statistics Volume 1:
Techniques of Computation, Descriptive Methods and Statistical Inference. John
Wiley und Söhne, Auflage ohne Angabe.
CHATTERJEE, S. (1986): Bootstrapping ARMA models: Some simulations.
Systems, Man and Cybernetics, IEE Transactions on Systems, Vol. 16,
S. 294-299.
COUNTERPARTY RISK MANAGEMENT POLICY GROUP (HRSG.) (2005): Toward
Greater Financial Stability: A Private Sector Perspective. Counterparty Risk
Management Policy Group II, Juli 2005.
54
Beitrag zum Postbank Finance Award 2009
CROUHY, M. G./ JARROW, R. A./ TURNBULL, S. M. (2008): The Subprime Credit
Crisis of 07. Working Paper, Juli 2008.
DEMYANYK, Y./ VAN HEMERT, O. (2008): Understanding the Subprime Mortgage
Crisis. Working Paper, Dez. 2008.
DEUTSCHE BUNDESBANK (HRSG.) (2004): Monatsbericht April 2004. Jahrgang 56,
Nr. 4, S. 1-58.
EFFENBERGER, D. (2004): Kreditderivate: Die Wirkung auf die Stabilität der
Finanzmärkte. Deutsche Bank Research, Nr. 293.
EFRON, B./ TIBSHIRANI, R. J. (1986): Bootstrap Method for Standard Errors,
Confidence Intervals and Other Measures of Statistical Accuracy. Statistical
Science, Vol. 1, S. 54-75.
EFRON, B./ TIBSHIRANI, R. J. (1993): An Introduction to the Bootstrap. Chapman
and Hall, Auflage ohne Angabe.
EGGERT, K. (2007): Limiting Abuse and Opportunism by Mortgage Servicers.
Housing Policy Debate, Vol. 15, S. 753-784.
FAIR ISAAC CORPORATION (Hrsg.) (2007): Understanding Your FICO® Score.
URL:
http://www.myfico.com/Downloads/Files/myFICO_UYFS_Booklet.pdf
(Abrufdatum: 31.10.2008).
FINKE, M./ HUSTON, S./ SIMAN, E./ CORLIJA, M. (2005): Characteristics of Recent
Adjustable-rate Mortgage Borrowers. Financial Counseling and Planning, Vol.
16, S.17-28.
GERARDI, K./ LEHNERT, A./ SHERLAND, S./ WILLEN, P. (2008): Making Sense of
the Subprim Crisis. Working Paper, Dez. 2008.
55
Beitrag zum Postbank Finance Award 2009
GIBSON, M. (2004): Understanding the Risk of synthetic CDOs. Working Paper,
Juli 2004..
GORTON, G. B. (2008): The Panic of 2007. Working Paper, Aug. 2008.
GREENLAW, D./ HATZIUS, J./ KASHYAP, A./ SHIN, H. S. (2008): Leveraged Losses:
Lessons from the Mortgage Market Meltdown. U.S. Monetary Policy Forum, Feb.
2008.
INTERNATIONAL MONETARY FUND (HRSG.) (2008): Global Financial Stability
Report – Containing Systemic Risks and Restoring Financial Soundness.
International Monetary Fund.
KAMINSKY, G. L./ REINHART, C. M. (1999): The Twin Crises: The Causes of
Banking and Balance-of-Payments Problems. American Economic Review, Vol.
89, S. 473-500.
KIFF, J./ MILLS, P. (2007): Money for nothing and checks for free: Recent
developments in U.S. Subprime Mortgage Markets. IMF Working Paper, Juli
2007.
KÜNSCH, H. R. (1989): The Jackknife and the Bootstrap for General Stationary
Observations. The Annals of Statistic, Vol. 17, S. 1217-1241.
KWIATKOWSKI, D./ PHILLIPS, P. C. B./ SCHMIDT, P./ SHIN, Y. (1992): Testing the
Nullhypothesis of Stationary against the Alternative of a Unit Root. Journal of
Ecnonmetrics, Vol. 54, S. 225-234.
LJUNG, G. M./ BOX, G. E. P. (1978): On a Measure of Lack of Fit in Time Seires
Models. Biometrika, Vol. 65, S. 297-303.
LORENZO, P./ ROMO, J./ RUIZ, E. (2004): Bootstrap Predictive Inference for
ARIMA Processes. Journal of Time Series Analysis, Vol. 25, S. 449-465.
56
Beitrag zum Postbank Finance Award 2009
NETO, A. C./ SOUZA, R. C. (1996): A Bootstrap Simulation Study in ARMA(p,q)
Structures. Journal of Forecasting, Vol. 15, S. 343-353.
OFFICE
OF
THRIFT SUPERVISION (HRSG.) (2003): Examination Handbook. Office
of Thrift Supervision.
PATTON, A./ POLITIS, D. N./ WHITE, H. (2008): Correction to “Automatic BlockLength Selection for the Dependent Bootstrap”. Working Paper, Jan. 2008.
POLITIS, D. N./ ROMANA, J. P. (1994): The Stationary Bootstrap. Journal of the
American Statistical Association, Vol. 1989, S. 1303-1313.
POLITIS, D. N./ WHITE, H. (2003): Automatic Block-Length Selection for the
Dependent Bootstrap. Working Paper, Feb. 2003.
REINHART, C. M./ ROGOFF, K. S. (2008): Is the 2007 U.S. Sub-Prime Financial
Crisis so Different? An International Historical Comparison. The American
Economic Review, Vol. 98, S. 339-344.
RINNE, H./ SPECHT, K. (2002): Zeitreihen – Statistische Modellierung, Schätzung
und Prognose. Verlag Vahlen, Auflage ohne Angabe.
SACHVERSTÄNDIGENRAT (HRSG.) (2007): Jahresgutachten 2007/08: Das erreichte
nicht
Verspielen.
Sachverständigenrat
zur
Begutachtung
der
gesamtwirtschaftlichen Entwicklung, Statistisches Bundesamt, Wiesbaden 2007.
SCHLITTGEN, R./ STREITBERG, B. H. J. (2001): Zeitreihenanalyse. R. Oldenburg
Verlag, 9. Auflage.
SCHWARZ, G. (1978): Estimating the Dimension of a Model. The Annals of
Statistic, Vol. 6, S. 461-464.
SHIKANO, S. (2005): Bootstrap and Jackknife. Working Paper, Dez. 2005.
57
Beitrag zum Postbank Finance Award 2009
SHILLER, R. J. (2003): From Efficient Markets Theory to Behavioral Finance.
Journal of Economic Perspectives, Vol. 17, S. 83-104.
STANDARD AND POOR’S (2005): Annual global corporate default study: Corporate
defaults poised to rise in 2005. Standard and Poor’s.
TALEB, N. N. (2007): The Black Swan: The Impact of Highly Improbable.
Random House, 1. Auflage.
TAYLOR, J. B. (2008): The Financial Crisis and the Policy Response: An
Empirical Analysis of What Went Wrong. Working Paper, Nov. 2008.
TAYLOR, J. B./ WILLIAMS J. C. (2008): A Black Swan in the Money Market.
Working Paper, April 2008.
58
Beitrag zum Postbank Finance Award 2009