Wissenschaftsförderung der Sparkasse Vest Recklinghausen

Transcription

Wissenschaftsförderung der Sparkasse Vest Recklinghausen
Wissenschaftsförderung
der Sparkasse Vest Recklinghausen
Die Preisträger
Erste Konsequenzen aus der Finanzmarktkrise für das
Management von Liquiditätsrisiken in Kreditinstituten
Dipl.-Ökonomin Esther Uhe
Seite 9
Die Limitierung von Branchenexposures unter besonderer
Berücksichtigung der Risikobeiträge aus Collateralized
Debt Obligations
Dipl.-Kaufmann Jan Matysik
Seite 23
Die Operationalisierung des Ziels Preisniveaustabilität
durch die Europäische Zentralbank
– Darstellung und kritische Würdigung
Jan Benedikt Kleibrink, Bachelor of Arts
Seite 41
Determinanten der räumlichen Verteilung von
Gesundheitswirtschaft in Deutschland
Dipl.-Ökonom Tim Glittenberg
Seite 53
Bewertung eines nicht-börsennotierten Unternehmens am
praktischen Beispiel einer Private Equity Beteiligung
Kathrin Koziel, Bachelor of Laws
Seite 65
Wissenschaftsförderung
der Sparkasse Vest Recklinghausen
Die Preisträger
Herausgeber:
Sparkasse Vest Recklinghausen
Herzogswall 5
45657 Recklinghausen
Inhalt
Erste Konsequenzen aus der Finanzmarktkrise für das
Management von Liquiditätsrisiken in Kreditinstituten
Dipl.-Ökonomin Esther Uhe
Seite 9
Die Limitierung von Branchenexposures unter besonderer
Berücksichtigung der Risikobeiträge aus Collateralized
Debt Obligations
Dipl.-Kaufmann Jan Matysik Seite 23
Die Operationalisierung des Ziels Preisniveaustabilität
durch die Europäische Zentralbank
– Darstellung und kritische Würdigung
Jan Benedikt Kleibrink, Bachelor of Arts
Seite 41
Determinanten der räumlichen Verteilung von
Gesundheitswirtschaft in Deutschland
Dipl.-Ökonom Tim Glittenberg
Seite 53
Bewertung eines nicht-börsennotierten Unternehmens am
praktischen Beispiel einer Private Equity Beteiligung
Kathrin Koziel, Bachelor of Laws
Seite 65
Die Preisträger der Wissenschaftspreise 1997-2008
Seite 81
4
Wissenschaftsförderung der
Sparkasse Vest Recklinghausen
Kontinuität und Innovation sind zwei wesentliche Pfeiler unserer Geschäftspolitik. Kontinuität bedeutet vor allem in unseren Kundenbeziehungen berechenbarer und verlässlicher
Partner zu sein. Oft über viele Jahre dauernde Beratung und Betreuung unserer Kunden
durch bekannte Mitarbeiter schaffen die Vertrauensbasis für eine dauerhafte erfolgreiche
Zusammenarbeit. Kontinuität und Verlässlichkeit gilt es aber auch insgesamt in der
Geschäftspolitik und gegenüber unseren weiteren externen Partnern sicher zu stellen. Innovationsbereitschaft und –fähigkeit gewährleisten hierbei, dass die Sparkasse attraktiver
und moderner Partner bleibt. Innovationsbereitschaft setzt Aufgeschlossenheit gegenüber
neuen Entwicklungen – auch in übergeordneten Themengebieten – voraus.
Im Jahr 1997 wurden erstmals fünf Wissenschaftspreise der Sparkasse Vest Recklinghausen ausgeschrieben. In enger Kooperation mit Universitäten in Bochum und Münster sowie
der Fachhochschule Gelsenkirchen hat es sich bereits zu einer kleinen Tradition entwickelt,
in jedem Jahr sehr gute bzw. gute Diplom- oder Doktorarbeiten mit bank- bzw. sparkassenspezifischen Themenstellungen auszuzeichnen. Auch in diesem Engagement sehen wir
einen Baustein unserer Geschäftsphilosophie: Fair. Menschlich. Nah. Dabei steht hier die
Nachhaltigkeit der wirtschaftlichen und sozialen Entwicklung in unserer Region im Vordergrund unserer Bemühungen. Eine Verantwortung der wir uns nicht entziehen und zu der wir
nun schon seit vielen Jahren als verlässlicher Partner und Förderer stehen.
Auch in diesem Jahr freuen wir uns, wieder fünf Preisträger für ihre sehr guten wissenschaftlichen Arbeiten auszeichnen zu können. Wir danken den Preisträgern für Ihre außergewöhnlich gelungenen Beiträge sowie den Lehrstühlen, ohne die diese Preisverleihung
nicht möglich ist.
Preisträger und Vertreter der Lehrstühle bei der Preisverleihung
5
6
Die Themen:
Nachfolgend ein kurzer Überblick über die Themen, mit denen sich die diesjährigen Preisträger der Wissenschaftsförderung der Sparkasse Vest Recklinghausen befasst haben:
Die erste bankwissenschaftliche Arbeit setzt sich mit dem Thema der „Konsequenzen
aus der Finanzmarktkrise für das Management von Liquiditätsrisiken in Kreditinstituten“
auseinander. Eingereicht wurde die Diplomarbeit am Lehrstuhl für Finanzierung und
Kreditwirtschaft an der Ruhr-Universität Bochum und zielt darauf ab, Lösungsansätze zur
Weiterentwicklung des Managements von Liquiditätsrisiken unter Einbeziehung geeigneter
Stress-Tests und Notfallplanungen zu finden.
Autorin: Dipl.-Ökonomin Esther Uhe
Mit der „Limitierung von Branchenexposures unter besonderer Berücksichtigung der Risikobeiträge aus Collateralized Debt Obligations“ befasst sich die zweite bankwissenschaftliche Arbeit, die am Institut für Kreditwesen - Westfälische Wilhelms-Universität Münster
eingereicht wurde. Analysiert wurde in dieser Diplomarbeit, auf welche Weise branchenspezifische Risiken, die sich aus Collateralized Debt Obligations ergeben, in die Branchenlimitierung einer Bank eingebunden werden können.
Autor: Dipl.-Kaufmann Jan Matysik
Bei den volkswirtschaftlichen Themenstellungen wurde in diesem Jahr erstmals eine
Bachelorarbeit ausgewählt, die sich mit dem Thema „Operationalisierung des Ziels Preisniveaustabilität durch die Europäische Zentralbank“ beschäftigt. Dabei wird insbesondere
auch auf die politischen Vorgaben des EG-Vertrages eingegangen. Nominiert wurde diese
Arbeit vom Lehrstuhl für Theoretische Volkswirtschaftslehre der Ruhr-Universität Bochum.
Autor: Jan Benedikt Kleibrink, Bachelor of Arts
Mit den „Determinanten der räumlichen Verteilung von Gesundheitswirtschaft in
Deutschland“ setzt sich die zweite volkswirtschaftliche Arbeit auseinander. In dieser Arbeit
wird die Gesundheitswirtschaft als die größte und innovativste Branche Deutschlands
beschrieben. Im Fokus steht die Analyse regionaler Standortfaktoren und deren Wirkung auf
die Standortwahl von bereits agierenden Unternehmen, sowie auf Unternehmen, die ihren
Einstieg planen. Diese Diplomarbeit wurde von der Ruhr-Universität Bochum nominiert.
Eingereicht wurde sie am Lehrstuhl für Wirtschaftspolitik.
Autor: Dipl.-Ökonom Tim Glittenberg
Mit der „Bewertung eines nicht-börsennotierten Unternehmens am praktischen Beispiel
einer Private Equity Beteiligung“ hat der Fachbereich Wirtschaftsrecht der Fachhochschulabteilung Recklinghausen auch in diesem Jahr wieder ein weiteres, mehr als aktuelles Thema ausgewählt. So wurden in Deutschland 2008 über 1.100 Projekte durch Beteiligungskapital in Höhe von 8,4 Mrd. € finanziert. Dieser Hintergrund zeigt die hohe praktische Relevanz des Themas der Unternehmensbewertung.
Autorin: Kathrin Koziel, Bachelor of Laws
7
8
Dipl.-Ökonomin Esther Uhe
geboren am 26. Oktober 1983
Erste Konsequenzen aus der Finanzmarktkrise für das Management von
Liquiditätsrisiken in Kreditinstituten
Diplomarbeit, eingereicht im Sommer 2008
bei Professor Dr. Stephan Paul
Lehrstuhl für Finanzierung und Kreditwirtschaft
Ruhr-Universität Bochum
Aufgrund latenter Vertrauensverluste zwischen den Kreditinstituten
geriet die kurzfristige Liquiditätsüberlassung im Inter-Banken-Handel
während der zweiten Jahreshälfte 2007 ins Stocken. Als Auslöser galt die
zunehmende Unsicherheit über schwebende Bewertungsverluste und Liquiditätsbedarfe im Zusammenhang mit syndizierten US-Hypothekenanleihen
geringer Bonität (Subprimes). Die Europäische Zentralbank reagierte auf
die Verknappung der Liquiditätsströme im Inter-Banken-Handel mit großvolumigen Tendern um negative Impulse für die Finanzmärkte abzuschwächen. In diesem Zusammenhang wird den Banken unterstellt, über keine
zeitgemäßen Systeme zur Messung von Liquiditätsrisiken zu verfügen.
Somit zielt die Arbeit darauf ab, Lösungsansätze zur Weiterentwicklung des
Managements von Liquiditätsrisiken unter Einbeziehung geeigneter StressTests und Notfallplanungen zu finden.
Es wird aufgezeigt, dass die Unsicherheit unter den Finanzmarktteilnehmern weiterhin Bestand hat und darauf verwiesen, dass mehrere Institutionen Reformen bezüglich Regulierung, Risikomanagement und Bilanzvorschriften für Banken fordern. Erste Ansätze sollten darin bestehen, so die
Autorin, die Liquiditätsrisiken in die Gesamtbanksteuerung zu integrieren,
die Stressmodelle gezielt weiter zu entwickeln und weitreichende Krisenpläne zu implementieren. Des Weiteren wird eine Stärkung der qualitativen
Aufsicht sowie eine Reform der Mindestanforderungen an das Eigenkapital gefordert. Ratsam erscheint ein Risikomanagement der Banken, das
Liquiditätsfazilitäten sowie Risiken aus strukturierten Finanzprodukten
berücksichtigt. Positiv wertet die Autorin insbesondere die Forderung nach
erweiterten Offenlegungspflichten der Institute bezüglich der Verbriefungsformen, der angewendeten Bewertungsregeln und der außerbilanziellen
Verpflichtungen. Darüber hinaus könnte eine weitere Stabilisierung des
Finanzmarktsystems auch erreicht werden, wenn der Originator der Verbriefung einen Teil des Risikos in seiner Bilanz behält.
Erste Konsequenzen aus der Finanzmarktkrise für das Management
von Liquiditätsrisiken in Kreditinstituten
1. Einleitung
Aufgrund latenter Vertrauensverluste zwischen den Kreditinstituten geriet die kurzfristige
Liquiditätsüberlassung im Inter-Banken-Handel während der zweiten Jahreshälfte 2007
ins Stocken. Als Auslöser jenes zurückhaltenden Agierens galt die zunehmende Unsicherheit über schwebende Bewertungsverluste und Liquiditätsbedarfe im Zusammenhang
mit syndizierten US-Hypothekenanleihen geringer Bonität (Subprimes). Die Europäische
Zentralbank (EZB) hat daraufhin wiederholt mit großvolumigen Tendern auf dieses von
vielen Marktteilnehmern unerwartete „Austrocknen“ der Liquiditätsströme im Inter-BankenHandel reagiert. Damit gelang es der Notenbank die branchenweite Notwendigkeit zur
Liquidierung von Finanzaktiva mit möglicherweise negativen Impulsen für die Finanzmärkte erheblich abzuschwächen. Wäre eine derartige Abschwächung nicht möglich gewesen,
wären weit mehr Institute mit Liquiditätsrisiken bis hin zur Zahlungsunfähigkeit, konfrontiert gewesen. Liquiditätsrisiken in diesem Sinne werden in operationelle und strukturelle
Liquiditätsrisiken untergliedert. Operationelle Risiken betreffen die Sicherung der kurzfristigen Zahlungsfähigkeit, wobei strukturelle Liquiditätsrisiken die optimale längerfristige
(Zeitraum über einem Jahr) Liquiditätssteuerung betreffen. In diesem Zusammenhang
wird den Banken u.a. vorgeworfen, über keine zeitgemäßen Systeme zum Management von
Liquiditätsrisiken verfügt zu haben.
Vor diesem Hintergrund war es das Ziel der Verfasserin…
1 …zunächst geeignete Kriterien zu identifizieren, anhand derer eine Verknappung von
Liquiditätsströmen zwischen den Banken festgemacht werden kann,
2. …mit Blick auf 2007 die Maßnahmen der EZB zur Sicherstellung einer ausreichenden
Liquidität der Banken herauszustellen und sowohl Effektivität als auch Effizienz bei der
„Verarbeitung“ durch den Markt anhand geeigneter Indikatoren zu bewerten sowie
3. …marktübliche Modelle zum Management von Liquiditätsrisiken in Banken zu systematisieren und vor dem Hintergrund der dargestellten Liquiditätskrise in 2007 als Ausgangspunkt von Innovationsansätzen kritisch zu würdigen.
Auf Basis dieser vorbereitenden Teilschritte zielt die Arbeit darauf ab, Lösungsansätze
zur Weiterentwicklung des Managements von Liquiditätsrisiken in Kreditinstituten unter
Einbeziehung geeigneter Stress-Tests und Notfallplanungen aufzuzeigen.
10
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2008
2. Gang der Untersuchung
Beim Gang der Untersuchung orientiert sich die Verfasserin am dreigliedrigen Risikokreislauf aus Risikoanalyse, -steuerung und -kontrolle. Die Adaption der Gliederung der
vorliegenden Arbeit an den Risikokreislauf wird in Abbildung 1 dargestellt.
Abbildung 1: Risikomanagement als Prozessgefüge1
Die Untersuchung beginnt mit der Analyse der Subprimekrise als Ausgangssituation der
Konsequenzen für das Liquiditätsmanagement von Banken. Im Anschluss werden im dritten
Kapitel grundlegende theoretische Abgrenzungen und Definitionen des Liquiditäts- und
Risikobegriffes dargestellt. Angelehnt an die Risikoanalyse erfolgen die Risikoidentifikation
und -deskription sowie die Risikoklassifizierung und eine Darstellung der Wechselwirkungen zwischen banktypischen Risikoarten. In Kapitel 4 untersucht die Diplomandin den
Interbankenmarkt als eine Hauptdeterminante des Liquiditätsmanagements von Banken
1 Eigene Darstellung, in Anlehnung an Paul, S./Süchting, J. (1998), S. 481.
11
Erste Konsequenzen aus der Finanzmarktkrise für das Management
von Liquiditätsrisiken in Kreditinstituten
sowie die institutionellen Rahmenbedingungen der Europäischen Zentralbank als Hauptakteur für den Interbankenmarkt.
Der Schwerpunkt der Diplomarbeit liegt auf den Kapiteln 5 und 6. Im ersten Teil des fünften Kapitels erfolgt die Entwicklung und Systematisierung geeigneter Indikatoren für die
Verknappung der Liquiditätsströme auf dem Interbankenmarkt. Diese werden im Zuge der
Subprimekrise durch eine empirische und eine deskriptive Analyse auf ihre Tragfähigkeit
hin untersucht. Im zweiten Teil des fünften Kapitels werden die Reaktionen der EZB auf die
Krise beschrieben und im Rahmen einer Ereignisstudie und einer Analyse von Marktreaktionen bezüglich ihrer Effektivität sowie ihrer Effizienz bewertet. Anschließend erfolgt die
Darstellung erster Ansatzpunkte zur Verbesserung des Liquiditätsmanagements in Form
von Frühwarnsystemen durch Nutzung der zuvor erarbeiteten Indikatoren. Beim Übergang
zum sechsten Kapitel der vorliegenden Arbeit wechselt die Perspektive von einer gesamtwirtschaftlichen Sicht auf die der Risikosteuerung einzelner Kreditinstitute. Auf Grundlage
der Darstellung der betriebswirtschaftlichen, rechtlichen und regulatorischen Anforderungen werden die Praktiken des Liquiditätsmanagements systematisiert und bewertet. Des
Weiteren werden Verbesserungspotenziale für die Einbettung des Liquiditätsmanagements
in die Gesamtbanksteuerung, die Durchführung von Stresstests sowie die Entwicklung
von Notfallplänen analysiert und Ansätze für mögliche Weiterentwicklungen dargestellt.
Dieser Schritt stellt im dargestellten Risikoprozessgefüge die Risikokontrolle dar. Die Arbeit
schließt mit einer Synopse und einem Ausblick zur weiteren Entwicklung des Liquiditätsmanagements von Banken. Dabei werden einige aktuelle Forderungen bezüglich der Veränderungen dieses Managements und der regulatorischen Grundlagen kritisch diskutiert.
Die vorliegende Kurzfassung der Diplomarbeit orientiert sich nach einer kurzen Darstellung der Finanzmarktkrise als Einstieg, strukturell sowie thematisch an den Ergebnissen der
drei zentralen Untersuchungsschwerpunkten: Interbankenmarkt, Bewertung der Maßnahmen der EZB sowie der Analyse der Liquiditätsrisikosysteme der Kreditinstitute.
3. Ursachen der jüngsten Finanzmarktkrise und Folgen für die Kreditwirtschaft
Seit Juli 2007 ist es auf dem globalen Finanzmarkt zu erheblichen Turbulenzen gekommen, in deren Zentrum der Verbriefungsmarkt steht.2 Der Ursprung der Krise liegt auf dem
Markt für zweitklassige Hypothekenkredite in den USA, den sog. Subprime Mortgages, die
der Krise ihren Namen gaben.3 Seit Mitte/Ende 2006 kam es erstens zu einem Preisverfall
auf den amerikanischen Immobilienmärkten und zweitens durch Leitzinserhöhungen für
viele schwächere Kreditnehmer zu nicht mehr leistbaren Kapitaldiensten. Das Streben nach
steigenden Gewinnen trieb viele Finanzinstitute zusätzlich dazu, höhere sowie neuartige
Risiken in Form komplexer Verbriefungen jener Subprime-Mortgages einzugehen.4
Die andersartigen Risiken sowie die Komplexität dieser Finanzinstrumente stellen hohe
Anforderungen an die Bewertung und Steuerung der Risiken durch das Risikomanagement
der Banken. Diesen Anforderungen sind viele Risikomanagementsysteme internationaler
Banken nicht gewachsen. Ein weiteres Problem stellt die unzureichende Abbildung der eingegangenen Risiken in den Bilanzen der Kreditinstitute dar. Diese haben die Transaktionen
nicht auf ihre eigenen Bilanzen gebucht, sondern sie über Zweckgesellschaften (SPVs),
sogenannte Conduits, abgewickelt. Es kommt somit zu einer systematischen Unterschätzung des Liquiditätsrisikos durch die Banken, die weder die außerbilanziellen Verpflichtungen ausreichend in das Liquiditätsrisikomanagement einbeziehen noch das Risiko durch
2 Vgl. Senior Supervisors Group (2008), S. 1 sowie International Monetary Fund (2008), S. 86.
3 Vgl. Deutsche Bundesbank (2007), S. 8.
4 Vgl. Hagedorn, D. (2007), S. 21f.
12
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2009
fehlende Nachfrage bei der Anschlussfinanzierung der langlaufenden Verbriefungen mit
kurzfristigen Commercial Paper angemessen berücksichtigen.5 Diese Faktoren bildeten den
Nährboden der Subprimekrise.
Ausgelöst durch die Unsicherheit über mögliche Risiken zwischen den Akteuren auf dem
Interbankenmarkt entstand eine globale Vertrauenskrise, aufgrund derer sich die Liquiditätsanspannungen schrittweise auf weitere Marktsegmente ausbreiteten.6 Der Internationale Währungsfonds (IWF) hat den Abschreibungsbedarf bereits im April 2008 weltweit wie
folgt geschätzt (rund ein Jahr später, am 21.04.2009 schätzt der IWF diese Summe nun auf
4 Billionen US-Dollar):7
Wirtschaftssektor
Verlustvolumen
(Mrd. US-$)
Prozent des
Gesamtvolumens
Banken
440 - 510
45 - 54 %
Versicherer
105 - 130
11 - 14 %
90 - 160
12 - 14 %
Pensionskassen
Öffentl. Körperschaften, Regierungen
40 - 140
5 - 12 %
Sonstige (Hedge Funds, etc.)
110 - 200
14 - 18 %
Summe
ca. 945
100%
Tabelle 1: Verlustverteilung aufgrund der Subprimekrise8
4. Kriterien zur Messung und Bewertung von Liquiditätsanspannungen auf dem Interbankenmarkt vor dem Hintergrund der Subprimekrise
Der Interbankenmarkt dient dem kurz- und langfristigen Liquiditätsausgleich sowie der
Verknüpfung der Geschäftsbereiche der einzelnen Finanzinstitute und Bankengruppen. Die
Geber- und Nehmerpositionen der Bankengruppen auf dem Interbankenmarkt sind vornehmlich durch ihre typischen Geschäftsfelder, ihre Einbindung in die Gesamtorganisation
(bei Genossenschaftsbanken und Sparkassen) und die Struktur des Nichtbankengeschäfts
geprägt. Sie stellen dabei spiegelbildlich die Strukturen ihres Geschäftes mit Nichtbanken
dar. Institute mit Einzahlungsüberschüssen aus dem Geschäft mit Nichtbanken (z.B. Privatkunden) können diese Überschüsse am Interbankenmarkt an andere Institute verleihen.9
Die größten Überschusssektoren sind dabei Sparkassen, Kreditgenossenschaften und
Kreditbanken während Realkreditinstitute, genossenschaftliche Zentralbanken, Landesbanken, Bausparkassen und Banken mit Sonderaufgaben die Defizitsektoren darstellen. Die
Nehmerposition der Banken mit Sonderaufgaben spiegelt ihre Funktion als Förderinstitut
des Staates (z.B. Existenzgründerhilfen, Investitionskredite und Umweltschutz) wider.
Landesbanken übernehmen u.a. die Funktion von Liquiditätsspeichern und der
5 Vgl. Financial Stability Forum (2008), S. 5f. und Hagedorn, D. (2007), S. 23. Auch die Ratingagenturen sind
in Verbindung mit der Subprimekrise in Kritik geraten, da sie die betroffenen Finanzinstrumente nicht
risikoadäquat beurteilt haben. Vgl. Osman, Y. (2008).
6 Vgl. Deutsche Bundesbank (2007), S. 8.
7 Vgl. International Monetary Fund (2008), S. X.
8 Vgl. International Monetary Fund (2008), S. 12.
9 Vgl. Deutsche Bundesbank (2000), S. 50 und S. 54.
13
Erste Konsequenzen aus der Finanzmarktkrise für das Management
von Liquiditätsrisiken in Kreditinstituten
Fristentransformation indem sie kurzfristige Kredite der Sparkassen in langfristige Einlagen transformieren. Sie sind demnach unter dem Blickwinkel der kurzfristigen Geldströme
dem Liquiditätsdefizitsektor zuzuordnen. Weitere Akteure, die auf dem Interbankenmarkt
überschüssige Liquidität zur Verfügung stellen sind Zweigstellen ausländischer Banken,
Auslandsbanken und Großbanken und Regionalbanken, als Teil der Kreditbanken.
Tabelle 2: Kredite zwischen Banken: 3-Jahresdurchschnitt (2005-2007)10
Die Messung der Marktliquidität auf dem Interbankenmarkt und das frühzeitige Aufspüren von Liquiditätsanspannungen sind wesentliche Grundvoraussetzungen für ein erfolgreiches Liquiditätsmanagement der Kreditinstitute. Eine vorausschauende Quantifizierung
der Liquidität auf den Finanzmärkten erweist sich, besonders in angespannten Marktsituationen, als äußerst schwierig.11 Es sollen im Folgenden Kriterien gefunden werden, die
bezüglich der Dimensionen Tiefe, Breite und Stabilität eines Marktes die Liquidität auf dem
Interbankenmarkt abbilden und Liquiditätsanspannungen frühzeitig signalisieren.
10 Quelle: Deutsche Bundesbank (2008), Bankenstatistik Nr. 4, S. 17-19.
11 Vgl. International Monetary Fund (2008), S. 87; Tang, Dragon Y./Yan, H. (2007), S. 16 sowie zur Vertiefung
Sauerbier, P. (2006), S. 3-5.
14
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2009
Wie in Abbildung 2 dargestellt, lassen sich solche Indikatoren in vier Gruppen gliedern:
Abbildung 2: Indikatoren zur Messung der Liquidität auf dem Interbankenmarkt12
5. Die Maßnahmen der EZB als Reaktion auf die Subprimekrise
Kreditinstitute übernehmen eine wichtige Funktion bei der Transmission der monetären
Impulse der EZB in die Realwirtschaft und erfüllen eine Mittlerrolle zwischen den herausgestellten finanziellen Überschuss- und Defizitsektoren des Interbankenmarktes. Aufgrund der
Wichtigkeit seiner Funktionen und der fundamentalen Bedeutung von Vertrauen im bankbetrieblichen Prozess stellt der Finanzsektor einen besonders schutzbedürftigen Sektor in
der Gesamtwirtschaft dar.13 Ziel der institutionellen Rahmenbedingungen und speziell der
EZB ist es daher, die ordnungsmäßige Durchführung von Bankgeschäften zu sichern, sowie
eine Systemkrise und damit verbundene erhebliche Nachteile für die Gesamtwirtschaft zu
verhindern.14 Allgemein zielt die EZB neben niedriger, stabiler Inflation auf ein strapazierfähiges Finanzsystem und minimale systemische Risiken für das Übergreifen von negativen
Impulsen einzelner Institute auf das globale Finanzsystem. Kurzfristig sollte die Zentralbank
die Liquidität auf den Finanzmärkten sichern, so dass das Funktionieren des Handels zwischen Wirtschaftsobjekten reibungslos verläuft.15
12
13
14
15
Eigene Darstellung.
Vgl. Blåvarg, M./Nimander, P. (2002), S. 287, sowie Keine, F.-M. (1986), S. 31f.
Vgl. Moch, N. (2007), S. 19 sowie Keine, F.-M. (1986), S. 31f.
Vgl. Cecchetti, S. (2007), S. 7.
15
Erste Konsequenzen aus der Finanzmarktkrise für das Management
von Liquiditätsrisiken in Kreditinstituten
Dem Eurosystem und der EZB steht ein breiter Handlungsrahmen an geldpolitischen
Instrumenten zur Verfügung. Eine Zentralbank steuert die kurzfristigen Geldmarktsätze
durch Signale für den Finanzsektor sowie durch die Liquiditätsversorgung am Geldmarkt.16
Da die EZB für den Euroraum das Monopol als Anbieter der monetären Basis besitzt, nutzt
sie u.a. dieses Instrument zur Durchsetzung ihrer geldpolitischen Ziele. Bei der Geschäftstätigkeit der EZB geht es vorrangig darum, das reibungslose Funktionieren des Geldmarktes
und eine ausreichende Liquiditätsversorgung des Finanzsystems zu gewährleisten. Um
Liquiditätsschwankungen bei Kreditinstituten auszugleichen stellt sie regelmäßig Refinanzierungsmittel sowie Fazilitäten zur Verfügung.17
Die EZB hat auf die Anspannungen auf dem Interbankenmarkt reagiert und ist ihrer Funktion als Lender of Last Resort nachgekommen. Ihre Maßnahmen zielten auf die Annäherung
des Niveaus der Geldmarktzinssätze an das Zinsniveau des Hauptrefinanzierungsgeschäftes
und auf die Gewährleistung der Funktionsfähigkeit des Geldmarktes ab.18 Diese Maßnahmen wurden bezüglich ihrer Effektivität sowie ihrer Effizienz beurteilt.
Die Analyse der Effektivität der Maßnahmen der EZB erfolgte in Anlehnung an die Vorgehensweise einer Ereignisstudie19 anhand von zwei stellvertretenden Operationen der EZB
als Reaktion auf die Subprimekrise. Die Effizienz der Maßnahmen wurde demgegenüber
deskriptiv untersucht. Generell werden die Maßnahmen der EZB positiv bewertet, wenngleich eine Signifikanz für alle Parameter nicht festgestellt werden kann. Dies verdeutlicht
die Notwendigkeit konzentrierter und kombinierter Maßnahmen zur Eindämmung der
Liquiditätsanspannungen.
6. Liquiditätsmanagement in Kreditinstituten
Das Liquiditätsmanagement von Banken basiert auf dem Zielsystem aus Rentabilität,
Liquidität und Sicherheit, den Grundpfeilern der Bankpolitik.20 In der vorliegenden Untersuchung stellt die Verfasserin die folgenden modernen Verfahren zur Liquiditätssteuerung
kritisch dar: das Standardverfahren nach der Liquiditätsverordnung, Liquiditätsablaufbilanzen, die eine Art Cash-Flowrechnung, bzw. Gapanalyse der Ein- und Auszahlungen in
bestimmten Laufzeitbändern darstellen sowie Liquidity-at-Risk-Modelle als Vertreter der
stochastischen Verfahren, die an dem Modell des Value-at-Risk angelehnt sind.
Vor dem Hintergrund der Subprimekrise zeigen alle beschriebenen Verfahren, wenn auch
in unterschiedlicher Relevanz und Stärke, Mängel zur Bestimmung und Steuerung des
Liquiditätsrisikos.
Das Standardverfahren impliziert die Annahme, dass die Angemessenheit der Liquiditätsposition primär von dem Ausmaß der zu erwartenden Zahlungsströme, dem Bestand
an liquiden Aktiva sowie den Refinanzierungsmöglichkeiten bestimmt wird.21 Es erfolgt
eine Fokussierung auf Abruf- und kurzfristige Refinanzierungsrisiken, so dass langfristige
Refinanzierungsrisiken, die im Zuge der Subprimekrise durch erhöhte Fristentransformation und eine erhebliche Erhöhung des Gesamtrisikos besondere Bedeutung erlangt haben,
nicht berücksichtigt werden. Zu dieser Problematik gehört auch die Erfassung bilanzunwirksamer Geschäfte, speziell Derivate, die im Zentrum der Finanzmarktkrise stehen.22
16
17
18
19
20
21
22
16
Vgl. Europäische Zentralbank (2004), S. 75.
Vgl. Europäische Zentralbank (2004), S: 76.
Vgl. Trichet, J.-C. (2008).
Zur allgemeinen Vorgehensweise einer Ereignisstudie vgl. MacKinlay, A. C. (1997), S. 14-16.
Vgl. Fürer (1990), S. 56. Zur Vertiefung der Problematik siehe auch Zeranski, S. (2007), S. 39-43.
Vgl. Bundesaufsichtsamt für das Kreditwesen (BAKred) (2001), S. 4.
Vgl. Moch, N. (2007), S. 61.
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2009
Die Erfassung dieser Risiken wird nach dem Standardansatz nicht vollumfassend gewährleistet. Problematisch wird diese unzureichende Risikoerfassung besonders bei neuartigen
und komplexen Risiken durch Finanzinnovationen, die derzeit stark an Bedeutung und Volumen gewinnen. Weitere Nachteile des Standardansatzes bilden der kurzfristige Zeithorizont
von einem Jahr sowie die fehlende Aussage über bestehende Restrisiken. Im Zuge der
Finanzmarktkrise wird deutlich, dass die Anspannungen auf dem Interbankenmarkt mittelbis langfristig bestehen bleiben und die Folgen daraus ein Jahr und somit den Planungshorizont der Liquiditätsverordnung überschreiten. Auch das Risiko eines Großabrufes von
Einlagen, welches im Zuge der Krise die englische Bank Northern Rock betraf, wird in der Liquiditätsverordnung nicht berücksichtigt. Zusammenfassend kann bei dem Standardansatz
lediglich von einer unzureichenden Abbildung des Liquiditätsrisikos gesprochen werden
und somit auch von einer ungenügenden Sicherstellung der jederzeitigen Zahlungsfähigkeit.23
Liquiditätsablaufbilanzen eignen sich im direkten Vergleich, unter Berücksichtigung
jüngster Entwicklungen, deutlich besser zur Liquiditätsrisikosteuerung als der Standardansatz. Von Vorteil sind hier u.a. die Möglichkeit zum Einbezug von Stresstests und Szenarioanalysen. Speziell Szenarioanalysen erlauben die Verknüpfung der Liquiditätsrisiken mit
erfolgsorientierten Zielgrößen, bspw. durch eine Simulation erhöhter Refinanzierungskosten.24 Die Verwendung interner, nicht bilanzorientierter Daten gewährleistet den Einbezug
aller liquiditätswirksamen Zahlungen, wobei teilweise Schwierigkeiten bei der Berücksichtigung und Modellierung stochastischer Zahlungsströme auftreten. Positiv zu beurteilen ist
die Fähigkeit von Liquiditätsablaufbilanzen, auch über Laufzeiten > 1 Jahr, Liquiditätsengpässe frühzeitig aufzudecken und renditeoptimal zu behandeln. Bestehende Restrisiken
und Wahrscheinlichkeiten für Liquiditätsabflüsse werden auch in der Zahlungsstrombilanz
nicht angegeben.25 Die Stärken der Liquiditätsablaufbilanzen liegen in der langfristigen
Steuerung der Liquidität, während für das kurzfristige Liquiditätsmanagement und die
Sicherstellung der jederzeitigen Zahlungsfähigkeit ein Sicherheitspuffer notwendig ist.
Im Gegenzug zu den zuerst analysierten Verfahren erreicht der Liquidity at Risk eine
statistische Genauigkeit bei der Bestimmung des Liquiditätsrisikos und ermöglicht einen
Einbezug von Wahrscheinlichkeitsaussagen in das Liquiditätsmanagement.26 Es bleibt
allerdings der Einwand der fehlenden Möglichkeit des Einbezugs von Stresstests erhalten.
Obwohl der LaR extreme Liquiditätsanforderungen modelliert und schätzt, besteht die
Möglichkeit der Szenariovariation nicht. Weitere Nachteile ergeben sich durch die fehlende
Integration des Modells in die Gesamtbanksteuerung und andererseits durch die mangelnde kontinuierliche Überprüfung der Werthaltigkeit und des Liquiditätsgrades „liquider“
Aktiva. Besonders vor dem Hintergrund der Subprimekrise wurden Wertpapiere sowie Verbriefungsinstrumente als äußerst liquide eingestuft, obwohl sie aufgrund starker Anspannungen auf dem Sekundärmarkt und fehlender Absatzmöglichkeiten kaum noch bzw. nur
mit hohen Preisabschlägen liquidierbar waren. Ein Nachteil der statistischen Schätzung des
Risikos liegt darin, dass die Risiken zwar statistisch quantifiziert werden, es dadurch allerdings einerseits zu einer Fehleranfälligkeit wie z.B. durch Sondersituationen oder zu kurze
Datenhistorien kommen kann und andererseits das Verfahren keine Erkenntnisse bezüglich
23
24
25
26
Vgl. Moch, N. (2007), S. 62f.
Vgl. hierzu sowie im Folgenden Moch, N. (2007), S. 69f.
Vgl. Zeranski, S. (2007), S. 86.
Vgl. Zeranski, S. (2005), S. 247.
17
Erste Konsequenzen aus der Finanzmarktkrise für das Management
von Liquiditätsrisiken in Kreditinstituten
der originären Ursachen der Risiken hervorbringt, was für eine zielgerichtete Steuerung der
Liquidität unerlässlich ist.27
Aus betriebswirtschaftlicher Perspektive ist dieses Modell dennoch den ersteren vorzuziehen, da es ein kurzfristiges Liquiditätsoptimum durch die statistisch fundierte Schätzung
nahezu erreicht und zugleich eine langfristige renditeoptimale Strukturierung der Liquiditätspositionen unter gegebener Risikoneigung der Anwender ermöglicht.
Durch die abschließende Beurteilung der Liquiditätsablaufbilanzen und des Liquidity-atRisk erschließt sich die Kombination beider Methoden als sinnvoll. Da die Zahlungsstrombilanz erhebliche Vorteile für den langfristigen Analysehorizont aufweist, sollte sie mit
dem kurzfristig fundierten LaR verknüpft werden, um die jederzeitige Zahlungsfähigkeit zu
gewährleisten und die Stärken beider Verfahren nutzbar zu machen.
Die folgende Abbildung systematisiert die Praktiken zum Liquiditätsmanagement der
Kreditinstitute und bietet einen guten Überblick über den Entwicklungsstand der verschiedenen Methoden. Die aus einer aktuell von der Verfasserin in Zusammenarbeit mit dem ikf°
durchgeführten Befragung einzelner Kreditinstitute zum Stand ihres Liquiditätsmanagements gewonnenen neuen Erkenntnisse werden durch das rote Symbol dargestellt.
Abbildung 3: Systematisierung verschiedener Verfahren des Liquiditätsmanagements28
27 Vgl. Moch, N. (2007), S. 79f. sowie Zeranski, S. (2005), S. 211.
28 In Anlehnung an Zeranski, S. (2006), S. 2.
18
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2009
Vor allem bei der Entwicklung und Durchführung von Stresstests sollten Maßnahmen zur
Verbesserung ergriffen werden z.B. durch die Berücksichtigung außerbilanzieller Verpflichtungen und die Aggregation verschiedener Szenarien zur Berücksichtigung der Risikokorrelationen.
Bei der Bewältigung von Krisen in Form von Liquiditätsnotfallplänen ergeben sich Verbesserungspotenziale im Bereich der Langfristigkeit der Pläne sowie in der Anpassung der
Maßnahmen auf die der Notfallsituation zugrundeliegenden Krise. Des Weiteren sollte ein
Einbezug der entwickelten Frühwarnindikatoren zur Messung von Liquiditätsanspannungen
in die Liquiditätssicherungssysteme stattfinden.
Neben den dargestellten Optimierungspotenzialen bezüglich Stresstests und Liquiditätsnotfallplänen erscheint die Einbettung des Liquiditätsrisikomanagements in die Gesamtbanksteuerung noch wenig fortgeschritten und sollte durch verschiedene Maßnahmen, wie
bspw. die Aggregation der Risikopositionen unter Einbezug des Liquiditätsrisikos zu einer
Gesamtrisikoposition, gefördert werden.
7. Ausblick
Die Unsicherheit unter den Finanzmarktakteuren ist aufgrund des Fortbestehens der
Krise weiterhin hoch.29 Um das Vertrauen der Marktteilnehmer sowie die Stabilität des
Bankensystems zu fördern und dadurch zukünftige systemische Krisen zu vermeiden,
fordern mehrere Institutionen Reformen bezüglich Regulierung, Risikomanagement und
Bilanzvorschriften für Banken. Dabei sollten erste Ansätze darin bestehen, die Liquiditätsrisiken in die Gesamtbanksteuerung zu integrieren, die Stresstestmodelle gezielt weiter zu
entwickeln und weitreichende und zugleich klar definierte Krisenpläne zu implementieren.
Wichtig für alle vier Ansatzpunkte sind eine solide Datenbasis und eine stärkere Nutzung
der Indikatoren zur Messung der Liquidität. Dabei sollten neben den originären Risiken
auch derivative Risiken und Risikokorrelationen sowie außerbilanzielle Geschäfte vermehrt
in die Steuerung einbezogen werden.
Bezüglich der Reformen der Bankenaufsicht wird von allen Institutionen eine Stärkung
der qualitativen Aufsicht gefordert. Der Bundesverband deutscher Banken fordert in diesem
Zusammenhang einen generellen Paradigmenwechsel von einem statischen zu einem prinzipienbasierten Aufsichtsansatz.30 Dieser Ansatz ist grundsätzlich positiv zu bewerten, da
gerade ein sich schnell entwickelnder Finanzmarkt flexible Behandlung und somit qualitative, aber nicht statische Regulierung erfordert.
Eine weitere Reform der Regulierung der Banken betrifft die Mindestanforderung an das
Eigenkapital. Dabei gibt es einerseits die Forderung nach einem generell höheren EKPuffer und einen Ansatz, der die EK-Hinterlegung der Liquiditätsfazilitäten an SPVs oder
verbriefter Finanzinstrumente vorsieht.31 Vor dem Hintergrund der jüngsten Krise verfehlt
dieser Ansatz allerdings den Kern des Problems. Die Mindestanforderungen beziehen sich
auf das Eigenkapital der Institute. Die Krise entstand jedoch aufgrund der unzureichenden
Sicherstellung der jederzeitigen Zahlungsfähigkeit, also der Liquiditätsposition der Kreditinstitute. Sinnvoller erscheint dementsprechend die Sicherstellung eines adäquaten Risikomanagements der Banken, das den Einbezug der Liquiditätsfazilitäten sowie der Risiken
aus strukturierten Finanzprodukten fordert.
29 Vgl Europäische Zentralbank (2008), S. 1.
30 Vgl. Bundesverband Deutscher Banken (2008), S. ii und S. 1.
31 Vgl. Financial Stability Forum (2008), S. 3 und Hagedorn, D. (2007), S. 25.
19
Erste Konsequenzen aus der Finanzmarktkrise für das Management
von Liquiditätsrisiken in Kreditinstituten
Positiv hingegen ist die Forderung nach erweiterten Offenlegungspflichten der Institute
bezüglich der Verbriefungsformen, der angewendeten Bewertungsregeln und der außerbilanziellen Verpflichtungen zu bewerten. Dies fördert die Transparenz und macht auch
sekundäre und außerbilanzielle Risiken der Banken sichtbar. Um eine weitere Stabilisierung
des Finanzsystems zu erreichen wird eine Verbesserung der Anreizstrukturen auf Verbriefungsmärkten gefordert. Um dies zu erreichen sollte in Zukunft gewährleistet sein, dass
der Originator der Verbriefung auch einen Teil des Risikos in seiner Bilanz behält (First Loss
Piece) und so einen Teil des Risikos mit trägt. Hierbei ist allerdings die Vorteilhaftigkeit der
Verbriefungsstruktur zu bewahren, die ja gerade im Risikotransfer besteht.
Mangels veröffentlichter Daten sollte der erste Schritt im Anschluss an die präsentierte
Diplomarbeit darin bestehen, den Status quo zum Liquiditätsrisikomanagement der Institute nach Ausbruch der Krise zu eruieren und darauf aufbauend Entwicklungspotenziale
herauszustellen.
20
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2009
Literaturverzeichnis
Blåvarg, Martin/Nimander, Patrick (2002): Interbank Exposures and systemic risk, www.bis.org/cgfs/
conf/mar02r.pdf, 01.04.2008.
Bundesaufsichtsamt für das Kreditwesen (Hrsg.)
(2001): Jahresbericht 2000, Frankfurt am Main.
Bundesverband deutscher Banken (2008): Lehren
aus den Finanzmarktturbulenzen – Positionen des
Bankenverbandes, Berlin.
Cecchetti, Stephen (2007): Market Liquidity and
Short Term Credit - The Financial Crisis of August
2007, https://www.ifk-cfs.de/ fileadmin/downloads/
events/ecbwatchers/ 20070907ecb_cecchetti_document.pdf, 14.04.2008.
Deutsche Bundesbank (2000): Monatsbericht
Januar 2000 - Längerfristige Entwicklung der Interbankbeziehungen der deutschen Kreditinstitute, S.
49-70, Frankfurt am Main.
Deutsche Bundesbank (2007): Finanzstabilitätsbericht 2007, Frankfurt am Main.
Deutsche Bundesbank (2008): Monatsbericht
Februar 2008 - IV. Banken, Frankfurt am Main, S.
20*-41*.
Europäische Zentralbank (2004): Die Geldpolitik
der EZB, Frankfurt am Main.
Europäische Zentralbank (2008): Introductory
Statement with Q & A von Jean-Claude Trichet und
Lucas Papademos, Athen, 08.05.2008, http://www.
ecb.eu/press/pressconf/2008/html/is080508.en.html,
03.06.08.
Fürer, Guido (1990): Risk Management im internationalen Bankgeschäft, in: Kilgus, Ernst/Schuster, Leo
(Hrsg.): Bankwirtschaftliche Forschungen, Bern, zugl.:
Zürich, Univ., Diss., 1990.
Financial Stability Forum (2008): Report of the
Financial Stability Forum on Enhancing Market
and Institutional Resilience, http://www.fsforum.
org/publications/FSF_Report _to_G7_11_April.pdf,
03.06.2008.
Hagedorn, Dittmar (2007): Die Subprime-Krise und
ihre Folgen - Turbulenzen an den Finanzmärkten, in:
Die Bank (12/2007), S. 20-26.
Moch, Nils (2007): Liquiditätsrisikomanagement in
Kreditinstituten, Lohmar, Köln.
Osman, Yasmin (2008): „Ratingaufsicht sorgt
für Streit“, in: Financial Times Deutschland,
03.04.2008, http://www.ftd.de/boersen_maerkte/
aktien/:Ratingaufsicht%20Streit/337 598.html,
02.05.2008.
Paul, Stephan/Süchting, Joachim (1998): Bankmanagement, 4. Aufl., Stuttgart.
Sauerbier, Peter (2006): Liquiditätsspreads im
Gleichgewicht auf illiquiden Anleihenmärkten, Wiesbaden, zugl.: Mannheim, Univ., Diss., 2006.
Senior Supervisors Group (2008): Observations on
Risk Management Practices during the Recent Market
Turbulence, http://www.fsa.gov.uk/ pubs/other/SSG_
risk_management.pdf, 25.05.2008.
Tang, Dragon Yongjun/ Yan, Hong (2007):
Liquidity and Credit Default Swap Spreads, http://
papers.ssrn.com/sol3/papers.cfm?abstract_
id=891263#PaperDownload, 13.05.2008.
Trichet, Jean-Claude (2008): Remarks on the
recent turbulences in global financial markets – Keynotes address by Jean - Claude Trichet, President of
the ECB, at the Policy Discussion „Global Economical
Policy Forum 2008“, 14.04.2008, New York, http://
www.ecb.int/press/ key/date/2008/html/sp080414_1.
en.html, 11.05.2008.
Zeranski, Stefan (2005): Liquidity at Risk zur Steuerung des liquiditätsmäßig-finanziellen Bereiches
von Kreditinstituten, Chemnitz, zugl: Chemnitz, Univ.,
Diss., 2004.
Zeranski, Stefan (2006): Liqudity at Risk - Quantifizierung extremer Zahlungsstromrisiken, in: Risiko
Manager 2006, Heft 11, S. 1, 4-9.
Zeranski, Stefan (2007): Grundlagen und Entwicklungsstufen im bankbetrieblichen Liquiditätsrisikomanagement, in: Zeranski, Stefan (Hrsg.): Ertragsorientiertes Liquiditätsrisikomanagement, Heidelberg,
S. 58-113.
International Monetary Fund (2008): Global
Financial Stability Report - Containing Systemic
Risks and Restoring Financial Soundness, April 2008,
Washington DC, http://www.imf.org/External/Pubs/FT/
GFSR/2008/ 01/pdf/text.pdf, 22.04.2008.
MacKinlay, A. Craig (1997): Event studies in Economics and Finance, in: Journal of Economic Literature,
Vol. 35, März 1997, S. 13-39.
21
Erste Konsequenzen aus der Finanzmarktkrise für das Management
von Liquiditätsrisiken in Kreditinstituten
22
Dipl.-Kaufmann Jan Matysik
geboren am 21. Juni 1981
Die Limitierung von Branchenexposures unter besonderer Berücksichtigung der Risikobeiträge
aus Collateralized Debt Obligations
Diplomarbeit, eingereicht im Winter 2007
bei Professor Dr. Andreas Pfingsten
Institut für Kreditwesen
Westfälische Wilhelms-Universität Münster
Der Handel mit strukturierten Kreditprodukten, so genannten AssetBacked-Securities (ABS), war ein wesentlicher Baustein der auch derzeit
noch nicht überwundenen globalen Finanzkrise. Zu diesen Produkten
zählen insbesondere auch Collateralized Debt Obligations (CDOs), die z.B.
durch Forderungen an Unternehmen besichert sind. Dabei wurden teilweise
sehr komplexe Verbriefungsinstrumente konstruiert, die mit ihren Möglichkeiten nach wie vor großes strategisches Interesse für Banken besitzen,
aber auch mit nicht unbeträchtlichen Risiken verbunden sind. Somit kommt
der konsistenten Einbindung in das Risikomanagement von Banken eine
besondere Bedeutung zu. Ziel dieser Arbeit war es zu untersuchen, auf
welche Weise branchenspezifische Risiken, die sich aus CDOs ergeben, in
die Branchenlimitsteuerung einer Bank eingebunden werden können und
welche Probleme dabei entstehen.
Erläutert werden neben den Grundlagen des Kreditrisikomanagements
in Banken insbesondere die Bedeutung der Diversifikation von Kreditforderungen in heterogene Sektoren, die jeweils auf unterschiedliche Faktoren
reagieren. Ausgeführt wird, dass die Ausfallkorrelationen zwischen den
Sektoren möglichst gering, innerhalb der Sektoren jedoch möglichst hoch
sein sollte. Aus der Branchenlimitierung ergeben sich allerdings auch
einige allgemeine Probleme, die in der vorliegenden Arbeit erläutert werden. Als Ausgangspunkt für die Analyse des Branchenrisikos in CDOs und
seiner Einbindung in Nominal- bzw. VaR-Limite konstruiert der Autor einen
Fall, an dem sich eindeutige Aussagen ableiten lassen. Darauf aufbauend
werden Lösungsansätze aufgezeigt, wie die konsistente Einbindung der aus
CDOs resultierenden Risiken in die Branchenrisikosteuerung von Banken
möglich ist. Resümiert wird, dass letztlich allein die Branchenstruktur der
Gesamtausfälle relevant ist und sich somit die Konstruktion einer Ausfallchronologie erübrigt. Das Problem der gegenseitigen Ausschließlichkeit der
Risikobeiträge lässt sich durch die Definition von CDOs als eigene Branche
für das Limitsystem lösen.
Die Limitierung von Branchenexposures unter besonderer Berücksichtigung
der Risikobeiträge aus Collateralized Debt Obligations
1. Einleitung
Die gegenwärtige internationale Finanzkrise wurde erst möglich durch den weltweiten
Handel mit einer relativ jungen Finanzinnovation: strukturierten Kreditprodukten, so genannten Asset-Backed-Securities (ABS). Zu ABS im weiten Sinne zählen auch Collateralized
Debt Obligations (CDO), die durch Forderungen an Unternehmen besichert sind. Auf der
Jagd nach Anlagemöglichkeiten mit hohen Renditen bei geringem Risiko wurden zunehmend komplexe Verbriefungsinstrumente konstruiert, deren Risikoprofil sich zwar noch
in mathematischen Modellen ausdrücken ließ, jedoch selbst für Experten nicht mehr ohne
weiteres verständlich war. Im Rahmen von ABS konnte nahezu jedes beliebige Kreditportfolio auf eine Weise verbrieft werden, die zum Teil in der Emission von AAA-Wertpapieren
resultieren würde.
Trotz der unrühmlichen Rolle, die ABS im Rahmen der gegenwärtigen Krise gespielt haben, sind die mit diesen Instrumenten einhergehenden Möglichkeiten für Banken nach wie
vor von großem strategischem Interesse. Durch die Verbriefung von Kreditrisiken werden
Institute in die Lage versetzt, die Entscheidung über den Abschluss eines Kreditgeschäftes
von der Entscheidung bzgl. der Risikoübernahme zu trennen. Sie können am Markt die
Kreditrisiken kaufen, die ihren jeweiligen Rendite-Risiko-Vorstellungen entsprechen und
die ihr eigenes Kreditportfolio auf optimale Weise ergänzen. Gleichzeitig können sie Risiken
verkaufen, um ihr Exposure gegenüber bestimmten Branchen oder Regionen zu begrenzen.
Dadurch wird das Verfolgen von Spezialisierungsstrategien erleichtert, da diese nun nicht
mehr zwangsläufig zum Aufbau von Klumpenrisiken führen.
Aufgrund der beträchtlichen Risiken, die aus dem Handel mit ABS entstehen können, ist
die konsistente Einbindung dieser strukturierten Produkte in das Risikomanagement einer
Bank von großer Bedeutung. Die meisten Banken steuern ihre Kreditportfolios unter anderem nach Branchenaspekten. Da auch einem CDO Titel aus unterschiedlichen Branchen zu
Grunde liegen, soll im Folgenden diese Spezialform der ABS betrachtet werden. Ziel dieser
Arbeit ist es zu untersuchen, auf welche Weise branchenspezifische Risiken, die sich aus
einer Investition in CDOs ergeben, in die Branchenlimitsteuerung einer Bank eingebunden
werden können und welche Probleme dabei entstehen.
2. Grundlagen des Kreditrisikomanagements in Banken
Das Kreditrisiko ergibt sich aus der Unsicherheit über die künftige Zahlungsfähigkeit
des Schuldners, die durch die Ausfallwahrscheinlichkeit (PD) ausgedrückt wird. Fällt der
Kreditnehmer tatsächlich aus, entstehen Verluste in Höhe des Exposures zum Zeitpunkt des
Ausfalls (EAD), das dem noch nicht getilgten Forderungsbetrag entspricht. Es wird davon
ausgegangen, dass im Falle der Zahlungsunfähigkeit keinerlei Zahlungen mehr an die Gläubiger fließen. Die Verlustquote beim Ausfall (LGD) beträgt somit annahmegemäß 100% des
EAD.1 In dieser Arbeit werden endfällige Schuldtitel unterstellt, so dass sich das Exposure
während der gesamten Laufzeit aus dem Nominalbetrag der Forderung ergibt.2 Die Ausfallwahrscheinlichkeit kann z.B. aus Ratings abgelesen werden, die eine erwartete PD innerhalb eines bestimmten Zeitraumes angeben. Alternativ dazu kann sie auch von der Bank
selbst modelliert werden, z .B. mit Hilfe eines Asset-Value-Modells, in dem die PD auf Basis
des Unternehmenswertes berechnet wird. Dieses Modell hat in der Praxis große Beachtung
gefunden3 und wird außerdem von den wichtigsten Rating-Agenturen zur Bewertung von
CDOs eingesetzt.4 Das Asset-Value-Modell geht zurück auf die Arbeiten von Merton (1973)
sowie Black und Scholes (1973) und interpretiert Eigenkapital (EK) und Fremdkapital (FK)
als Optionen auf den Unternehmenswert.5 Im Rahmen des Modells fällt ein Kredit an ein Unternehmen aus, wenn der Unternehmenswert unter den Wert der Verbindlichkeiten, den so
24
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2008
genannten Default Punkt (DefP), sinkt. Die risikoneutrale Ausfallwahrscheinlichkeit ergibt
sich dann aus:
Wird das Kreditrisiko im Portfoliokontext betrachtet, muss zusätzlich zur Ausfallwahrscheinlichkeit auch die Ausfallkorrelation zwischen den einzelnen Titeln berücksichtigt
werden.6 Dafür wurden Modelle entwickelt, die das Risiko eines Kreditportfolios unter
Berücksichtigung der Korrelationsstrukturen quantifizieren (Kreditportfolio-Modelle).7 Zwei
der vier wichtigsten Modelle beruhen auf dem oben vorgestellten Asset-Value-Modell, so
dass sich die Ausfallkorrelation aus der Korrelation der Unternehmenswerte ergibt.8 Zur
Schätzung der paarweisen Korrelationen aller im Portfolio enthaltenen Forderungen werden
Faktoren-Modelle eingesetzt.9 Die Korrelation zwischen zwei Schuldnern wird dabei durch
deren Korrelation mit Hintergrundfaktoren erklärt. Im Rahmen dieser Arbeit dienen die
Branchen, in denen die Unternehmen tätig sind, als intuitive Hintergrundfaktoren.10 Zur Vereinfachung wird angenommen, dass jedes Unternehmen eindeutig einer Branche zugeordnet werden kann. Die Branchenfaktoren werden durch Branchenindizes ausgedrückt.11
Die Veränderungen des Unternehmenswertes ergeben sich für Unternehmen i in Branche
s aus:12
Die Wertschwankungen setzen sich also aus einem branchenspezifischen (systematischen) und einem firmenspezifischen (idiosynkratischen) Anteil zusammen. Für beide
Risikofaktoren wird eine Normalverteilung unterstellt.13 Die Korrelation der Unternehmenswerte zweier Unternehmen i und j aus den Branchen s und t errechnet sich entsprechend
der folgenden Gleichung: 14
Das Portfoliorisiko soll nun mit dem Value at Risk (VaR) gemessen werden. Diese Kennzahl ist in der Praxis und den gängigen Kreditportfoliomodellen weit verbreitet, auch wenn
sie nicht ohne Kritik ist.15 Da Kreditverluste nicht normalverteilt sind, muss zur Bestimmung
des VaR die gesamte Portfolioverlustverteilung konstruiert werden.16 Hierfür bietet sich eine
Monte-Carlo-Simulation an, da so auf explizite Annahmen zur Verlustverteilung verzichtet
werden kann und die Titel in ihrer Heterogenität korrekt erfasst werden.17 In der Simulation
kann das oben beschriebene Asset-Value-Modell in einer leicht veränderten Form eingesetzt werden. Es wird angenommen, dass die PD sich aus einem Rating ergibt und daher
bereits bekannt ist. Entsprechend des Modells bezeichnet sie die Wahrscheinlichkeit, mit
der der Unternehmenswert sich so stark negativ entwickelt, dass er den DefP unterschreitet. Da die simulierten stetigen Unternehmenswertänderungen normalverteilt sind, kann
die PD durch
in eine kritische Rendite überführt werden, deren Unterschreiten
25
Die Limitierung von Branchenexposures unter besonderer Berücksichtigung
der Risikobeiträge aus Collateralized Debt Obligations
zum Zahlungsausfall führt.18 Im ersten Schritt der Simulation werden nun Ausprägungen
für die normalverteilten Branchenfaktoren generiert. Diese können dann z.B. mit Hilfe der
Cholesky-Separation in die gewünschte Korrelationsstruktur gebracht werden.19 Auf Basis
der Branchenfaktoren und einer Ziehung für ᵢ ergibt sich aus (2) für jeden Titel im Portfolio
die stetige Unternehmenswertänderung. Ist dieser Wert kleiner als
, fällt der Titel
aus. Die Forderungen, die ihre kritische Renditegrenze unterschritten haben, ergeben in ihrer Summe den Portfolioverlust eines Simulationsganges. Wird diese Simulation sehr häufig
wiederholt und werden die Portfolioverluste aufsteigend sortiert, ergibt sich die PortfolioVerlustverteilung. Der Portfolio-VaR ist der größte Verlust, der nur in 0,1% der Simulationsgänge überschritten wurde.20
3. Branchenlimitierung im Kreditportfolio
Für eine Bank ist es riskant, ihre gesamten Kredite an einen kleinen Kreis von Unternehmen zu vergeben, da in einem solchen Portfolio ein einziger Ausfall auf Grund des hohen
Exposures bereits zu massiven Verlusten führen würde (Adressenkonzentration). Daher ist
es erstrebenswert, das Kreditvolumen auf eine große Anzahl von Kreditnehmern zu verteilen, so dass die Verluste beim Ausfall eines Titels auf ein tragbares Maß begrenzt sind.21
Würden die Kredite jedoch ausschließlich auf Unternehmen verteilt, die auf den gleichen
Hintergrundfaktor reagieren, könnte lediglich das idiosynkratische Risiko verringert werden, so dass bei gegeben hohen Faktorsensitivitäten weiterhin hohe Ausfallkorrelationen
bestünden (Sektorkonzentration22). Nur eine Diversifikation der Forderungen auf Kreditnehmer in verschiedenen Sektoren, die jeweils auf unterschiedliche Faktoren reagieren, führt
auch zu einer Verringerung des systematischen Risikos. Unter Konzentrationsrisiken werden im Rahmen dieser Arbeit solche Risiken verstanden, die aus einer Sektorkonzentration
im Kreditgeschäft entstehen und die geeignet sind, sehr große Verluste zu generieren.23 Sie
sind für das Gesamtrisiko einer Bank von hoher Bedeutung und sollten daher differenziert
erfasst und aktiv gesteuert werden.24 Da Konzentrationsrisiken durch hohe Ausfallkorrelationen verursacht werden,25 müssen die Kreditnehmer zur Beurteilung dieser Risiken
zunächst zu Sektoren zusammengefasst werden. Die Ausfallkorrelationen sollten zwischen
den Sektoren möglichst gering und innerhalb der Sektoren möglichst hoch sein.26 In der
Praxis ist eine Aggregation nach Branchenzugehörigkeit am weitesten verbreitet.27 Werden
die Titel bei der Risikomessung nach Branchen getrennt erfasst, können Aussagen zu Konzentrationsrisiken im Portfolio getroffen werden. Da eine solch differenzierte Erfassung im
Rahmen der beschriebenen Simulation des Portfolio-VaR jedoch nicht möglich ist, werden
hierzu Branchenlimits eingesetzt.28 Sie weisen dem Risiko, das insgesamt aus einer Branche
resultiert, eine Höchstgrenze zu, die zu keinem Zeitpunkt überschritten werden darf.29
Dabei sind zwei mögliche Ausformungen dieser Limits möglich. Zum Einen kann das
EAD als Kennzahl benutzt werden. Das Branchenexposure ergibt sich dann aus der Summe der Nominalbeträge sämtlicher Forderungen, die gegenüber Unternehmen aus einer
bestimmten Branche bestehen. Der Risikobeitrag eines Titels entspricht dem nominalen
Forderungsvolumen. Eine Limitierung des Branchenexposures (Nominallimite30) begrenzt
den Verlust, der im Worst-Case, also einem Totalausfall der jeweiligen Branche, entsteht.
Alternativ dazu könnten sich die Limite auf den VaR beziehen, der sich aus den einzelnen
Branchen ergibt (VaR-Limite). Dafür müsste allerdings zunächst der Branchen-VaR bestimmt
werden. Ein mögliches Verfahren zur Bestimmung dieser Kennzahl ist die Bildung von SubPortfolios, in denen nur Titel aus einer Branche vertreten sind und für die der VaR jeweils
separat simuliert wird. Bei dieser Methode wird allerdings eine perfekt positive Korrelation
zwischen den Branchen unterstellt. Da Diversifikationseffekte völlig vernachlässigt werden,
26
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2009
führt dieses Verfahren zu einer sehr konservativen Bestimmung des Branchen-VaR. Der
Risikobeitrag eines neuen Titels kann mit Hilfe des inkrementellen VaR bestimmt werden.
Eine Limitierung des Branchen-VaR begrenzt nicht mehr den maximal möglichen Verlust,
sondern die Wahrscheinlichkeit, mit der die Verluste den limitierten Wert übersteigen. Auch
wenn VaR-Limite aus theoretischer Sicht überlegen erscheinen, besitzen Nominallimite
in der Praxis weiterhin eine große Bedeutung, so dass sie auch im Rahmen dieser Arbeit
berücksichtigt werden.31 Eine mögliche Erklärung dafür sind Modellrisiken, die bei der VaRBerechnung in einem Kreditportfolio-Modell entstehen. Die Aussagekraft eines solchen
Modells ist somit immer von der Qualität der getroffenen Annahmen abhängig. Nominallimite sind unanfällig für Modellrisiken. Darüber hinaus können die Risikobeiträge von
Neugeschäften ohne jeglichen Rechenaufwand exakt bestimmt werden.
Aus der beschriebenen Branchenlimitierung ergeben sich einige allgemeine Probleme,
die im Folgenden kurz erläutert werden. Zunächst führt eine Aggregation nach Branchen
nicht zwangsläufig zu den oben geforderten Korrelationsstrukturen. Während zum einen
die Ausfallkorrelationen innerhalb einzelner Branchen relativ niedrig ausfallen können,32 ist
es zum anderen durchaus möglich, dass die Korrelationen zwischen zwei Branchen extrem
hoch sind,33 so dass eine Aggregation nach Branchenzugehörigkeit zu einem gewissen Grad
beliebig erscheint.34 Ein weiteres offenes Problem ist die Frage nach der optimalen Höhe der
Limite. Zum Teil wird für Branchenlimite eine Orientierung am Eigenkapital gefordert.35 Dieser Ansatz erscheint jedoch nicht zweckmäßig, da die Kreditrisiken auf Einzelkreditnehmerbasis bereits mit Eigenkapital unterlegt werden.36 Eine Doppelunterlegung dieser Risiken
würde zu einer suboptimalen Nutzung der knappen Ressource EK führt. Schließlich fehlt
es zur Herleitung von Limits zurzeit an einer stringenten Theorie. Im Limitierungsprozess
muss daher eine Entscheidung getroffen werden, die sich aus strategischen Überlegungen
bzw. geschäftspolitischen Vorgaben ergibt.37 Diese Entscheidung wird durch das Fehlen
eines allgemeingültigen Benchmark-Portfolios erschwert, anhand dessen die gegenwärtige
Konzentrationsstruktur beurteilt werden könnte. Spezialinstitute übernehmen planmäßig
Konzentrationsrisiken, so dass nicht grundsätzlich davon ausgegangen werden kann, dass
eine hohe Diversifikation für jede Bank erstrebenswert ist.38
4. Collateralised Debt Obligations (CDOs)
Bevor die Einbindung von CDOs in die oben beschriebenen Branchenlimite analysiert
wird, soll zunächst die komplexe Struktur dieses Finanzinstrumentes erläutert werden.
Im Zentrum von CDOs steht eine rechtlich selbstständige und insolvenzferne Zweckgesellschaft (SPV),39 die ein Portfolio aus festverzinslichen Schuldtiteln vom ursprünglichen
Gläubiger der Forderungen (Originator) erwirbt und das Geschäft durch die Emission von
Wertpapieren finanziert (Vgl. Abb. 1).40
Abb. 1.: Stark vereinfachte CDO-Struktur
27
Die Limitierung von Branchenexposures unter besonderer Berücksichtigung
der Risikobeiträge aus Collateralized Debt Obligations
Die Zahlungsansprüche der Effekten werden aus den Zins- und Tilgungszahlungen des
Forderungspools bedient. Da dieser an das SPV verkauft wird, ist für die Investoren nur die
Qualität der übertragenen Forderungen relevant, nicht die des Originators. Die einzelnen
Titel werden von einem Service-Agenten verwaltet. Liegen dem Portfolio Kredite zu Grunde,
übernimmt die als Originator fungierende Bank häufig zusätzlich diese Rolle. Begründet
wird dies u.a. mit dem Aufrechterhalten der Kunde-Bank-Beziehung, da der Verkauf der
Forderungen für die Kunden dann nicht offensichtlich wird.41 Der Service-Agent wird von
einem Treuhänder überwacht, an den der Forderungspool sicherungsübereignet wird. Der
Treuhänder reicht die eingehenden Zahlungen an die Investoren weiter und dient als Bindeglied zwischen ihnen, SPV und Service-Agenten.42 CDOs entsprechen in ihrer Struktur AssetBacked-Securities, deren Assetpool aus Krediten bzw. Anleihen besteht43 und denen sehr
viel weniger Referenzschuldner zu Grunde liegen, als das bei ABS normalerweise der Fall
ist.44 Nähert man diese stark vereinfachte Grundstruktur real existierenden CDOs an, ergibt
sich eine Bandbreite von Gestaltungsmöglichkeiten, die im Folgenden skizziert werden.
Im oben beschriebenen Basisfall wurde implizit eine Pass-Through-Struktur unterstellt.
Sie zeichnet sich dadurch aus, dass die eingehenden Cashflows vom SPV bzw. vom Treuhänder sofort und unverändert an die Investoren weitergereicht werden. Die emittierten
Wertpapiere verbriefen somit proportionale Ansprüche am Forderungspool und haben
in Bezug auf die Zahlungsströme Beteiligungscharakter.45 In einer Pay-Through-Struktur
werden die emittierten Wertpapiere tranchiert, wobei die jeweiligen Tranchen eine unterschiedliche Rangstellung in Bezug auf den zu Grunde liegenden Forderungspool innehaben
(Subordination bzw. Wasserfallprinzip).46 Typischerweise unterscheidet man zwischen der
ranghöchsten Senior-Tranche, einer darauf folgenden Mezzanine-Tranche und schließlich
der rangniedrigsten Equity-Tranche (Vgl. Abb. 2).
Abb. 2.: Pay-Through-CDO
Die eingehenden Zins- und Tilgungszahlungen befriedigen nach dem Abzug von Gebühren zunächst die Ansprüche aus der Senior-Tranche. Erst wenn diese erfüllt sind, werden
mit dem restlichen Cashflow die Forderungen aus der Mezzanine-Tranche bedient. Die
danach noch verbleibenden Mittel fließen der Equity-Tranche zu. Letztere wird von Zahlungsausfällen zuerst getroffen und heißt daher auch First Loss Piece (FLP). Erst wenn die
kumulierten Ausfälle größer werden als die Ansprüche aus der Equity-Tranche, belasten sie
die Mezzanine-Tranche.47 Das Credit Enhancement (CE) einer Tranche quantifiziert die Höhe
der Verluste, die der CDO verkraften kann, ohne dass die Zahlungsansprüche der jeweiligen
Investoren davon betroffen werden. Im obigen Fall ergibt sich das CE ausschließlich aus
der Subordination, d.h. den kumulierten Nominalwerten aller rangniedrigeren Tranchen. Es
kann jedoch durch zusätzliche Sicherheitsmechanismen erhöht werden. Die Tranchierung
führt trotz einer Besicherung durch das gleiche Portfolio zu einem unterschiedlichen Risi-
28
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2009
koprofil der einzelnen Tranchen.48 Diese werden daher für Investoren mit sehr heterogenen
Präferenzen attraktiv.49
Bisher wurde davon ausgegangen, dass die Forderungen vom Originator an das SPV verkauft werden. Dieses Vorgehen kennzeichnet eine True-Sale-Transaktion.50 Dabei werden die
Zins- und Tilgungszahlungen aus dem Forderungspool an die Investoren weitergeleitet. In
synthetischen CDOs verbleiben die Forderungen beim Originator, lediglich das Risiko wird
mit Hilfe von Kreditderivaten übertragen. In den meisten Transaktionen werden dafür Credit
Default Swaps (CDS) eingesetzt. Dabei zahlt der Originator eine periodische Prämie an das
SPV um sich gegen das Auftreten von Kreditereignissen abzusichern.51 Das SPV emittiert
dann Anleihen, deren Tilgung um die ausgefallenen Referenztitel reduziert wird. Die Emissionserlöse werden in ein Portfolio aus sicheren Titeln, wie z.B. Staatsanleihen, investiert
(Fully Funded).52 Die Zahlungen an die Investoren setzen sich aus den Prämienzahlungen
für die CDS und den Zinszahlungen aus der sicheren Anlage zusammen. Kommt es zu einem
Ausfall, wird der entsprechende CDS fällig und das SPV entschädigt den Originator in Höhe
des realisierten Verlustes aus der gehaltenen sicheren Anlage. Im selben Moment werden
die emittierten Wertpapiere in Höhe dieser Ausgleichszahlung abgeschrieben. Hier besteht
ein für die spätere Analyse wichtiger Unterschied zu True-Sale-Transaktionen. Dort lösen
Kreditausfälle zunächst keine Zahlungen aus. Nach einem Default verringern sich lediglich
die in den Folgeperioden verfügbaren Zinseinnahmen. Reicht der Cashflow in einer Periode
nicht aus, um die Zahlungsansprüche der Investoren vollständig zu bedienen, werden sie
auf die nächste Periode verschoben.53 Am Ende der Laufzeit werden die eingehenden Zinsund Tilgungszahlungen unter Beachtung des Wasserfalls zur Befriedigung aller aktuellen
sowie der aus früheren Perioden aufgeschobenen Ansprüche eingesetzt. Eine Aussage über
das Ausmaß, in dem die kumulierten, über die gesamte Laufzeit aufgetretenen Verluste die
Tilgung der jeweiligen Tranchen belasten, ist also erst in der letzten Periode möglich.54
Das Risiko, dem die Investoren eines CDOs ausgesetzt sind, ergibt sich hauptsächlich aus
dem Kreditrisiko der Schuldtitel.55 Wird der allgemeine Risikobeitrag des CDOs im Rahmen
von Nominallimits anhand des EAD beurteilt, so entspricht er dem Tranchen-Volumen als
maximal möglichem Verlust. Soll das Risiko jedoch durch den VaR ausgedrückt werden,
muss zunächst die tranchenspezifische Verlustverteilung konstruiert werden. Jede Tranche wird vollständig durch zwei Punkte der Portfolio-Verlustverteilung beschrieben: Den
Attachment-Punkt (AP), ab dem die insgesamt realisierten Ausfälle auf die Tranche durchschlagen, und den Detachment-Punkt (DP), an dem sie vollständig ausfällt, so dass die in
der Subordination folgende ranghöhere Tranche die weiteren Verluste trägt.56 Deren AP ist
also identisch mit dem DP der direkt angrenzenden rangniedrigeren Tranche. Das Volumen
einer Tranche (w) ergibt sich aus der Differenz zwischen dem tranchenindividuellen DP und
AP. Sei Lt der Portfolioverlust in t, so ergibt sich der Verlust in Tranche j aus:57
Unter Anwendung von (4) können die simulierten Portfolio-Verluste direkt in Verluste der
einzelnen Tranchen überführt werden. Sobald die realisierten Ausfälle den AP erreichen,
steigt der Verlust der Tranche so lange als lineare Funktion der Portfolio-Ausfälle, bis die
gesamte Tranche ausgefallen ist. Ausfallraten oberhalb des DP haben keine Auswirkungen
auf j. Die Wahrscheinlichkeit der einzelnen Verluste ergibt sich aus der Dichtefunktion der
Portfolio-Verlustverteilung, wobei sich auf dem Punkt des Totalausfalls die Wahrscheinlichkeitsmasse für alle Szenarien konzentriert, in denen der DP überschritten wird. Die bespro29
Die Limitierung von Branchenexposures unter besonderer Berücksichtigung
der Risikobeiträge aus Collateralized Debt Obligations
chene Tranchierung führt zu einer nicht-proportionalen Aufteilung des Risikos auf die drei
Investoren-Gruppen (Vgl. Abb. 3).58
Abb. 3 Aufteilung des Portfolio-Risikos auf die CDO-Tranchen
Dem FLP kommt insofern eine besondere Bedeutung zu, als der erwartete Verlust des
Portfolios von der Equity-Tranche abgedeckt wird.59 Investoren in die Mezzanine-Tranche
realisieren also nur Verluste, wenn der Pool sich schlechter als erwartet entwickelt. Auf die
Senior-Tranche schlagen schließlich nur Verlustrealisationen am rechten Ende der PortfolioVerlustverteilung durch, die nur mit einer äußerst geringen Wahrscheinlichkeit auftreten.
Da die einzelnen Tranchen in verschiedenen Intervallen der Verlustverteilung von Ausfällen
betroffen werden, reagieren sie auch unterschiedlich auf eine Veränderung der zu Grunde
liegenden Parameter. Während das Risiko aller Tranchen mit wachsender PD steigt, sorgt
eine Veränderung der Korrelation für unterschiedliche Effekte.60 Senior-Investoren werden
nur von Ausfällen am oberen Ende der Verlustverteilung getroffen. Bei niedriger Korrelation
verringert sich also ihr Risiko, da in diesem Fall Wahrscheinlichkeitsmasse von den Enden
hin zum Erwartungswert der Verteilung verschoben wird. Für das FLP ist jedoch eine hohe
Korrelation vorteilhaft, da sie zu „fat tails“ führt, also einer höheren Wahrscheinlichkeit für
extreme Ereignisse. Die Verluste der Equity-Investoren sind auch bei sehr hohen Ausfällen
auf das Tranchen-Volumen beschränkt. Sie sind daher, anders als die Senior-Investoren,
dem gewachsenen Risiko für extreme Verluste nicht ausgesetzt, profitieren jedoch unmittelbar von der gestiegenen Wahrscheinlichkeit für besonders geringe Ausfallraten. Auf die
Mezzanine-Tranche wirken beide Effekte, so dass eine generelle Aussage zum Zusammenhang zwischen Korrelation und Risiko für sie nicht möglich ist.
Darüber hinaus verändert die mit der Tranchierung einhergehende Umstrukturierung des
Risikos auch die Sensitivität der einzelnen Tranchen auf den systematischen Risikofaktor.61
Es lässt sich zeigen, dass das FLP sehr viel sensitiver auf Ausprägungen des Hintergrundfaktors reagiert als das dem CDO zu Grunde liegende Portfolio. Da die Equity-Tranche von
jedem auftretenden Ausfall sofort betroffen wird, können selbst relativ gute Szenarien mit
geringen Ausfällen hier noch zu großen Verlusten führen. Die Equity-Investoren sind dem
systematischen Risiko somit in viel höherem Maße ausgesetzt als sie es in einer PassThrough-Struktur wären. Eine gegenteilige Aussage gilt für die Senior-Tranche, die sich
30
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2009
durch eine äußerst geringe Sensitivität auszeichnet. Sie ist selbst in relativ schlechten Szenarien noch durch ihr CE geschützt und hat keine oder nur sehr geringe Verluste zu tragen.
Als direkte Folge der Subordination verändern sich daher sowohl die Bedeutung als auch
der Erklärungsgehalt des Branchenrisikos als systematischem Faktor für das Risiko, dem die
Investoren in ihren jeweiligen Tranchen ausgesetzt sind.
5. Analyse des branchenspezifischen Risikos in CDOs
Als Ausgangspunkt für die Analyse des Branchenrisikos in CDOs und seiner Einbindung
in Nominal- bzw. VaR-Limite soll ein Fall konstruiert werden, in dem eindeutige Aussagen
einfach abgeleitet werden können. Dabei handelt es sich um eine Pass-Through-Struktur, an
der die Investoren gleichrangige Anteile halten.62 In diesem CDO gibt es drei verschiedene
Branchen, aus denen sich das Referenzportfolio gleichmäßig zusammensetzt. Für die einzelnen Titel wird eine Faktorsensitivtät von 100 % unterstellt, so dass es für jede Branche
nur zwei mögliche Zustände gibt: Entweder fällt kein einziger Titel in der betrachteten
Branche aus, oder es kommt zum Totalausfall. Des Weiteren existieren drei Investoren, die
jeweils ein Drittel des CDO-Volumens gekauft haben. Alle Zahlungsströme aus dem Forderungspool werden vom SPV gleichmäßig auf die drei Investoren verteilt. Sie erhalten also
ein Drittel aller eingehenden Zahlungen und tragen ein Drittel aller auftretenden Verluste.
Ihr Investment gleicht dem direkten Erwerb eines Portfolios, das in seiner Struktur dem
CDO-Portfolio entspricht.63 Wird das Risiko mit Nominallimiten begrenzt, muss das Branchen- exposure im Worst-Case, also einem Totalausfall der jeweiligen Branche, bestimmt
werden. In einem solchen Szenario hat jeder Investor Verluste in Höhe eines Drittels des
Branchenvolumens zu tragen, so dass dieser Wert als Risikobeitrag auf das nominale Branchenlimit angerechnet wird. Im Rahmen von VaR-Limiten ergibt sich das Branchenrisiko des
jeweiligen Investors aus dem Anteil am Branchen-VaR, der seinem Anteil am Gesamtvolumen der Struktur entspricht. Im betrachteten Fall würde also ein Risikobeitrag in Höhe von
einem Drittel des jeweiligen Branchen-VaR auf das VaR-Limit angerechnet werden.
Die Analyse des Branchenrisikos in einem Pay-Through-CDO basiert auf der Struktur
in Abb. 4. Das Branchenexposure in den einzelnen Tranchen könnte nun wie im Fall des
Pass-Through-CDOs entsprechend des Tranchenvolumens und der Branchenstruktur des
Referenzportfolios berechnet werden.
Abb. 4: Pay-Through-CDO mit drei Branchen
Für den Mezzanine-Investor ergäbe sich so z.B. ein Exposure von 50 GE gegenüber Branche A. Tatsächlich existieren für ihn aber in Abhängigkeit vom zeitlichen Anfall der Ausfälle
vier verschiedene potentielle Exposures. Angenommen, A fällt als erste Branche aus, dann
werden 50 GE vom FLP absorbiert und der Mezzanine-Investor trägt die restlichen 100
GE. Fällt A hingegen erst nach B und C aus, wird die Mezzanine-Tranche von den daraus
31
Die Limitierung von Branchenexposures unter besonderer Berücksichtigung
der Risikobeiträge aus Collateralized Debt Obligations
resultierenden Verlusten nicht mehr berührt, da sie bereits komplett abgeschrieben wurde,
so dass auch kein Exposure mehr besteht. Da Nominallimite die Verluste begrenzen sollen,
die im Worst-Case in einer Branche realisiert werden, muss zur Bestimmung des Risikobeitrages der Ausfallpfad zu Grunde gelegt werden, der zum größtmöglichen Verlust aus
der jeweiligen Branche und damit zum Worst-Case-Exposure führt. Dies ist der Fall, wenn
die betrachtete Branche ausfällt nachdem ein evtl. vorhandenes CE vollständig aufgezehrt
wurde, so dass die Verluste komplett auf die investierte Tranche durchschlagen. Eine
Investition von 100 GE in die Mezzanine-Tranche würde im Beispiel zu einer Auslastung der
Nominallimite in Höhe von insgesamt 250 GE führen. Diese Zahl ergibt sich aus der Addition
der maximal möglichen Verluste aus jeder Branche. Hierbei entsteht das Problem, dass sich
die jeweils angerechneten Branchen-Exposures gegenseitig ausschließen, da sie sich aus
verschiedenen Ausfallpfaden ergeben, von denen nur einer eintreten kann.
Steuert die Bank ihre Konzentrationsrisiken mit VaR-Limiten, müssen die jeweiligen
Branchen-VaR bestimmt werden. Dafür muss jeder mögliche Ausfallpfad sowie der damit
verbundene brancheninduzierte Tranchen-Verlust berücksichtigt werden. Die Verluste aus
der jeweils betrachteten Branche in der investierten Tranche, die sich aus jedem dieser
Szenarien ergeben, können dann aufsteigend sortiert werden, so dass sich der gesuchte
tranchenindividuelle Branchen-VaR ablesen und als Risikobeitrag auf das VaR-Limit anrechnen lässt. Das setzt jedoch voraus, dass alle Pfade die gleiche Eintrittswahrscheinlichkeit
besitzen, wobei zumindest unklar ist, warum dies der Fall sein sollte. Eine Zuordnung von
Wahrscheinlichkeiten zu den einzelnen Szenarien ist aber problematisch, da keine Daten
zur zeitlichen Struktur der Ausfälle vorliegen. Das Rating für einen Bewertungshorizont
trifft nur eine Aussage dazu, mit welcher Wahrscheinlichkeit es zum Ausfall kommt, nicht ob
dieser am Anfang oder Ende des Betrachtungszeitraumes liegt. Darüber hinaus besteht das
gleiche Problem wie für Nominallimite. Die Ausfallpfade, die zu den jeweiligen BranchenVaR führen, schließen sich gegenseitig aus.
Die Annahme eines homogenen Ausfallverhaltens innerhalb der Branchen wird nun aufgehoben. Die einzelnen Forderungen weisen also fortan neben dem systematischen auch
ein idiosynkratisches Risiko auf. Für Nominallimite bleibt es bei den oben hergeleiteten
Risikobeiträgen, da sich das Branchenexposure im Worst-Case nicht verändert hat. Das
Szenario, in dem kein Kredit aus einer Branche ausfällt, bevor das vorhandene CE der investierten Tranche aufgebraucht ist, es danach jedoch zu einem Totalausfall der betrachteten
Branche kommt, ist zwar äußerst unwahrscheinlich. Dennoch beschreibt es in Bezug auf die
betrachtete Branche weiterhin den Worst-Case und ein Nominallimit zeichnet sich gerade
dadurch aus, dass es Wahrscheinlichkeiten nicht berücksichtigt. Bei der Berechnung der
Branchen-VaRs bleibt das Problem bestehen, dass die möglichen brancheninduzierten Verluste in der jeweiligen Tranche wie oben geschildert von der zeitlichen Reihenfolge der Ausfälle und damit von den jeweiligen Ausfallpfaden abhängen, denen Wahrscheinlichkeiten
zugeordnet werden müssen. Die Anzahl der Ausfallpfade ergibt sich jetzt jedoch nicht mehr
aus den Branchen, sondern aus der Anzahl der Referenztitel und wird daher schnell unhandlich groß. Selbst eine Monte-Carlo-Simulation der Portfolioverluste führt hier nicht weiter,
da sie lediglich angibt, wie viele Kredite insgesamt bis zum Betrachtungshorizont ausfallen,
nicht aber deren Ausfallreihenfolge. Es bleibt bei dem Problem, die simulierten Ausfälle
zeitlich zu sortieren.
32
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2009
In den bisher analysierten synthetischen CDOs führen Ausfälle in dem Moment ihres
Auftretens zu Zahlungen und daraus resultierenden Abschreibungen in den betroffenen
Tranchen. Daher besteht die Möglichkeit, bei Kenntnis der zeitlichen Reihenfolge der
Ausfälle die Tranchenverluste ursächlich auf einzelne Ausfälle und damit auch auf Branchen
zurückzuführen. In einer True-Sale-Transaktion liegt der Fall anders. Obwohl die Ausfälle
nicht gleichzeitig anfallen, werden sie dennoch erst in der letzten Periode in ihrer Gesamtheit schlagend. Es kann daher lediglich eine Aussage dazu getroffen werden, ob eine Tranche von den kumulierten Ausfällen getroffen wurde und welche Branchenstruktur Letztere
aufweisen. Eine verursachungsgerechte Schlüsselung der realisierten Tranchen-Verluste
auf die einzelnen Branchen, aus denen sich die kumulierten Ausfälle zusammensetzen, ist
jedoch nicht möglich, da diese nur in ihrer Gesamtheit zu dem jeweiligen Verlust führen.
Daher ist auch die Bestimmung des Branchenexposures bzw. des Branchen-VaR wieder
nur auf Basis heuristischer Annahmen möglich. Eine solche Heuristik ist z.B. die anteilige
Schlüsselung der Tranchenverluste auf die einzelnen Branchen entsprechend deren Anteil
am Gesamtverlust.
6. Lösungsansätze zu ausgewählten Problemen
Es wurde gezeigt, dass in synthetischen CDOs die zeitliche Reihenfolge der simulierten
Portfolioverluste entscheidend für die Bestimmung der Risikobeiträge in VaR-Limiten ist.
Dazu trifft die Simulation allerdings keine Aussage. Es wird lediglich angegeben, ob ein Titel
in der betrachteten Periode ausfällt, nicht jedoch wann dies geschieht. Selbst wenn statt der
Totalperiode kürzere Perioden simuliert würden, ergäben sich dadurch neue Probleme.
Zunächst potenziert sich die Zahl der nötigen Simulationen für eine gewünschte Genauigkeit mit der Zahl der Betrachtungszeitpunkte.64 Außerdem müssten Annahmen über die
zeitliche Entwicklung der Branchenfaktoren, gegeben deren Ausprägung im ersten Simulationsgang, getroffen werden.65 Auf Grund dieser Probleme scheint es legitim, sich für die
zeitliche Sortierung der simulierten Verluste einer Heuristik zu bedienen.
Hierfür wird erneut auf das in Kapitel 2 vorgestellte Asset-Value-Modell zurückgegriffen.
Im Rahmen dieses Modells fällt ein Titel aus, wenn der Unternehmenswert den DefP unterschreitet. In jedem Simulationsgang werden die Unternehmenswertänderungen aller Titel
berechnet und mit dieser kritischen Grenze verglichen. Daher kann eine exakte Aussage
dazu getroffen werden, in welcher Höhe der jeweilige DefP unterschritten wurde. Die Heuristik würde nun annehmen, dass die Unternehmen, die ihre kritische Grenze am deutlichsten
unterschreiten, auch am ehesten ausfallen.66 Sie unterstellt daher, dass die Realisation von
besonders schlechten Renditen zu einem frühen Ausfall führt. Unternehmen, die ihren DefP
hingegen nur knapp unterschreiten, können sich annahmegemäß länger halten, bevor es
schließlich zum Ausfall kommt. Diese Heuristik ermöglicht eine einfache Konstruktion der
Verlustreihenfolge. In der Monte-Carlo-Simulation werden die Kreditportfolio-Verluste unter
Beachtung aller existierender Korrelationen sowie unterschiedlicher PDs und EADs simuliert. Anschließend werden die ausgefallenen Titel nach der Differenz zwischen kritischer
und simulierter Rendite aufsteigend sortiert. Zusätzlich zum Volumen des ausgefallenen
Titels werden für jede Position auch die kumulierten Ausfälle angegeben. Sind die einzelnen
Kreditnehmer nun eindeutig Branchen zugeordnet, können mit Hilfe der in Kap. 4 erläuterten tranchenindividuellen AP und DP die Ausfälle identifiziert werden, die zu Verlusten in
der gehaltenen Tranche führen. Die Branchenstruktur der separierten Ausfälle muss dann in
jedem Simulationsgang nur noch abgelesen werden. Nach einer hohen Anzahl von Simulationen kann für jede Branche eine Verlustverteilung konstruiert werden, die nur diejenigen
33
Ausfälle berücksichtigt, die tatsächlich Verluste in der gehaltenen Tranche verursacht haben. Daraus lässt sich der tranchenindividuelle Branchen-VaR ablesen, der als Risikobeitrag
auf das VaR-Limit angerechnet wird.
Dennoch ist auch diese Zurechnung in gewisser Weise beliebig.67 In einem gegebenen
Simulationsgang würden lediglich die Ausfälle registriert, die auftreten, nachdem das CE
der investierten Tranche aufgezehrt wurde. Diese Verminderung des Sicherheitspolsters
wurde jedoch von den früher aufgetretenen Ausfällen verursacht. Hätte es diese nicht gegeben, würden die registrierten Ausfälle auch nicht zu Verlusten führen, sondern lediglich das
dann noch vorhandene CE reduzieren. Die mit Hilfe der Heuristik separierten Forderungen
haben durch ihren Ausfall zwar die Verluste in der gehaltenen Tranche verursacht, allerdings
nur unter der Bedingung, dass alle vorherigen Ausfälle bereits aufgetreten sind. Es besteht
also Pfadabhängigkeit. Daher stellt sich die Frage, ob die Verluste der Investoren ausschließlich den Titeln zugeordnet werden können, die sie haben schlagend werden lassen,
oder ob nicht auch die Titel berücksichtigt werden müssen, die ein Auftreten von Verlusten
durch das Aufbrauchen des CE überhaupt erst ermöglicht haben. Tatsächlich werden die
Verluste auf Grund des Zusammenspiels von zwei Faktoren verursacht: Zum einen wird das
CE aufgebraucht und zum anderen finden danach noch weitere Ausfälle statt. Relevant sind
also in jedem Simulationsgang der Gesamtverlust und daher auch alle Ausfälle, aus denen
sich dieser zusammensetzt. Eine Differenzierung zwischen Ausfällen, die die investierte
Tranche treffen, und solchen, die „lediglich“ das CE aufzehren, führt zu einer verzerrten
Risikoerfassung. Die bereits angesprochene anteilige Zurechnung des Tranchenverlustes
auf die einzelnen Branchen entsprechend deren Anteil am Gesamtausfall ist eine intuitive
Heuristik die alle relevanten Verluste berücksichtigt und so zu einem vollständigeren Risikoausweis führt.
Schließlich soll das Problem der gegenseitigen Ausschließlichkeit der Anrechnungsbeträge in den Branchenlimits betrachtet werden. Eine Anrechnung des Branchenrisikos aus
tranchierten CDOs auf vorhandene Branchenlimite, sei es im Rahmen von Nominal- oder
von VaR-Limiten, führt grundsätzlich zu dem Problem, dass die angegebenen Risikobeiträge in ihrer Gesamtheit das Investitionsvolumen um ein Vielfaches übersteigen können. Im
Kreditportfolio einer Bank kann es tatsächlich dazu kommen, dass im Rahmen eines Totalausfalls Verluste in Höhe der addierten nominalen Branchenlimite realisiert werden.
Diese Möglichkeit besteht im Falle des CDOs jedoch nicht einmal theoretisch, da die Verluste immer auf das Investment begrenzt sind. Die Verknüpfung realer Risikobeiträge aus
dem direkt gehaltenen Kreditportfolio mit den sich gegenseitig ausschließenden Beträgen
aus dem CDO in den jeweiligen Branchenlimits verringert daher die Aussagekraft des gesamten Limitsystems. Anstatt zu einem genaueren Risikoausweis zu führen, verschlechtert
die Einbindung von CDOs in Branchenlimite deren Qualität.
Dieses Problem lässt sich dadurch erklären, dass das Risiko in einem Pay-Through-CDO
nicht nur auf mehrere Investoren verteilt, sondern auch völlig neu strukturiert wird. Für die
Investoren in besicherte Tranchen ist im Gegensatz zu Banken, die ein Kreditportfolio direkt
halten, nicht mehr interessant, ob ein bestimmter Titel ausfällt und welchen Risikodimensionen er zugeordnet werden kann, da der Ausfall sie evtl. überhaupt nicht betrifft. Für sie ist
vielmehr entscheidend, ob die über die Laufzeit auftretenden Gesamtausfälle, unabhängig
davon, wie sie sich zusammensetzen, so groß sind, dass sie das CE ihrer Tranche aufzehren
und damit zu Verlusten führen. Im Gegensatz zu einem Direktinvestment bzw. einem PassThrough-CDO partizipieren die Investoren in einer Pay-Through-Struktur nur unter bestimmten Bedingungen und nur bis zu einer bestimmten Höhe an Verlusten, so dass keine
Aussagen zu definitiven Branchenexposures bzw. Branchen-VaR gemacht werden können.
34
Während es in einem direkt gehaltenen Kreditportfolio also definitive Branchenexposures
gibt, aus denen potentielle Verluste resultieren, sind in Pay-Through-CDOs die Branchenexposures selbst nur potentiell und abhängig von den Ausfallpfaden. Das Risiko aus einer
Structured-Finance-Transaktion kann ex-post nicht mehr einzig aus dem Risiko der einzelnen Bestandteile erklärt werden. Wird eine solche Zerlegung dennoch vorgenommen, wie
das bei einer Rückführung des Risikos der einzelnen CDO-Tranchen auf die im Forderungspool vertretenen Branchen der Fall ist, kommt es, wie oben gezeigt, zu fragwürdigen oder
widersprüchlichen Aussagen, die das tatsächliche Risiko des Investments nur ungenügend
beschreiben.
Eine mögliche Lösung dieses Problems könnte in der Definition von CDOs als eigenständige Branche liegen. Dies erscheint insbesondere mit Blick auf die Motivation von Branchenlimiten sinnvoll. Mit ihrer Hilfe sollen Konzentrationsrisiken im Portfolio vermieden
werden. Einem CDO liegt allerdings in der Regel bereits ein nach Branchen diversifizierter
Forderungspool zu Grunde.68 Des Weiteren führt die Strukturierung des Produktes zu einer
sehr geringen Ausfallkorrelation zwischen einer Branche und einer besicherten CDO-Tranche, in deren Referenzpool die Branche vorhanden ist. Die Erfassung von CDOs als eigene
Branche ergibt sich daher auch aus den in Kap. 3 für die Segmente geforderten Korrelationsstrukturen. Schließlich umgeht eine separate Limitierung von CDOs ein grundsätzliches
Dilemma, dem sich die Einbindung dieser Instrumente in Branchenlimite gegenübersieht.
In Kap. 4 wurde erläutert, dass die Equity-Tranche extrem sensitiv auf das Branchenrisiko als
systematischen Risikofaktor reagiert, so dass dieser Wert einen hohen Erklärungsgehalt für
das Tranchenrisiko besitzt. Allerdings würde eine Branchenlimitierung das Risiko aus dem
FLP erhöhen, da die dadurch erzwungene Diversifikation zu geringeren Korrelationen führt,
die für das FLP ungünstig sind. Für die Equity-Investoren wäre also eine Limitierung der
Diversifikation erstrebenswert. Senior-Investoren profitieren hingegen in besonderem
Maße von einer starken Diversifikation, so dass die Branchenlimitierung ihr Risiko tatsächlich begrenzt. Allerdings weisen die Verluste der Senior-Tranche nur in verschwindend
geringem Maße eine Sensitivität gegenüber dem systematischen Risiko auf. Mit dem Branchenrisiko wird also eine Dimension limitiert, die bzgl. des Risikoprofils der Senior-Tranche
kaum aussagekräftig ist.
7. Zusammenfassung
Bei der Analyse des branchenspezifischen Risikos in CDOs ergeben sich zunächst zwei
wesentliche Probleme. Zum einen muss die zeitliche Reihenfolge der Ausfälle bekannt sein,
um Verluste in der investierten Tranche ursächlich auf die Ausfälle in bestimmten Branchen
zurückführen zu können. Zum anderen schließen sich die jeweiligen branchenindividuellen
Risikobeiträge gegenseitig aus. Es wurde jedoch gezeigt, dass letztlich alleine die Branchenstruktur der Gesamtausfälle für das Branchenrisiko der einzelnen Tranchen relevant ist,
was die Konstruktion der zeitlichen Reihenfolge obsolet macht. Das Problem der gegenseitigen Ausschließlichkeit der Risikobeiträge lässt sich durch die Definition von CDOs als
eigener Branche im Limitsystem lösen. Auf diesem Weg ist eine konsistente Einbindung der
Risiken aus CDOs in die Branchenrisikosteuerung der Bank möglich.
35
Literaturverzeichnis
Bär, H. (1997): Asset Securitisation: Die Verbriefung von Finanzaktiven als innovative Finanzierungstechnik und neue Herausforderung für Banken, Paul
Haupt, Bern und andere Orte.
Chen, N.-F.; Roll, R.; Ross, S. (1986): Economic
Forces and the Stock Market, in: Journal of Business,
59. Jg, Nr. 3, S. 383 - 403.
BCBS (1999): Credit Risk Modelling: Current Practices and Applications, April 1999.
Connor, G. (1995): The Three Types of Factor
Models: A Comparison of Their Explanatory Power, in:
Financial Analysts Journal, 51. Jg., Heft 3, S. 42 - 46.
BCBS (2006a): International Convergence of Capital Measurement and Capital Standards: A Revised
Framework, Comprehensive Version, Juni 2006.
Crouhy, M.; Galai, D.; Mark, R. (2000): A comparative analysis of current credit risk models, in: Journal
of Banking and Finance, 24. Jg., Nr. 1 - 2, S. 59 - 117.
BCBS (2006b): Studies on credit risk concentration: An overview of the issues and a synopsis of the
results from the research task force project, BCBS
Working Paper Nr. 15, November 2006.
Deutsch, H.-P. (2004): Derivate und Interne Modelle, 3. überarbeitete und erweiterte Auflage, SchäfferPoeschel, Stuttgart.
Bellmann, S. (2002): Asset Backed Securities und
ihr Einsatz im Risikomanagement: Lösungsvorschläge zur Diversifizierung der Kreditrisiken auf der
Grundlage des Einsatzes von Asset Backed Securities
als Anlageinstrument unter besonderer Berücksichtigung der Mortgage Backed Securities, Shaker,
Aachen.
Benner, W. (1988): Asset Backed Securities: Eine
Finanzinnovation mit Wachstumschancen?, in:
Betriebswirtschaftliche Forschung und Praxis, 40. Jg.,
Nr. 5, S. 403 - 417.
Bluhm, C. (2003): CDO Modeling: Techniques,
Examples and Applications, Working Paper, 10.
Dezember 2003.
Bluhm, C.; Overbeck, L.; Wagner, C. (2003): An Introduction to Credit Risk Modeling, Chapman & Hall/
CRC, Boca Raton und andere Orte.
Braun, H. (2005): Klassifizierung von AssetBacked-Securities, in: J. Gruber/ W. Gruber/ H. Braun
(Hrsg.): Praktiker-Handbuch Asset-Backed-Securities
und Kreditderivate: Strukturen, Preisbildung, Anwendungsmöglichkeiten, aufsichtliche Behandlung,
Schäffer-Poeschel, Stuttgart, S. 61-75.
Düllmann, K.; Masschelein, N. (2006): Sector Concentration in Loan Portfolios and Economic Capital,
National Bank of Belgium Working Paper Research Nr.
105, November 2006.
Duffie, D.; Gârleanu, N. (2001): Risk and Valuation of Collateralised Debt Obligations, in: Financial
Analysts Journal, 57. Jg., Nr. 1, S. 41 - 59.
Elizalde, A. (2006b): Credit Risk Models IV: Understanding and Pricing CDOs, CEMFI Working Paper Nr.
0608, April 2006.
Experteninterview I: Gespräch geführt am 6.
November 2007 mit Dr. Frank Altrock (Leiter RisikoControlling Adressenausfallrisiko /OpRisk, Deutsche
Apotheker- und Ärztebank) und Christian Tegelkamp
(Risiko-Controlling Adressenausfallrisiko /OpRisk,
Deutsche Apotherker- und Ärztebank).
Experteninterview II: Gespräch geführt am 9.
November 2007 mit Thomas Stausberg (Leiter Adressenausfallrisiko & Kreditportfoliosteuerung im Bereich Risikomanagement der NRW.Bank, Düsseldorf).
Fender, I.; Kiff, J. (2004): CDO rating methodology:
Some thoughts on model risk and its implications,
Bank for International Settlements Working Paper Nr.
163, November 2004.
Büschgen, H. (1998): Bankbetriebslehre: Bankgeschäfte und Bankmanagement, 5. vollständig überarbeitete und erweiterte Auflage, Gabler, Wiesbaden.
Firla-Cuchra, M.; Jenkinson, T. (2006): Why are
Securitization Issues Tranched?, Working Paper,
Januar 2006
Bund, S. (2000): Asset Securitisation: Anwendbarkeit und Einsatzmöglichkeiten in deutschen Universalkreditinstituten, Fritz Knapp, Frankfurt a.M.
Fitch (2004): Default Correlation and Its Effect
on Portfolios of Credit Risk, Credit Products: Special
Report, 17. Februar 2004.
Bundesbank (2004): Monatsbericht, April 2004.
Bundesbank (2006): Monatsbericht, Juni 2006.
Burghoff, H.-P.; Henke, S.; Rudolph, B. (1998): Kreditderivate als Instrumente eines aktiven Kreditrisiko-managements, in: Zeitschrift für Bankrecht und
Bankwirtschaft, 10. Jg, Nr. 5, S. 277 - 356.
36
Fitch (2006a): Global Rating Criteria for Collateralised Debt Obligations, Credit Products: Criteria
Report, 04. Oktober 2006.
Gibson, M. (2004): Understanding the Risk of
Synthetic CDOs, Working Paper, Juli 2004.
Goodman, L. (2001): Synthetic CDOs, in: F. Fabozzi/
L. Goodman (Hrsg.): Investing in Collateralized Debt
Obligations, John Wiley & Sons, New York, S. 141 155.
Gupton, G.; Finger, C.; Bhatia, M. (1997): CreditMetrics™: Technical Document, 02. April 1997.
Heidorn, T; König, L (2003): Investitionen in Collateralized Debt Obligations, HFB Working Paper Nr.
44, Mai 2003.
Heitfield, E.; Burton, S.; Chomsisengphet, S.: The
Effects of Name and Sector Concentrations on
the Distribution of Losses for Portfolios of Large
Wholesale Credit Exposures (Entwurf), Gemeinsamer
Workshop “Concentration Risk in Credit Portfolios”
der Deutschen Bundesbank und des BCBS, 18. - 19.
November 2005 in Frankfurt/Eltville.
Holton, G. (2003): Value-At-Risk: Theory and Practice, Academic Press, Amsterdam und andere Orte.
IACPM (2005): Sound Practices in Credit Portfolio
Management, November 2005.
Iscoe, I.; Kreinin, A. (2007): Valuation of synthetic
CDOs, in: Journal of Banking and Finance, 31. Jg., Nr.
11, S. 3.357 - 3.376.
Jorion, P. (2001): Value at Risk: The New
Benchmark for Managing Financial Risk, 2. Auflage,
McGraw-Hill, New York und andere Orte.
Papadopoulos, P.; Tan, C. (2007): Credit Risk
Analysis of Casfhlow CDO Structures, Working paper,
31. Juli 2007.
Paul, S. (1994): Bankenintermediation und Verbriefung: Neue Chancen und Risiken für Kreditinstitute
durch Asset Backed Securities?, Gabler, Wiesbaden.
Picone, D. (2002): Collateralised Debt Obligations,
Working Paper, September 2002.
Rudolph, B.; Scholz, J. (2007): Pooling und Tranching im Rahmen von ABS-Transaktionen, in: BankArchiv, 55. Jg., Nr. 7, S. 538 - 548.
Schierenbeck, H. (2001): Ertragsorientiertes
Bankmanagement, Band 2: Risiko-Controlling und
integrierte Rendite-/Risikosteuerung, 7. vollständig überarbeitete und erweiterte Auflage, Gabler,
Wiesbaden.
Schorin, C.; Weinreich, S. (2001): Introduction
to Collateralized Debt Obligations, in: F. Fabozzi/ L.
Goodman (Hrsg.): Investing in Collateralized Debt
Obligations, John Wiley & Sons, New York, S. 1 - 31.
Sidki, M. (2007): Die Verbriefung von Finanzaktiva: Asset Securitisation und weitere Methoden zum
Transfer von Bankenrisiken, VDM Verlag Dr. Müller,
Saarbrücken.
Szegö, G. (2002): Measures of risk, in: Journal of
Banking and Finance, 26 Jg., Nr. 7, S. 1.253 - 1.272.
Krahnen, J.; Wilde, C. (2006): Risk Transfer with
CDOs and Systemic Risk in Banking, Working Paper,
05. Juni 2006.
Taylor, J. (2002): A Unified Approach to Credit
Limit Setting, in: The RMA Journal, Band 84, Nr. 10,
S. 56 - 61.
Lando, D. (2004): Credit Risk Modeling: Theory and
Applications, Princeton University Press, Princeton
und Oxford.
Varnholt, B. (1997): Modernes Kreditrisikomanagement, Verlag Neue Zürcher Zeitung, Zürich.
Merrill Lynch (2005): Global Cash Flow CDOs and
Their Assets, Structured Credit Research, 09. Februar
2005.
Merton, R. (1974): On the pricing of corporate
debt: The risk structure of interest rates, in: The Journal of Finance, 29. Jg., Nr. 2, S. 449 - 470.
Mitchell, J. (2005): Financial Intermediation Theory
and Implications for the Sources of Value in Structured Finance Markets, National Bank of Belgium
Working Paper Nr. 71, Juli 2005.
Nomura (2004): CDOs in plain English: A summer
intern’s letter home, Fixed Income Research, 13.
September 2004.
Ong, M. (1999): Internal Credit Risk Models: Capital Allocation and Performance Measurement, Risk
Books, London.
Endnoten
1 Die Schätzung des LGDs ist jedoch ein komplexes
Problem, da er weder zeitlich konstant noch
unabhängig von der PD ist. Vgl. Schuermann
(2004), S. 252, Allen/Saunders (2003), S. 17f. und
S. 21, und Dermine/Carvallho (2006), S. 1.235 1.238. Der Einfluss der Branchenzugehörigkeit
auf den LGD ist unklar. Vgl. Grunert/Weber (2005),
S. 31.
2 Der EAD kann sich daher auch während der
Laufzeit nicht erhöhen, wie dies z.B. bei
Kreditlinien der Fall wäre. Vgl. hierzu Bluhm et al.
(2003), S. 24 - 26.
3 Vgl. Fitch (2006a), S. 22.
4 Vgl. Fender/Kiff (2004), S. 3.
37
5 Vgl. auch im Folgenden Merton (1974), S. 452f.
6 Vgl. BCBS (1999), S. 31. Vgl. für die Berechnung
von Korrelationen Fitch (2004), S. 2.
7 Vgl. für eine Übersicht über die wichtigsten
Kreditportfolio-Modelle Crouhy et al. (2000).
8 Vgl. Taylor (2002), S. 59.
9 Vgl. Gupton et al. (1997), S. 93.
10 Die Schätzung von Aktienrenditen auf Basis
beobachtbarer ökonomischer Zeitreihen kann auf
Chen, Roll und Ross zurückgeführt werden, die
dafür makroökonomische Faktoren betrachteten.
Vgl. Chen et al. (1986), S. 384. Es existiert
jedoch empirische Evidenz dafür, dass die
Branchenzugehörigkeit als einzelner, ökonomisch
interpretierbarer Faktor den höchsten
Erklärungsgehalt für die Schwankung von
Aktienrenditen besitzt, die sich annahmegemäß
analog zu V entwickeln. Vgl. dazu Connor (1995),
S. 43 - 46.
11 Dabei ergibt sich evtl. das Problem, dass nicht für
jede Branche ein geeigneter Index existiert. Vgl.
Gupton et al. (1997), S. 94 - 96.
12 Vgl. auch im Folgenden Heitfield et al. (2005), S.
8f.
13 Vgl. Fitch (2007), S. 3.
14 Vgl. Heitfeld et al. (2005), S. 9.
15 Vgl. Jorion (2001), S. 116 sowie auch für weitere
Kritikpunkte Szegö (2002), S. 1.260f.
16 Vgl. Crouhy et al. (2000), S. 63.
17 Vgl. Schierenbeck (2001), S. 257.
18 Vgl. Gupton et al. (1997), S. 87f.
19 Vgl. zu diesem Verfahren Deutsch (2004), S. 180 182.
20 Die beschriebene MC-Simulation auf Basis
eines Faktorenmodells ist zurzeit auch das
Standardverfahren zur Bewertung von CDOs, die
im Mittelpunkt dieser Arbeit stehen. Vgl. Iscoe/
Creinin (2007), S. 3.359.
21 Vgl. zur Risikosenkung durch erhöhte
Granularität Schierenbeck (2001), S. 304 - 310.
22 Vgl. zu den beiden Konzentrationsdimensionen
Bundesbank (2006), S. 35 - 37.
23 Vgl. Bundesbank (2006), S. 36.
24 Vgl. BCBS (2006a), Absatz 770f., sowie BCBS
(2006b), S. 3.
25 Vgl. Ong (1999), S. 126.
26 Vgl. Taylor (2002), S. 60, sowie Büschgen (1998),
S. 968.
27 Vgl. Varnholt (1997), S. 169.
28 Vgl. Experteninterview I, TZ 1, Experteninterview
II, TZ 1, und Taylor (2002), S. 57.
29 Vgl. zu diesem und anderen möglichen
Instrumenten zur Steuerung des
Konzentrationsrisikos BCBS (2006b), S. 7f.
30 Vgl. zu Nominal- und VaR-Limiten Holton (2003),
S. 27 - 29.
38
31 Vgl. Experteninterview I, TZ 2, sowie
Experteninterview II, TZ 7.
32 Vgl. Heitfield et al. (2005), S. 10 und S. 27.
33 Vgl. Düllmann/Masschelein (2006), S. 13, sowie
Varnholt (1997), S. 170.
34 Vgl. auch im Folgenden BCBS (2006b), S. 24 - 26.
35 Vgl. Taylor (2002), S. 57.
36 Vgl. auch im Folgenden Experteninterview II, TZ 3.
37 Vgl. Experteninterview II, TZ 5.
38 Vgl. Bundesbank (2006), S. 38, sowie IACPM
(2005), S. 41.
39 Diese Bezeichnung weist darauf hin, dass der
einzige Geschäftszweck in dem Ankauf
von Forderungen sowie der Emission von
Wertpapieren liegt. Vgl. Paul (1994), S. 119.
40 Vgl. Bellmann (2002), S. 16, sowie Nomura
(2004), S.1. Im Rahmen dieser Arbeit wird von
einer identischen Laufzeit aller emittierten
Wertpapiere ausgegangen.
41 Vgl. Bellmann (2002), S. 22f., sowie Bär (1997), S.
92.
42 Vgl. zu den Rollen von Service-Agenten und
Treuhänder Paul (1994), S. 135 - 137 und S. 163f.,
Bund (2000), S. 30 - 32, und Bär (1997), S. 91 - 94
und S. 96f.
43 Vgl. Duffie/Gârleanu (2001), S. 41.
44 Vgl. Heidorn/König (2003), S. 4, sowie
Bundesbank (2004), S. 29.
45 Vgl. Rudolph/Scholz (2007), S. 539, Bär (1997), S.
130, und Benner (1988), S. 407f.
46 Vgl. Bellmann (2002), S. 30f., Sidki (2007), S. 35,
und Iscoe/Creinin (2007), S. 3.358.
47 Vgl. Iscoe/Creinin (2007), S. 3.358.
48 Vgl. Firla-Cuchra/Jenkinson (2006), S.1, sowie
Merril Lynch (2005), S. 10.
49 Vgl. Paul (1994), S. 141, und Gibson (2004),
S. 9. Auf einem vollkommenen Markt kann
die Umstrukturierung von Zahlungsströmen
nicht zu einem Wertzuwachs führen. Für einen
Literaturüberblick zur theoretischen Begründung
für die Existenz von tranchierten Produkten siehe
Rudolph/Scholz (2007), S. 540 - 547.
50 Vgl. Braun (2005), S. 68, sowie Bundesbank
(2004), S. 32.
51 Vgl. Burghoff et al. (1998), S. 279.
52 Vgl. auch im Folgenden Lando (2005), S. 201,
sowie Goodman (2001), S. 145f.
53 Vgl. Papadopoulos/Tan (2007), S. 8.
54 Im Rahmen dieser Arbeit wird immer von
einem Portfolio aus endfälligen Krediten bzw.
Anleihen mit identischen Fälligkeitszeitpunkten
ausgegangen.
55 Vgl. Picone (2002), S. 17.
56 Vgl. Mitchell (2005), S. 1, sowie Elizalde (2006b),
S. 11.
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2009
57 Vgl. Bluhm (2003), S. 25 in Verbindung mit
Elizalde (2006b), S. 12.
58 Vgl. Krahnen/Wilde (2006), S. 6.
59 Vgl. Sidki (2007), S. 38 - 140.
60 Vgl. im Folgenden Gibson (2004), S. 18, sowie
Merril Lynch (2005), S. 25.
61 Vgl. im Folgenden Krahnen/Wilde (2006), S. 14 17, sowie Gibson (2004), S. 23f.
62 Siehe Kapitel 4.2.1.
63 Es müssten lediglich alle Positionen mit einem
Drittel ihres jetzigen Wertes angesetzt werden.
64 Wird z.B. eine Genauigkeit von 100.000
Simulationsgängen angestrebt und es sollen zwei
Zeitpunkte betrachtet werden, dann müssen für
jeden der 100.000 simulierten ersten Zeitpunkte
100.000 neue Szenarien für den zweiten
Zeitpunkt simuliert werden.
65 Vgl. Experteninterview I, TZ 8.
66 Vgl. Experteninterview II, TZ 15.
67 Vgl. im Folgenden Experteninterview I, TZ 7.
68 Vgl Fitch (2004), S. ,1 sowie Schorin/Weinreich
(2001), S. 1
39
Die Limitierung von Branchenexposures unter besonderer Berücksichtigung
der Risikobeiträge aus Collateralized Debt Obligations
40
Jan Benedikt Kleibrink, Bachelor of Arts
geboren am 2. Oktober 1985
Die Operationalisierung des Ziels
Preisniveaustabilität durch die
Europäische Zentralbank
– Darstellung und kritische Würdigung
Bachelorarbeit, eingereicht im Frühjahr 2008
bei Professor Dr. Wim Kösters
Lehrstuhl für Theoretische Volkswirtschaftslehre
Ruhr-Universität Bochum
Im Mai 2009 erreichte die Inflationsrate mit Null Prozent den niedrigsten
Stand seit 22 Jahren. Das Statistische Bundesamt weist aber darauf hin,
dass hierfür neben den Lebensmittelpreisen insbesondere die gegenüber
dem Vorjahr stark gesunkenen Energiepreise verantwortlich waren. Ohne
diese beiden Bereiche hätte die Teuerungsrate bei 1,4 Prozent gelegen.
Sollten die Energiepreise nicht weiter nachgeben, wird spätestens ab Ende
2009 damit gerechnet, dass sich der dämpfende Einfluss auf die Inflationsrate wieder verringert.
Die vorliegende Arbeit befasst sich mit dem vorrangigen Ziel der Europäischen Zentralbank (EZB), Preisstabilität zu gewährleisten. Der Autor
erläutert die politische Vorgabe des Artikels 105 des EG-Vertrages aus
ökonomischer Sicht und stellt darauf aufbauend dar, wie die EZB dieses
Ziel operationalisiert. Da der EG-Vertrag ausschließlich einen Rahmen
festlegt, ist die genauere Konkretisierung der Zielausgestaltung der EZB
selbst überlassen. So definierte sie die Preisstabilität als Anstieg des
harmonisierten Verbraucherpreisindex für das Euro-Währungsgebiet
unter, aber nahe bei 2 Prozent gegenüber dem Vorjahr. Die Arbeit stellt u.a.
Möglichkeiten und Grenzen der EZB-Politik dar. Darüber hinaus erfolgt eine
kritische Auseinandersetzung mit der EZB-Strategie, die eine Geldpolitik
für verschiedene Nationalstaaten definieren muss. So kommt der Autor
zu dem Ergebnis, dass es keine eindeutige, empirische Antwort auf die
Frage nach der optimalen Inflationsrate gibt und die Zieldefinition weiterhin ein Kritikpunkt an der EZB-Strategie bleiben wird. Die wird u.a. damit
begründet, dass sich der Erfolg der EZB-Politik aufgrund der mittelfristigen
Orientierung nur ungenau überprüfen lässt. Um politischen Druck von der
EZB zu nehmen, könnte des Weiteren eine Bandbreitendefinition als Ziel
hilfreich sein, da insbesondere die großen strukturellen Unterschiede der
neueren Beitrittsländer im Süden und Osten Europas die Einhaltung der
angestrebten Inflationsrate erschweren.
Die Operationalisierung des Ziels Preisniveaustabilität durch die
Europäische Zentralbank – Darstellung und kritische Würdigung
Einleitung
Seit dem 1. Januar 1999 liegt die alleinige Verantwortung für die Geldpolitik für den
Euroraum bei der Europäischen Zentralbank (EZB). Diese hat die politische Vorgabe, als
vorrangiges Ziel, Preisstabilität zu gewährleisten. Die genaue Ausgestaltung dieses Ziels ist
allerdings politisch nicht vorgegeben und damit liegt die Aufgabe der Operationalisierung
bei der EZB.
Ziel dieser Arbeit ist es, Preisstabilität als politische Vorgabe der EU ökonomisch zu erläutern und aufbauend darauf zu erklären, wie die EZB dieses Ziel operationalisiert. Die Analyse wird das Thema sowohl auf der Grundlage der wirtschaftswissenschaftlichen Theorie
erklären als auch die praktische Ausgestaltung darstellen und kritisch beleuchten.
Zu diesem Zweck werde ich zunächst die politische Vorgabe der Europäischen Gemeinschaft, die im EG-Vertrag festgelegt ist, betrachten.
Daran anknüpfend erläutere ich im folgenden Kapitel die Bedeutung von Preisstabilität
für eine Volkswirtschaft und vor allem inflations-, wie auch deflationsbedingte Schäden
fehlender Preisstabilität. Mit dem Einfluss der Geldpolitik auf reale Variablen, der Notwendigkeit die Geldpolitik auf mehrere Nationalstaaten abzustimmen und der Bedeutung der
EZB-Politik für die Weltwirtschaft, komplettieren drei weitere Gründe für die EU-Zielvorgabe
die Ausführungen.
Im nächsten Kapitel werde ich die Zieloperationalisierung durch die EZB genau analysieren und einzelne Aspekte näher herausstellen.
Dann möchte ich die Frage diskutieren, warum die EZB in ihrer Operationalisierung eine
positive Preissteigerungsrate anstrebt. Dabei konzentriere ich mich auf vier Hauptargumente, beginnend mit Problemen bei der Inflationsmessung. Strukturelle Unterschiede,
die durch die Größe und Struktur des Währungsraums bedingt sind, werden anschließend
betrachtet. Die mögliche Gefahr der Handlungsunfähigkeit der EZB, sowie das Problem von
Lohn-, und Preisrigiditäten schließen die Argumentation ab.
Anschließend werde ich die mittelfristige Ausrichtung der EZB-Politik behandeln und
diskutieren. Dabei geht es sowohl um die Gründe der mittelfristigen Orientierung, wie auch
um Probleme, die diese Vorgabe mit sich bringt.
Eine zusammenfassende kritische Würdigung soll die Diskussion um die quantitative
Definition der Zentralbank abrunden.
42
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2008
1. Aufgabe der EZB
Artikel 8 des EG-Vertrages legt im Rahmen der europäischen Integration fest, dass „ein
europäisches System der Zentralbanken (im folgenden als „ESZB“ bezeichnet) und eine
europäische Zentralbank (im folgenden als „EZB“ bezeichnet) geschaffen“ (EG-Vertrag, Artikel 8)1 werden. Im folgenden legt der Vertrag fest: „Das ESZB besteht aus der EZB und den
nationalen Zentralbanken.“ (EG-Vertrag, Artikel 107, Absatz 1). Der dritte Absatz von Artikel
107 legt fest: „Das ESZB wird von den Beschlussorganen der EZB, nämlich dem EZB-Rat und
dem Direktorium, geleitet.“ (EG-Vertrag, Artikel 107, Absatz 3).2
In den folgenden Abschnitten werde ich die politischen Vorgaben, die im EG-Vertrag festgelegt sind, darstellen und ökonomisch begründen.
1.1. Politische Vorgaben
Die Ziele und Aufgaben der EZB sind politisch vorgegeben. So heißt es im EG Vertrag, Artikel 105, Absatz 1: „Das vorrangige Ziel der ESZB ist es, die Preisstabilität zu gewährleisten.
Soweit dies ohne Beeinträchtigung des Ziels Preisniveaustabilität möglich ist, unterstützt
das ESZB die allgemeine Wirtschaftspolitik in der Gemeinschaft, um zur Verwirklichung
der in Artikel 2 festgelegten Ziele der Gemeinschaft beizutragen.“ (EG-Vertrag, Artikel
105, Absatz 1). Des Weiteren heißt es: „Das ESZB handelt im Einklang mit dem Grundsatz
einer offenen Marktwirtschaft mit freiem Wettbewerb, wodurch ein effizienter Einsatz der
Ressourcen gefördert wird, und hält sich dabei an die in Artikel 3a genannten Grundsätze.“
(EG-Vertrag, Artikel 105, Absatz 1).
Allerdings ist zu beachten, dass ausschließlich der politische Rahmen durch diesen Artikel festgelegt wird. Eine genauere Konkretisierung der Ausgestaltung des Ziels überlässt
der Gesetzgeber der EZB selbst („Die grundlegenden Aufgaben des ESZB bestehen darin,
die Geldpolitik der Gemeinschaft festzulegen und auszuführen […].“ (EG-Vertrag, Artikel
105, Absatz 2)).
1 Zitate aus dem EG-Vertrag aus: Europäische Gemeinschaften, 1957, vgl. Literaturverzeichnis.
2 Aufgrund der Tatsache, dass die EZB das eigentliche Handlungsorgan ist, werde ich mich im Zuge
dieser Arbeit auf die Tätigkeiten der EZB konzentrieren. Obwohl der EG-Vertrag formal das ESZB mit der
Aufgabe der geldpolitischen Verantwortung für den Euroraum betraut hat, werde ich hier die EZB als
Handlungsorgan in den Fokus rücken und mich nicht auf das ESZB beziehen.
43
Die Operationalisierung des Ziels Preisniveaustabilität durch die
Europäische Zentralbank – Darstellung und kritische Würdigung
2. Ökonomischer Nutzen von Preisniveaustabilität
Der ökonomische Nutzen von Preisniveaustabilität lässt sich im Fall der EZB auf fünf verschieden Telbereiche auf gliedern und erläutern.
2.1. Inflation
Ich möchte meine Darstellung mit den Schäden einer Inflation, das heißt einer langfristigen, durchschnittlichen Steigerung des Preisniveaus in einer Volkswirtschaft, beginnen.
Hier sind zunächst Reallohnverluste der Arbeitnehmer zu nennen. Dadurch sinkt die Kaufkraft, was negative Auswirkungen auf den Lebensstandard der Arbeitnehmer hat (Görgens
et al., 2004).
Außerdem ist es schwer für die Verbraucher ihren Konsum effizient zu gestalten, da inflationäre Effekte relative Preisänderungen überdecken können.
Aber nicht nur die Arbeitnehmer müssen über sinkende Reallöhne unter der unerwarteten
Inflation leiden, sondern auch Kreditgeber müssen als große Verlierer einer solchen Inflation gesehen werden (EZB, 2004).
Wenn unerwartete Inflation herrscht, wird das Vermögen nach Rückzahlung des Kredites
einen geringeren Wert haben, als es zum Zeitpunkt der Kreditgewährung hatte. Das führt
langfristig dazu, dass es zu einer Kreditrationierung unter dem Gleichgewicht kommt.
Ähnlich problematisch sind ungewollte Einkommensumverteilungseffekte. Diese entstehen vor allem durch Verträge, die langfristig und ohne Indexierung angelegt sind, wenn
eine nicht antizipierte Preisänderung eintritt. (Spahn, 2006).
Auch die Produzenten müssen bei der Untersuchung der Schäden unerwarteter Inflation
betrachtet werden. So kann es hier durch Unsicherheit über die zukünftige Preisentwicklung
zum Ausbleiben einer effizienten Ressourcenverteilung kommen (Blanchard, Illing, 2006).
Bei einer erwarteten Inflation ist zu betrachten, dass die Transaktionskosten in einer
Volkswirtschaft steigen. Zwar ist es für alle Akteure möglich die Preissteigerungsrate richtig
vorauszusehen und bei ihren Entscheidungen darauf zu reagieren, allerdings ist das mit
hohen Such- und Informationskosten, so genannten menu-costs verbunden. Produzenten
müssen ständig neue Preise für ihre Produkte setzen, Konsumenten müssen sich immer
wieder über neue Preise informieren (Görgens et al., 2004).
Produzenten leiden aber nicht nur unter den Transaktionskosten, sondern auch darunter,
dass Scheingewinne versteuert werden müssen. Bei nominal steigenden Preisen steigt auch
der nominale Umsatz der Unternehmen, was zur Folge hat, dass diese mehr Steuern zahlen
müssen. (Spahn, 2006).
Als Gewinner der Inflation kann der Staat durch den Effekt der schleichenden Steuerprogression gesehen werden. Dieser Effekt erklärt, dass die meisten Steuersysteme keinen
Inflationsausgleich berücksichtigen. (Blanchard, Illing, 2006).
Auch diese Theorie, den Staat als Gewinner einer erwarteten Inflation zu betrachten, ist
allerdings nicht eindeutig, denn der Staat tritt in einer Volkswirtschaft auch als Konsument
auf und in dieser Funktion hat er mit den gleichen negativen Auswirkungen zu kämpfen, wie
private Konsumenten.
Eine Inflation kann nämlich als eine Art Steuer auf die Geldhaltung angesehen werden. In
einer Volkswirtschaft kann allerdings kaum darauf verzichtet werden, zumindest einen Teil
seines Vermögens nicht langfristig in Wertpapieren oder anderen Anlageformen zu binden.
Diese können nämlich nicht für Transaktionszwecke genutzt werden und so bleiben nur die
Möglichkeiten, trotz der Inflation Transaktionskasse zu halten oder aber für jede Transakti-
44
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2009
on aufs neue andere Anlageformen in Transaktionskasse umzuwandeln, was mit positiven
Transaktionskosten, so genannten Schuhsohlenkosten, verbunden ist (Spahn, 2006).
Nicht vernachlässigt werden darf hier auch ein unerwünschter Verteilungseffekt, weil jedes Wirtschaftsubjekt einen gewissen Teil seines Vermögens immer für Transaktionszwecke
verwenden muss (autonome Konsumausgaben), um zumindest seine primären Lebensbedürfnisse zu stillen. Da dieser Teil umso höher ist, je kleiner das Vermögen ist, werden vor
allem Wirtschaftssubjekte mit geringen Einkommen negativ beeinflusst (EZB, 2004).
Des Weiteren muss man beachten, dass man bei realistischer Betrachtung einer Volkswirtschaft kaum von vollkommen flexiblen Preisen und Löhnen ausgehen kann und selbst
wenn man das tut, ein gewisser Anpassungszeitraum betrachtet werden muss (Blanchard,
Illing, 2006).
Abschließend sollte nicht unerwähnt bleiben, dass die beschriebenen negativen Effekte
mit der Höhe der Inflation auch in ihrer Stärke ansteigen. In Extremfällen, so genannten
Hyperinflationen, kann es dazu kommen, dass eine Währung durch die extrem hohen Inflationsraten jeglichem Nutzen beraubt wird. (Blanchard, Illing, 2006).
2.2. Deflation
Um die Darstellung der ökonomischen Kosten fehlender Preisstabilität zu komplettieren,
reicht es aber nicht auf die Inflation einzugehen. Darüber hinaus muss in diesem Zusammenhang auch die Möglichkeit einer Deflation in Betracht gezogen werden.
Eine Deflation stellt das genaue Gegenteil einer Inflation dar, nämlich eine Abnahme des
gesamtwirtschaftlichen Preisniveaus. Diese scheint, anders als die Zunahme des Preisniveaus bei der Inflation, zunächst einmal positive Folgen für die Konsumenten zu haben,
da sie nun mehr Güter für ihr Vermögen konsumieren können. Allerdings sinken aufgrund
des fallenden Preisniveaus die Einnahmen der Produzenten, was dazu führt, dass sie ihre
Produktion zurückfahren werden und damit die volkswirtschaftliche Gesamtproduktion
sinkt. Dieses führt zu einem Auftreten (oder einer Verschlimmerung) von unfreiwilliger Arbeitslosigkeit, da nun weniger Arbeitskräfte für die verringerte Produktion benötigt werden
(Blanchard, Illing, 2006).
Dieses ist aber nicht der einzige Faktor durch den Produzenten in einer Deflation belastet
werden können. Ebenfalls zu betrachten ist hier das Problem ihrer Lohnkosten. Durch ein
sinkendes Preisniveau steigt der Reallohn der Arbeitnehmer und die relativen Kosten der
Arbeitgeber steigen. Dadurch werden Nominallohnsenkungen nötig, um die realen Effekte
der Deflation zu verhindern. Allerdings wird hier das Problem bedeutend, dass nominale
Löhne als nach unten hin fest gelten (Gali et al., 2004).
Außerdem besteht die Möglichkeit, dass die Wirtschaftssubjekte auch für die Zukunft mit
einem fallenden Preisniveau rechnen. Das hat zur Folge, dass der gegenwärtige Konsum
zurückgefahren und Konsumausgaben eher für die Zukunft geplant werden (Blanchard,
Illing, 2006).
Nicht unerwähnt bleiben sollte hier, dass der beschriebene Prozess auch auf den Geldund Finanzmarkt durchschlagen kann, wenn nämlich Produzenten durch den Rückgang
ihres Umsatzes aufgenommene Kredite nicht mehr zurückzahlen können.
Der Finanzmarkt wird bei einer Deflation aber auch noch durch einen zweiten Aspekt beeinflusst, nämlich die relative Mehrbelastung der Kreditnehmer durch Kredite mit nominal
vereinbarten Zinsen (Gali et al., 2004).
Eine weitere Gefahr der Deflation, die betrachtet werden sollte, ist die Möglichkeit, dass
sich eine Deflationsspirale einstellt. Wenn die Zentralbank, die der Deflation mit einem Senken des Nominalzinses begegnet um Preisstabilität wiederherzustellen, bei einem Nomi45
Die Operationalisierung des Ziels Preisniveaustabilität durch die
Europäische Zentralbank – Darstellung und kritische Würdigung
nalzins von 0 %, dem so genannten zero bound angekommen ist, ist es nicht mehr möglich
die Zinsen weiter zu senken. Das hätte de facto eine geldpolitische Handlungsunfähigkeit
der Zentralbank zur Folge, die nun nicht mehr in der Lage wäre, Preisstabilität zu gewährleisten (Issing, 2003, Görgens, et al., 2004).
2.3. Geldpolitik und reale Variablen
Als zweite Begründung ist hier die Tatsache zu betrachten, dass die Diskussion um die
Rolle von Geld und Geldpolitik für eine Volkswirtschaft nicht eindeutig beantwortet ist.3
So gibt es zwar einen weitgehenden theoretischen wie empirischen Konsens darüber,
dass in der langen Frist das Preisniveau vom Wachstum der Geldmenge abhängt, welche
unter der Kontrolle der Zentralbank steht (Issing et al., 2001).
So ist hier unter anderem die Diskussion um die Philipskurve zu betrachten. Die Philipskurve besagt, zusammenfassend und vereinfacht ausgedrückt, dass es einen tradeoff
zwischen Inflation und Arbeitslosigkeit gibt. Das bedeutet, dass eine Zentralbank, die ja die
Inflationsrate kontrollieren kann, durch eine Steigerung dieser Rate die Arbeitslosenquote
senken kann (Blanchard, Illing, 2006). Allerdings ist die langfristige Existenz dieses Zusammenhangs sehr umstritten und wird in der heutigen Diskussion häufig als nicht bewiesen
gesehen (Blanchard, Illing, 2006, Issing et al., 2001).
2.4. Eine Geldpolitik für viele Nationalstaaten
Drittens ist die Tatsache zu erwähnen, dass die EZB im Gegensatz zur Fed und anderen
Zentralbanken, nicht nur die Geldpolitik für einen Nationalstaat, sondern für eine ganze
Region, die aus verschiedenen Nationalstaaten besteht, macht.
Obwohl die Staaten, die Teil der Eurozone sind, sich in ihren volkswirtschaftlichen Vorraussetzungen ähneln und aufgrund der Teilnahme an einem gemeinsamen Binnenmarkt zu
vermuten ist, dass es zu einer immer stärkeren Konvergenz der einzelnen Volkswirtschaften
kommt, bestehen doch noch Unterschiede (Issing et al., 2001),(Kaltenthaler, 2006).4
2.5. Einfluss auf die Weltwirtschaft
Abschließend sollte hier die Größe und das damit verbundene ökonomische Gewicht des
Euroraums als gemeinschaftlicher Wirtschaftsraum genannt werden. Der Euroraum ist mit
einem Anteil am weltweiten BIP, welcher dem der USA nahe kommt und einem gleichzeitig
sehr großen Offenheitsgrad ein Wirtschaftsraum, dessen Einfluss auf die weltweiten Wechselkurse zu beachten ist (Issing et al., 2001).
3 Da die Diskussion um die Frage, welche Funktionen Geldpolitik erfüllen kann und welche nicht, extrem
umfassend ist und somit den Rahmen dieser Arbeit deutlich übersteigen würde, möchte ich mich bei der
Erklärung auf eine kurze Einführung konzentrieren, um die EG-Vorgabe transparenter zu machen.
4 Die von Frankreich und Italien angestoßene Diskussion um eine EU-Wirtschaftsregierung als
Gegengewicht zur EZB, mit deren Politik sie nicht zufrieden sind, zeigt, dass politischer Druck einzelner
Nationalregierungen hier von Bedeutung sein kann.
46
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2009
3. Die Strategie der EZB
3.1. Quantitative Definition des Ziels Preisniveaustabilität durch die EZB
Wie ist zu erkennen, ob das vorrangige Ziel erreicht ist, sprich: Was bedeutet Preisstabilität? Da die gesetzlichen Vorgaben keinerlei nähere Angaben enthalten, was unter Preisstabilität zu verstehen ist und damit, wann dieses Ziel als erfüllt angesehen werden kann,
ist es Aufgabe der EZB selbst, die Vorgabe inhaltlich zu füllen. Im Zuge dessen hat sie sich
dazu entschieden eine quantitative Definition von Preisstabilität zu veröffentlichen, welche
als offizielle Zielvorgabe ihrer Geldpolitik fungiert. Diese quantitative Definition wurde im
Jahr 1998 von der EZB gegeben und lautete: „Preisstabilität wird definiert als Anstieg des
harmonisierten Verbraucherpreisindex (HVPI) für das Euro-Währungsgebiet von unter 2
% gegenüber dem Vorjahr. Preisstabilität muss mittelfristig gewährleistet sein.“ (EZB-Rat,
1998)5. Nach einer Prüfung seiner geldpolitischen Strategie gab der EZB-Rat im Jahr 2003
dann eine leicht veränderte Definition, indem er „unter, aber nahe bei 2%“ als angestrebte
Preissteigerungsrate angab (EZB-Rat, 2003). Diese Definition wirft eine Reihe von Fragen
auf, welche ich in den folgenden Abschnitten zu beantworten versuche.
3.2. Öffentliche Bekanntgabe der Definition
Die EZB hat sich entschieden, ihre Definition öffentlich zu machen. Hierfür werden vor
allem vier Gründe ins Feld geführt.
Erstens erhöht die Bekanntgabe der quantitativen Definition die Transparenz der Geldpolitik. Die Öffentlichkeit kann sich also besser auf das einstellen und beurteilen, was die EZB
geldpolitisch tut (Issing et al., 2001).
Zweitens wird eine objektive Überprüfung des Erfolgs der Geldpolitik möglich gemacht,
da sich die tatsächliche Inflationsrate leicht mit der angestrebten Rate vergleichen lässt
(Issing, 2003).
Drittens wird den Wirtschaftssubjekten eine Erwartungshilfe geboten, wenn sie sich darauf einstellen können, welche genaue Preissteigerungsrate für die Zukunft angestrebt wird.
Das kann die gesamtwirtschaftliche Lage verbessern, da Unsicherheit abgebaut wird (EZB,
2004). Während diese Gründe sich auf jede Zentralbank anwenden lassen, muss im speziellen Fall der EZB aber auch noch ein vierter Grund berücksichtigt werden, nämlich, dass sie
als neu geschaffene Institution keinen track record vorweisen konnte. (Issing, 2003).
3.3. Der HVPI
Um die quantitative Definition von Inflation überhaupt möglich zu machen, ist es nötig
über ein Instrumentarium zu verfügen, welches es erlaubt das Preisniveau zu beurteilen
und damit Preisniveauänderungen zu messen.
Die EZB bedient sich hier dem harmonisierten Verbraucherpreisindex (HVPI). Der HVPI
setzt sich dabei aus den nationalen Verbraucherpreisindizes der Eurostaaten zusammen.
5 Zitate des EZB-Rates aus: EZB (Scheller), 2006, vgl. Literaturverzeichnis.
47
Die Operationalisierung des Ziels Preisniveaustabilität durch die
Europäische Zentralbank – Darstellung und kritische Würdigung
3.3.1. Messung
In jedem Land der Eurozone wird der Verbraucherpreisindex gemessen. Um die Ergebnisse besser vergleichbar zu machen, wurde der HVPI eingeführt. Er beinhaltet eine Reihe
von Kriterien, welche für alle Länder standardisiert sind, damit es bei der Berechnung nicht
zu systematischen Messfehlern kommt.
Der HVPI ist ein LasPeyres-Index. Zur Messung eines LasPeyres-Index wird für eine
Region ein Warenkorb zusammengestellt, der den durchschnittlichen Konsum eines Wirtschaftssubjekts in dieser Volkswirtschaft abbilden soll (Europäische Gemeinschaften, 2004).
Es ist hier allerdings zu betonen, dass ein LasPeyres-Index aufgrund der Art der Berechnung zu einer zu hohen Inflationsrate tendiert.
3.4. Eine Inflationsrate von unter, aber nahe bei 2 %
Das nächste Thema mit dem ich mich im Rahmen der Erläuterung der Preisstabilität beschäftigen möchte, ist, dass die EZB keine Inflationsrate von 0 %, sondern eine „von unter,
aber nahe bei 2%“ (EZB Rat, 2003) als Ziel ausgegeben hat. Während man zunächst eher
vermutet, dass ein vollkommen festes Preisniveau optimal wäre, lässt sich bei genauerer
Untersuchung eine Reihe von Gründen finden, aus denen die Zieldefinition der EZB sinnvoll
ist.
3.4.1. Die Ungenauigkeit des HVPI
Die Ungenauigkeit des HVPI, vor allem die Überschätzung der tatsächlichen Inflation, ist
einer der Gründe dafür, dass keine 0 % Inflation angestrebt wird. Zeigt der HVPI nämlich
eine positive, aber kleine Preissteigerung an, kann das bedeuten, dass real eine Deflation
herrscht. Um eine Sicherheit gegen die Gefahr einer Deflation zu haben, wird von der EZB
keine 0 % Inflation angestrebt.
3.4.2. Eine Inflationsrate für den gesamten Euroraum – Der Balassa-Samuelson-Effekt
Das Problem, dass die Inflationsmessung mit Hilfe eines LasPeyres-Index dazu neigt, die
Inflation etwas zu überschätzen und damit eine Sicherheitsmarge nötig ist, um eine reale
Deflation zu vermeiden, ist nicht der einzige Grund, aus welchem es nicht wünschenswert
ist die Inflationsrate auf 0 % zu drücken.
Ein weiterer Grund ist, dass die EZB ihre Geldpolitik nicht individuell auf einzelne Nationalstaaten abstimmen kann, wie es bei nationalen Zentralbanken, die nur für die Geldpolitik
eines Landes verantwortlich sind der Fall ist, sondern sie muss eine einheitliche Geldpolitik
für das gesamte Eurogebiet machen. Da es allerdings, gerade im Zuge der neueren Beitrittsländer im Süden und Osten Europas zu großen strukturellen Unterschieden innerhalb der
Eurozone gekommen ist und bei weiteren Beitritten kommen wird, muss auch das berücksichtigt werden.
Die ursprünglichen EU-Mitgliedsstaaten, vor allem in Mittel- und Westeuropa, sind
ökonomisch weiterentwickelt, als es die neueren Mitgliedsstaaten in Süd- und Osteuropa
sind. Da eine wirtschaftliche Konvergenz innerhalb der EU angestrebt wird, ist es politisch
wünschenswert die ökonomische Lage der schwächeren Staaten zu verbessern. Allerdings
lassen sich Inflationen in Volkswirtschaften, die sich in einem starken Wachstumsprozess
befinden, nur schwer vermeiden. Hierfür lässt sich der Balassa-Samuelson-Effekt als Begründung anführen (Issing, 2003).
Wenn nun eine Inflationsrate von 0 % für das gesamte Eurogebiet angestrebt würde,
müsste diese Inflation in den neueren Mitgliedsstaaten durch ein sinkendes Preisniveau in
den übrigen Regionen ausgeglichen werden (Issing, 2003).
48
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2009
3.4.3 Mögliche Handlungsunfähigkeit der EZB
Als dritter Grund, den die EZB für eine Tolerierung einer leichten Steigerung des Preisniveaus berücksichtigt, muss die Gefahr genannt werden, dass die EZB ihre Handlungsmöglichkeiten verlieren könnte, wenn es zu einer Deflation kommt. Dies liegt daran, dass
es für eine Zentralbank nicht möglich ist, den Nominalzins auf ein Niveau unter 0 % zu
senken, da die Wirtschaftssubjekte dann nur noch Geld halten würden, um Zinsverluste zu
vermeiden(Issing et al., 2001).
3.4.4. Lohn- und Preisrigiditäten
Zuletzt sollte hier auch die Möglichkeit angesprochen werden, dass es nominale Rigiditäten von Löhnen und Preisen nach unten geben kann.
Wenn man von der Annahme ausgeht, dass sowohl nominale Preis-, wie auch Lohnsenkungen nur schwer, wenn überhaupt, durchzusetzen sind, obwohl dieses im Fall einer
Rezession nötig wird, macht es Sinn eine positive Inflationsrate anzustreben.
3.5. Die mittelfristige Ausrichtung des Ziels Preisniveaustabilität
Wie die quantitative Definition ihres geldpolitischen Ziels durch die EZB besagt, wird die
Erreichung des Ziels Preisstabilität mittelfristig angestrebt. Die Erklärung dafür, dass die
mittlere Frist hier als entscheidend angegeben wird, lässt sich vor allem durch zwei Gründe
erläutern.
Zunächst ist die Verzögerung zu berücksichtigen, mit der monetäre Entwicklungen Einfluss auf eine Volkswirtschaft nehmen können (Görgens et al., 2004).
Außerdem muss berücksichtigt werden, dass Volkswirtschaften von ganz unterschiedlichen exogenen Schocks getroffen werden können (EZB, 2004).
Kritik an der mittelfristigen Zieldefinition wird vor allem dahingehend geäußert, dass
diese Definition eine kritische Überprüfung des Erfolgs der EZB erschwert, da nicht klar zu
beurteilen ist, wann genau das Ziel erreicht sein soll (Gali et al., 2004).
4. Die quantitative Definition von Preisstabilität
– Abschließende, kritische Würdigung
Zusammenfassend lässt sich sagen, dass die wichtigsten Merkmale der quantitativen
Definition der Preisstabilität durch die EZB eine gewünschte Inflationsrate knapp unter 2 %
und eine mittelfristige Orientierung bei der Erreichung dieses Ziels sind. Allerdings gilt es
abschließend kritisch anzumerken, dass die Definition auch Schwächen aufweist.
So ist es schwer möglich die 2 % Inflation, die in etwa zugelassen werden, als die optimale Marke zu erklären. Die Diskussionen über eine wohlfahrtsoptimale Inflationsrate
reichen dabei von der Forderung nach einer milden Deflation, über 0 % Inflation, bis hin
zu verschieden hohen Raten gewünschter Preissteigerungen (Issing et al., 2001). Da die
Diskussionen um die optimale Inflationsrate weiter anhalten und es keine eindeutige, empirische Antwort auf die Frage gibt, wird die Zieldefinition weiterhin ein Kritikpunkt an der
EZB-Strategie bleiben (ECB-Observer, 2003).
Als zweiter Grund muss hier die Schwierigkeit genannt werden, den Erfolg der EZB-Politik
zu beurteilen.
Zum einen hat sich die EZB dazu entschieden eine quantitative Definition von Preisstabilität auszuarbeiten und auch zu veröffentlichen, wodurch sie, im Gegensatz zu einigen
anderen Zentralbanken, allen voran der amerikanischen Fed, eine Marke geschaffen hat, an
der sich die Öffentlichkeit orientieren und die Geldpolitik objektiv überprüfen kann.
49
Die Operationalisierung des Ziels Preisniveaustabilität durch die
Europäische Zentralbank – Darstellung und kritische Würdigung
Allerdings ist im Gegensatz zum Ziel, „knapp unter, aber nahe bei 2%“ (EZB-Rat, 2003),
dass sich genau überprüfen lässt, der Zeithorizont, wie bereits erwähnt, mit mittelfristig
nicht genauso deutlich festgelegt.
Außerdem wird die Frage, ob es sinnvoll ist die 2 % als Punktwert anzugeben, Gegenstand von Diskussionen bleiben. Hier ist zu beurteilen, ob es nicht politischen Druck von der
EZB nehmen würde eine Bandbreite als Ziel der Geldpolitik anzugeben (Gali et al., 2004).
In eine ähnliche Richtung geht auch die Kritik, ob das Inflationsziel, welches sich die EZB
selbst gesetzt hat, nicht als zu ehrgeizig gesehen werden muss. Denn gerade in einem noch
wachsenden und sich im Konvergenzprozess befindlichen Währungsraum, könnte die angestrebte Inflationsrate nur sehr schwer eingehalten werden (Görgens et al., 2004).
Die Probleme der Definition über den HVPI sind bereits ausgiebig erläutert worden und
müssen bei der kritischen Hinterfragung der quantitativen Definition der EZB ebenfalls
betrachtet werden.
50
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2009
Literaturverzeichnis
Blanchard, O., Illing, G. (2006): Makroökonomie
– 4., aktualisierte und erweiterte Auflage, Pearson
Education Deutschland GmbH, München.
Blinder, A., Reis, R. (2005): Understanding the
Greenspan Standard – CEPS Working Paper No 114
(September 2005), http://www.princeton.edu/~ceps/
workingpapers/114blinderreis.pdf (27.3.2008).
Deutsche Bundesbank (2004): Kerninflationsraten als Hilfsmittel der Preisanalyse, aus
dem Monatsbericht April 2000, S. 49-63, http://
www.bundesbank.de/download/volkswirtschaft/
mba/2000/200004mba_kerninflaraten.pdf
(27.3.2008).
ECB-Observer (Belke, A., Kösters, W., Leschke,
M., Polleit, T.) (2003): Die EZB-Strategie auf dem
Prüfstand – Empfehlungen für das zinspolitische
Handeln, http://www.ecb-observer.com/downloads/
Press-Statement_2003-03-17_ECBOBSERVER.pdf
(19.3.2008).
Europäische Gemeinschaften (1957): Vertrag zur
Gründung der Europäischen Gemeinschaft, aus:
Europa-Recht – 22. neubearbeitete Auflage 2007
(2007), Verlag C.H. Beck, München, herausgegeben:
Deutscher Taschenbuch Verlag GmbH & Co.KG,
München. (S.41, 72-73).
Europäische Gemeinschaften (2004): Harmonisierte Verbraucherpreisindizes (HVPI): Ein kurzer
Leitfaden für Datennutzer, Luxemburg, : http://
epp.eurostat.ec.europa.eu/cache/ITY_OFFPUB/KSBE-04-001/DE/KS-BE-04-001-DE.PDF (28.3.2008).
(S.7).
EZB (2004): Die Geldpolitik der EZB, http://
www.ecb.int/pub/pdf/other/geldpolitik2004de.pdf
(12.3.2008).
EZB, (Scheller, H.) (2006): Die Europäische
Zentralbank: Geschichte, Rolle und Aufgaben – 2.
überarbeitete Auflage, http://www.ecb.int/pub/
pdf/other/ecbhistoryrolefunctions2006de.pdf
(12.3.2008). (S.86).
Issing, O. (2003): Geldpolitik für den Euroraum –
Rede zur Jahrestagung des Vereins für Socialpolitik,
Zürich, 1.10.2003, http://www.ecb.int/press/key/
date/2003/html/sp031001.de.html (19.3.2008).
Issing, O., Gaspar, V., Angeloni, I., Oreste, T.
(2001): Monetary Policy in the Euro Area: Strategy
and Decision-Making at the European Central Bank,
Cambridge University Press, Cambridge.
Kaltenthaler, K. (2006): Policymaking in the European Central Bank: The Masters of Europe’s Money,
Rownan & Littlefield Publishers Inc., Plymouth.
Papademos, L. (2006): Intervention as Panellist
in Session 1 on Monetary Policy at a Conference
on “ Central Banks in the 21st Century”, Madrid,
8.6.2006, http://www.ecb.int/press/key/date/2006/
html/sp060608.en.html (27.3.2008).
Spahn, H. (2006): Geldpolitik: Finanzmärkte,
neue Makroökonomie und zinspolitische Strategien,
Verlag Franz Vahlen GmbH, München.
Statistisches Bundesamt Deutschland (2008):
Harmonisierter Verbraucherpreisindex, http://www.
destatis.de/jetspeed/portal/cms/Sites/destatis/Internet/DE/Presse/abisz/HVPI,templateId=renderPrint.
psml (28.3.2008).
Weber, A. (2006): Unabhängige Geldpolitik in
Europa – Festvortrag anlässlich des 80. Geburtstages von Professor Kloten, Tübingen, 14.3.2006,
http://www.bundesbank.de/download/presse/
reden/2006/20060314weber_tuebingen.pdf
(27.3.2008).
Woodford, M. (2003): Inflation Targeting and
Optimal Monetary Policy, http://www.columbia.
edu/%7Emw2230/StLFed.pdf (25.3.2008).
Zeitler, F. (2007): Acht Jahre Währungsunion
– Erfahrungen und aktuelle Aspekte, Rede zum
Neujahrsempfang der Hauptverwaltung Hamburg,
Hamburg, 25.1.2007, http://www.bundesbank.de/
download/presse/reden/2007/20070125.zeitler.pdf
(27.3.2008).
Gali, J., Gerlach, S., Rotemberg, J., Uhlig, H.,
Woodford, M. (2004): The Monetary Policy Strategy
of the ECB Reconsidered: Monitoring the European
Central Bank 5, Centre for Economic Policy Research,
London.
Görgens, E., Ruckriegel, K., Seitz, F. (2004): Europäische Geldpolitik – 4. Auflage, Lucius & Lucius
Verlagsgesellschaft mbH, Stuttgart.
51
Die Operationalisierung des Ziels Preisniveaustabilität durch die
Europäische Zentralbank – Darstellung und kritische Würdigung
52
Dipl.-Ökonom Tim Glittenberg
geboren am 28. November 1984
Determinanten der räumlichen
Verteilung von Gesundheitswirtschaft
in Deutschland
Diplomarbeit, eingereicht im Frühjahr 2009
bei Professor Dr. Helmut Karl
Lehrstuhl für Wirtschaftspolitik
Ruhr-Universität Bochum
Die Gesundheitswirtschaft ist die größte und innovativste Branche
Deutschlands mit einem Wachstum in den nächsten zehn Jahren von mehr
als 800.000 neuen Arbeitsplätzen, so der Autor. Diese Perspektive führt
zu einem regelrechten Wettbewerb der Regionen um die Ansiedlung von
Unternehmen der Gesundheitswirtschaft. Die Aktualität dieses Themas
wird auch am Beispiel um die Ansiedlung des neuen Gesundheitscampus in
Bochum deutlich. Neben einer neuen Fachhochschule für Gesundheitsberufe mit bis zu 1.000 Studienplätzen sollen hier Einrichtungen der Gesundheitswirtschaft gebündelt, vernetzt und weiterentwickelt werden. NRWGesundheitsminister Laumann bezeichnet dies als eine der bedeutendsten
Standortentscheidungen der letzten Jahre für das Ruhrgebiet.
Im Fokus der vorliegenden Diplomarbeit steht die Analyse regionaler
Standortfaktoren und deren Wirkung auf die Standortwahl von bereits agierenden Unternehmen, sowie auf Unternehmen, die ihren Einstieg planen.
Jeweils separat werden die vier größten Segmente der Gesundheitswirtschaft analysiert: Krankenhäuser, Pflegeheime, Apotheken und niedergelassene Ärzte. Darauf aufbauend erfolgt für jedes Segment ein eigenes Fazit.
Der Autor verdeutlicht, dass die Determinanten Infrastruktur, Wettbewerb
und der Arbeitsmarkt nahezu die gleiche Relevanz für die analysierten
Segmente aufweisen, während sich bei den weiteren Faktoren ein differenzierteres Bild zeigt. So hat z.B. der Absatzmarkt großen Einfluss auf die
Standortwahl bei Pflegeheimen und Apotheken, während er für Arztpraxen
lediglich über eine durchschnittliche und für Krankenhäuser über eine
nahezu untergeordnete Bedeutung verfügt. Des Weiteren wird herausgestellt, dass die vier untersuchten Bereiche bezüglich des Wachstumstrends
sowie der Agglomeration in Deutschland ein deutliches Ost-West-Gefälle
erkennen lassen. Exemplarisch fallen hier Brandenburg mit sehr niedrigen
Werten und Schleswig-Holstein mit nahezu den höchsten Werten auf.
Determinanten der räumlichen Verteilung von
Gesundheitswirtschaft in Deutschland
1. Einleitung
Ein deutlich verändertes Gesundheitsbewusstsein, die zunehmende Bereitschaft seitens
der Bevölkerung Ausgaben für Dienstleistungen im Bereich der Gesundheitswirtschaft
auszuweiten, sowie vor allem der demographische Wandel in der Bundesrepublik Deutschland haben dazu geführt, dass die Gesundheitswirtschaft heutzutage die größte und
innovativste Branche in der BRD ist. Ihr Ruf als „Zukunftsbranche in Deutschland“, sowie ein
konstantes und robustes Wachstum der Branche werden dazu führen, dass in den nächsten zehn Jahren mehr als 800.000 neue Arbeitsplätze entstehen. Diese hervorragenden
Zukunftsperspektiven führen dazu, dass gegenwärtig unter den Standorten ein regelrechter
Wettbewerb um die Ansiedlung von Unternehmen der Gesundheitswirtschaft herrscht. Die
einzelnen Regionen versuchen mittels geeigneter Standortpolitik die Unternehmen für
ihren Standort zu gewinnen. Es stellt sich die Frage, welche Standortfaktoren eine Region
aufweisen muss, damit die Ansiedlung solcher Unternehmen positiv beeinflusst wird.
Um dies beantworten zu können, beruht der Fokus dieser Arbeit auf die Analyse von regionalen Standortfaktoren und deren Wirkung auf die Standortwahl von bereits in der Gesundheitswirtschaft agierenden Unternehmen, sowie auf Unternehmen, die den Einstieg in diese
Branche planen. Diese Arbeit analysiert speziell die vier größten Bereiche der Gesundheitswirtschaft: Krankenhäuser, Pflegeheime, Apotheken und niedergelassene Ärzte.
Zu Beginn erfolgt eine Definition des Begriffes Gesundheitswirtschaft, bevor in einem
nächsten Schritt ein Überblick über die Entwicklung und die Verteilung in Deutschland für
jeden der Bereiche erfolgt. Nachdem anschließend die einzelnen Standortfaktoren beschrieben worden sind, bildet daran den Kern dieser Arbeit die Analyse der Wirkung der
einzelnen allgemeinen Standortfaktoren auf die vier Segmente. Wichtig dabei ist, die einzelnen Bereiche separat zu betrachten, da die Geschäftstätigkeiten – vergleicht man z.B. ein
Krankenhaus mit einer Apotheke – sehr unterschiedlich ausfallen und somit in den meisten
Fällen andere Voraussetzungen hinsichtlich der Standortfaktoren gegeben sein müssen.
Nach der Analyse der allgemeinen Faktoren, werden die speziellen Standortfaktoren und
deren Wirkung auf die Ansiedlung untersucht. Von einer separaten Betrachtung kann hier
abgesehen werden, da die Faktoren für die untersuchten Bereiche von gleicher Bedeutung
und Wirkung sind.
Abschließend werden die aus der Analyse gewonnen Erkenntnisse für jeden Bereich zusammengefasst und anhand von Schaubildern werden die unterschiedlich starken Einflüsse
der einzelnen Standortfaktoren auf die Verteilung von Krankenhäusern, Pflegeheimen,
Apotheken und niedergelassenen Ärzten weiter verdeutlicht.
2. Gesundheitswirtschaft in Deutschland
Der Begriff der Gesundheitswirtschaft wird vom Bundesministerium für Wirtschaft und
Technik in den so genannten „ersten“ und „zweiten“ Gesundheitsmarkt unterteilt. Der erste
Markt beinhaltet die klassische Gesundheitsversorgung und umfasst den Kernbereich,
zu dem sowohl ambulante und stationäre Versorgung als auch die Pflege und Apotheken
zählen, sowie die Vor- und Zuliefererbereiche wie etwa die Medizintechnik. Im zweiten
Markt lassen sich vor allem privat-finanzierte Dienstleistungen und Angebote finden. Hierzu
zählen Fitnessstudios, Wellnessangebote und Ernährungsberatungen.
Die vier untersuchten Bereiche zeigen bezüglich des Wachstumstrends deutlich Unterschiede. Während die Anzahl der Krankenhäuser, sowie die Zahl der in diesen Einrichtungen
aufgestellten Betten in den letzten Jahren kontinuierlich abgenommen hat, nahm sowohl
54
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2008
die Ärzte- als auch die Pflegeheimanzahl deutlich zu. Die Entwicklung im Bereich der Apotheken kann als nahezu konstant angesehen werden. Auffällig ist in diesem Segment nur,
dass im Jahr 2007 mit 351 Schließungen von Apotheken die Zahl um 80 Apotheken höher
lag als dies noch in 2006 der Fall war.
Auch die Verteilung der einzelnen Bereiche in Deutschland fällt unterschiedlich aus. Diese
Arbeit konnte zeigen, dass gemessen am Verhältnis Anzahl Einrichtungen/Bevölkerungszahl eines Bundeslandes in allen vier Segmenten ein Ost-West-Gefälle zu beobachten ist.
Die neuen Bundesländer sind in allen vier Bereichen in dem untersten Grenzbereich mit
der niedrigsten Dichte vorzufinden. Weiter ist auffällig, dass das Bundesland Brandenburg
sowohl bei der Krankenhausdichte als auch bei der Ärzte- und Apothekendichte zu den drei
Bundesländern mit den niedrigsten Werten zählt. Das Bundesland Schleswig-Holstein steht
hierzu in einem deutlichen Gegensatz. In den Bereichen Krankenhaus- und Pflegeheimdichte weist es die höchsten Werte auf und auch in den anderen zwei Bereichen gehört es
zum oberen Mittelfeld. Anhand dieses Beispiels lassen sich am besten die Unterschiede in
der Verteilung zwischen den Bundesländern verdeutlichen.
3. Analyse der Determinanten
Den Kernteil der Arbeit beinhaltet die Analyse der Determinanten/Standortfaktoren die
auf die Verteilung der Gesundheitswirtschaft in Deutschland Einfluss nehmen. Standortfaktoren sind in der heutigen Wirtschaft von großer Bedeutung. Sie bestimmen in erster
Linie die Standortwahl und den Unternehmenserfolg. Der Begriff „Standortfaktor“ ist darauf
zurückzuführen, dass die Faktoren von Raum zu Raum unterschiedliche Eigenschaften aufweisen und hinsichtlich ihrer Existenz und Qualität variieren. Im Segment der Gesundheitswirtschaft umfassen die Standortfaktoren alle standortabhängigen Kosten und Leistungsarten, da Unternehmen dieser Branche frei über die Standortwahl entscheiden können. Der
Standort, der dem Unternehmen nach einer Analyse aller Vor- und Nachteile am günstigsten
erscheint, wird letztendlich ausgewählt.
Gerade in der Gesundheitswirtschaft sollte zwischen den allgemeinen - in der Literatur
überwiegend gebräuchlichen - und den speziellen Standortfaktoren, die gerade für Unternehmen dieser Branche ausschlaggebend sein können, unterschieden werden. Im Rahmen
dieser Arbeit wurden folgende allgemeine Faktoren: Infrastruktur, Arbeitsmarkt, Absatzmarkt, Wettbewerb und politische Regelungen/Leistungen und folgende spezielle Faktoren:
Bevölkerungsbild einer Region und Synergieeffekte der Branche untersucht. Das Bevölkerungsbild setzt sich aus der demographischen und der gesundheitlichen Lage, sowie der
Bevölkerungsentwicklung zusammen.
4. Darstellung der Forschungsergebnisse
Eine für jeden der Bereiche separate Betrachtung der Ergebnisse sowie die Darstellung
der Einflussnahme der verschiedenen Standortfaktoren durch Pfeildiagramme soll hier zum
besseren Verständnis beitragen. Schwarz eingefärbte Faktoren besitzen einen sehr starken
Einfluss auf die Verteilung, während die dunkelgraue Färbung einen starken bis mittelmäßigen und die hellgraue/weiße Färbung einen geringen bis keinen Einfluss darstellt.
55
Determinanten der räumlichen Verteilung von
Gesundheitswirtschaft in Deutschland
4.1. Einflussnahme im Bereich Krankenhäuser
Für Krankenhäuser zeigt die Untersuchung, dass sich die einzelnen Determinanten bzgl.
ihrer Wirkung auf die räumliche Verteilung unterscheiden. In diesem Segment der Gesundheitswirtschaft sind die allgemeinen Faktoren Infrastruktur, Wettbewerb und staatliche
Regelungen, sowie die speziellen Faktoren Bevölkerungsbild und Branchensynergien stark
an den Standort gebunden. Bestehende Nachteile hinsichtlich dieser Faktoren können nicht
oder nur schwer behoben werden. Teile des Arbeits- und Absatzmarktes sind hingegen
standortunabhängig, da hier Nachteile in der Faktorenausstattung durch überregionale
Tätigkeiten kompensiert werden können. Aus dieser Gliederung geht hervor welche Standortfaktoren von besonderer Bedeutung sind, da im Bereich der Krankenhäuser der Einfluss
der standortabhängigen Faktoren größer sein wird.
Abb. 1: Einflüsse auf die Verteilung von Krankenhäusern
Für die Verteilung der Krankenhäuser spielen insbesondere die Infrastruktur und der
Wettbewerb als allgemeine Faktoren und das Bevölkerungsbild einer Region als spezieller
Standortfaktor eine entscheidende Rolle.
Sowohl die geographische Auswertung als auch die Internetrecherche konnte den Stellenwert der Infrastruktur für Kliniken zeigen. In Zeiten, in denen zunehmend auch ausländische Patienten behandelt werden, kommt es neben den regionalen Verkehrsanbindungen
auch auf eine gute überregionale Infrastruktur an. Es verwundert nicht, dass jedes der
untersuchten Krankenhäuser mit dem ÖPNV gut erreichbar ist, mehr als die Hälfte der Einrichtungen sich in direkter Nähe eines internationalen Flughafens befindet und alle Häuser
direkt an Autobahnen oder großen Bundesstraßen liegen. Zudem konnte die Bedeutung der
56
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2009
Infrastruktur durch die Auswertung der Internetseiten der Krankenhäuser bestärkt werden.
Jede der Seiten informiert ausführlich über Verkehrsanbindungen und Anfahrtswege.
In gleicher Weise beeinflusst der Wettbewerb die räumliche Verteilung. Dieser wurde durch
die verbindliche Einführung der DRG erheblich verschärft. Für Krankenhäuser ist es somit
notwendig, wirtschaftlich zu agieren. Hierzu muss insbesondere die eigene Wettbewerbsfähigkeit eingeschätzt werden. Der Wettbewerb als Standortfaktor wird zudem durch eine
stark zunehmende Markttransparenz verschärft. Hierzu leistet besonders das Internet
seinen Beitrag. Krankenhäuser müssen heute eine geeignete Strategie entwickeln, um
sich gegenüber der standortabhängigen Konkurrenz zu behaupten. Die Bedeutung des
Wettbewerbs wird durch die Umfrage ‚Krankenhausbarometer 2007’ weiter gestärkt. In
den deutschen Krankenhäusern besitzen qualitätsorientierte Ziele oberste Priorität, da der
Wettbewerb unter den Krankenhäusern über die Qualität ausgetragen wird.
Neben diesen beiden Determinanten kommt dem Bevölkerungsbild einer Region
hinsichtlich der Verteilung die gleiche Bedeutung zu. Hier muss besonders die demographische Lage betrachtet werden. Für Krankenhäuser in Regionen mit einem überdurchschnittlichen Anteil älterer Menschen erhöht sich die Chance, Auslastungen zu generieren,
die es erlauben betriebswirtschaftlich zu handeln. In einer Zeit, in der gegenwärtig viele
Einrichtungen um die Existenz bangen müssen, haben entsprechend jene Krankenhäuser
einen Vorteil, die in diesen Regionen angesiedelt sind. Umgekehrt könnte dies bedeuten,
dass Krankenhäuser in Gebieten, in denen viele junge Menschen leben, eher von einer
Schließung bedroht sein könnten. Die Differenzen in der Altersstruktur der Menschen in
den verschiedenen Bundesländern konnte anhand von Alterspyramiden nachgewiesen
werden. Daneben zeigten sich auch Unterschiede in der Fallzahl einiger Krankheiten. Für
die Verteilung von Krankenhäusern könnte dies bedeuten, dass sich jene Kliniken, die auf
bestimmte Krankheiten spezialisiert sind, in solchen Regionen befinden, in denen stark
erhöhte Fallzahlen vorliegen.
Die staatlichen Regelungen besitzen ebenfalls einen Einfluss auf die Verteilung.
Allerdings kann dieser schwächer bewertet werden, als bei den drei bereits aufgezählten
Faktoren. Wie die Arbeit zeigen konnte, vernachlässigen die Bundesländer ihre Pflicht,
Investitionen der Krankenhäuser zu finanzieren. Aktuell wird von einem sogenannten Investitionsstau gesprochen. Die Analyse der Fördermittel ergab, dass zwischen den Bundesländern gewaltige Unterschiede hinsichtlich der Höhe der Mittel bestehen. Folglich werden
Krankenhäuser in Regionen, in denen die Politik der Finanzierung nachkommt, zum einen
besser mit medizinischen Geräten ausgestattet sein und zum anderen verringert sich durch
Zuschüsse die Gefahr der Insolvenz. Im Endeffekt bedeutet dies nichts anderes als das die
Schließungsquote von Krankenhäusern insgesamt in Regionen mit hohen Fördermitteln
niedriger sein und somit die Verteilung beeinflusst werden wird.
Branchensynergien sind für Krankenhäuser wichtig, werden aber die Verteilung weniger
stark beeinflussen. Die Neigung von Krankenhäusern auf die Einweisungsempfehlungen
des Arztes mittels Kopfgeld und Bestechung Einfluss zu nehmen ist anscheinend groß.
Da jedoch anzunehmen ist, dass sich einzelne Regionen hinsichtlich dieser Situation nicht
unterscheiden, kann man dies nicht als spezifischen Vorteil einer Region deklarieren. Die
Bedingungen werden in jeder Region gleich sein. Auch die Auslagerung von Vor- und Nachversorgungen auf niedergelassene Ärzte, als ein weiterer Synergieeffekt, wird zwischen den
Regionen nur bedingt zu divergierenden Vorteilen beitragen.
Die Standortfaktoren regionaler Arbeits- und Absatzmarkt sind im Bereich der Krankenhäuser nur teilweise an den Standort gebunden und üben somit den geringsten Einfluss auf
die Verteilung aus.
57
Determinanten der räumlichen Verteilung von
Gesundheitswirtschaft in Deutschland
In einem Krankenhaus ist eine große Anzahl an Arbeitskräften beschäftigt, die zum Großteil aus Pflegekräften und Ärzten besteht. Sicherlich ist es vorteilhaft, wenn der regionale
Arbeitsmarkt einen ausreichend qualifizierten Arbeitskräftepool aufweist, wodurch bei der
Einstellung von Arbeitskräften Kosten in Form von Rekrutierungs- und Verhandlungskosten
eingespart werden können. Differenzen zwischen den Bundesländern konnten auch hier
hinsichtlich der Bildungsstruktur der Bevölkerung nachgewiesen werden. Das Hauptargument für einen geringen Einfluss des Arbeitsmarkts ist die Kompensierung von mangelnden qualifizierten Arbeitskräften durch die Mobilität des Faktors Arbeit. Dies ermöglicht
Krankenhäusern ihre Nachfrage nach Arbeitskräften überregional auszuweiten um mittels
attraktiver Angebote, Ärzte und Pfleger – die gegenwärtig ohnehin schon in großem Maße
über schlechte Arbeitsbedingungen klagen – anzuziehen.
Der Absatzmarkt ist gerade in diesem Segment der Gesundheitswirtschaft durch einen
breiten Kundenkreis charakterisiert. Vielfach werden die Krankenhausleistungen von
Patienten aus anderen Regionen nachgefragt. Patienten aus dem Ausland gehören heute
zur Tagesordnung. Hinsichtlich der Kaufkraft konnte gezeigt werden, dass die Leistungen
der Krankenhäuser von den Krankenkassen bezahlt werden und somit die Kaufkraft der
Bevölkerung einer Region nicht betrachtet werden muss. Die Untersuchung des Kundenpotentials verdeutlichte weiter, dass die Behandlung von Privatpatienten dem Krankenhaus
finanzielle Vorteile schafft. Trotz einer unterschiedlichen Konzentration dieser Patienten
in den Bundesländern wird die Verteilung von Krankenhäusern im Bundesgebiet nicht
beeinflusst, da lediglich 10 Prozent der Deutschen in 2007 privatversichert waren. Bayern
wies den höchsten Anteil mit 16,6 Prozent auf, was im Vergleich zu gesetzlich Versicherten
immer noch sehr gering ist. Dies zeigt, dass der Absatzmarkt am Standort aufgrund breiter
Kundenkreise und der untergeordneten Rolle der Kaufkraft kaum eine Rolle spielt.
4.2. Pflegeheime
Anders als im Bereich der Krankenhäuser, müssen hier bei allen Standortfaktoren nur die
regionalen Begebenheiten analysiert werden. Zugleich bedeutet dies, dass keine Unterteilung in standortabhängige und standortunabhängige Faktoren erfolgt, da mögliche
Nachteile eines Standortes nicht oder nur unter sehr großen Anstrengungen beseitigt werden können. Dieser Sachverhalt soll jedoch nicht dazu verleiten lassen, dass alle Faktoren
in gleichem Maße Einfluss auf die Verteilung ausüben. Auch im Bereich der Pflegeheime
beeinflussen einige Determinanten die Verteilung stärker als andere.
In erster Linie wird die Verteilung hier durch den Absatzmarkt und das Bevölkerungsbild
eines Standortes determiniert, wobei aber auch der Infrastruktur sowie dem Wettbewerb
hierbei eine hohe Bedeutung zukommt.
58
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2009
Abb. 21: Einflüsse auf die Verteilung von Pflegeheimen
Der Absatzmarkt ist durch eine preissensitive Nachfrage gekennzeichnet, da Patienten
eine hohe Eigenbeteiligung an den Kosten für eine Heimunterkunft tragen müssen. Daraus
folgt, dass Standorte mit einem hohen Kundenpotential, hier definiert über die Kaufkraft,
unter ansonsten gleichen Standortbedingungen anderen Orten vorgezogen werden. In diesem Fall erhöht sich die Chance, dass mehr Menschen zu potentiellen Kunden werden und
die Leistungen eines Heimes nachfragen. Weiter zeigte die Untersuchung, dass nicht nur
die Kaufkraft der Pflegebedürftigen, sondern auch die der Angehörigen häufig eine Rolle
spielt, da diese in vielen Fällen die Kosten der Versorgung tragen. Eine ausgewogene Kaufkraft bildet demnach die Basis für die Nachfrage von Leistungen der Heime in einer Region.
Es muss dabei beachtet werden, dass Pflegeheime sich überwiegend auf den regionalen
Absatzmarkt konzentrieren müssen, da viele Menschen die Heime in ihrer Wohnumgebung
auswählen und somit in den seltensten Fällen eine überregionale Nachfrage besteht.
Im gleichen Sinne beeinflusst die demographische Situation als Komponente des Bevölkerungsbildes die Verteilung. Der Anteil pflegebedürftiger, alter Menschen in einer Region
beeinflusst stark die Nachfrage nach Heimplätzen. Die Nachfrage liegt dabei höher, je
größer die Konzentration von älteren Menschen an einem Ort ist. Folglich bildet die ältere
Generation den zweiten Bestandteil der Basis der Nachfrage.
Die Verteilung wird ebenfalls deutlich durch die Infrastruktur, den Wettbewerb und den
regionalen Arbeitsmarkt beeinflusst.
Der Standortfaktor Infrastruktur zielt hier insbesondere auf die regionalen Begebenheiten ab, da wie schon angesprochen, die Nachfrager ihr Wohnumfeld nur selten für einen
Heimplatz verlassen werden. Besonders wichtig ist hier eine gute Erreichbarkeit, sowohl für
Heimbewohner als auch für Besucher, Angehörige und Ärzte. Zur Infrastruktur müssen im
Bereich der Heime auch Übernachtungsmöglichkeiten in Betracht gezogen werden.
Die Ergebnisse der Untersuchung können durch die Publikation „Auf der Suche nach einem
59
Determinanten der räumlichen Verteilung von
Gesundheitswirtschaft in Deutschland
Heim“ belegt werden. Den Menschen wird bei der Wahl eines Pflegeheims ausdrücklich
geraten, auf die infrastrukturellen Begebenheiten zu achten. Gleichzeitig bedeutet dies
für Heime, eine gute Infrastruktur aufweisen zu müssen, damit potentielle Kunden sich für
ihr Heim entscheiden. Daher verwundert es nicht, dass auf den Internetseiten der Heime
besonders die Lage und die Anbindungen deutlich hervorgehoben werden.
Gleichbedeutend mit der Infrastruktur ist die Wirkung des Wettbewerbs. Anders als
im Bereich der Krankenhäuser besteht hier ein Qualitäts- sowie Preiswettbewerb. Aufgrund gestiegener Markttransparenz und der Einführung von Qualitätsprüfungen werden
Heime langfristig nur dann am Markt bestehen können, wenn sie dem Kunden ein gutes
Preis-Leistungs-Verhältnis anbieten. Folglich muss die Konkurrenz am Standort analysiert
werden. Aus diesem Grund sind Standorte bevorzugt, bei denen sicher gestellt ist, dass die
Konkurrenz keinen negativen Einfluss ausüben kann.
Der schlechte Ruf des Berufes der Pflegekraft und hohe Belastungen bei vergleichsweise
schlechter Bezahlung lassen es an qualifizierten Nachwuchs mangeln, während die Anzahl
von Pflegekräften aufgrund der demographischen Entwicklung abnehmen wird. Einem
gut qualifizierten regionalen Arbeitskräfteangebot kommt demnach im Bereich der Heime
eine hohe Bedeutung zu, die sich auch dadurch zeigt, dass gegenwärtig die Bundesländer
beginnen neue Ausbildungsplätze in der Pflege zu schaffen und zu fördern, um so den personellen Notstand zu verhindern. Die Wahl der Niederlassung eines Heimes kann so stark
beeinflusst werden und somit insgesamt auch die Verteilung in Deutschland.
Eine weniger große Bedeutung bei der Verteilung kommt den Branchensynergien zu.
Zwar beeinflussen Ärzte neben anderen Elementen ebenfalls die Wahl des richtigen Heimes,
allerdings trifft dies nur für 18 Prozent der Bevölkerung zu.
Der Einfluss von politischen Regelungen konnte im Rahmen dieser Arbeit lediglich
angerissen werden. Da jedes Bundesland sein eigenes Pflegegesetz besitzt, wäre hier eine
sehr umfangreiche Behandlung nötig, die den Rahmen dieser Arbeit überschreiten würde.
Allerdings konnte im Großen und Ganzen gezeigt werden, dass den einzelnen Ländern ein
Spielraum hinsichtlich der Ausgestaltung ihres Aufgabenbereichs überlassen wird der dazu
führt, dass größere Differenzen zwischen den Landesförderprogrammen bestehen. Es kann
davon ausgegangen werden, dass Heime in Regionen mit guter Förderung gegenüber Heimen in anderen Regionen Vorteile besitzen.
4.3. Niedergelassene Ärzte
Ärzte, die ihre eigenen Praxen führen, müssen in erster Linie mit den Attributen Vorlieb
nehmen, die im Umfeld des Standortes vorzufinden sind. Auch hier sind überregionale
Sachverhalte nicht von Belang.
Aus der Untersuchung geht deutlich hervor, dass die Verteilung niedergelassener Ärzte
eindeutig durch den Standortfaktor politische Regelungen geprägt wird.
60
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2009
Abb. 22: Einflüsse auf die Verteilung niedergelassener Ärzte.
Quelle: eigene Darstellung basierend auf den Untersuchungsergebnissen
Die Politik steuert über die Regelung der Bedarfsplanung aktiv die Verteilung von
Arztpraxen in der BRD um eine Unter- bzw. Überversorgung eines Planungsbereiches zu
vermeiden. Den Ärzten stehen lediglich die Gebiete für eine Niederlassung zur Verfügung,
die nach den politischen Regelungen als offen gelten. Für Fachärzte herrscht gegenwärtig
eine faktische Niederlassungssperre, da viele Bereiche geschlossen sind. Anders sieht es
bei Hausärzten aus, die sich derzeitig eher an einer Niederlassungsfreiheit erfreuen, da hier
mehr als die Hälfte der Bereiche als offen ausgewiesen sind. Die Bedarfsplanung wird in Zukunft dazu führen, dass sich vermehrt Ärzte in ländlichen Regionen und im Osten Deutschlands niederlassen, denn hier herrscht zumeist eine Unterversorgung.
Für Ärzte ist es daher sinnvoll, die Bedeutung der anderen Standortfaktoren erst dann zu
analysieren, wenn die offenen Bereiche bekannt sind.
Bei dieser Analyse muss besonders der Infrastruktur, dem Wettbewerb und dem Bevölkerungsbild, als die Faktoren mit dem größten Einfluss auf die Verteilung, Aufmerksamkeit geschenkt werden. Aber auch der Absatzmarkt nimmt immer mehr an Bedeutung zu, während
der regionale Arbeitsmarkt für Ärzte keine hohen Ansprüche erfüllen muss. Effekte durch
Branchensynergien sind in Bezug auf ihre Wirkung auf die Verteilung in zwei Sachverhalte
zu gliedern.
Die Untersuchung der Infrastruktur ergab, dass sowohl Patienten, als auch Ärzte selbst
bei Hausbesuchen auf eine verkehrsgünstige Lage angewiesen sind. Der Einfluss der
Infrastruktur auf die Verteilung niedergelassener Ärzte führt dazu, dass viele ländliche
Gegenden als unterversorgt gelten, während große Städte wie etwa München deutlich über
dem Soll liegen. Dies ist damit zu begründen, dass in urbanisierten Gebieten die Infrastruktur deutlich besser angesehen werden kann als auf dem Land. Ebenfalls sind die Wege, die
zurückgelegt werden müssen, in Städten meist geringer. Der Einfluss der Infrastruktur auf
die Verteilung muss damit als hoch angesehen werden.
61
Determinanten der räumlichen Verteilung von
Gesundheitswirtschaft in Deutschland
Neben der Infrastruktur beeinflusst ebenso der Faktor Wettbewerb die Verteilung. Hier
zeigte die Analyse, dass sich die Konkurrenzsituation mit Inkrafttreten des Modernisierungsgesetztes verschärft hat. Es muss zwischen direkten und indirekten Konkurrenten unterschieden werden. Zudem treten Krankenhäuser sowie Medizinische Versorgungszentren
(MVZ) als neue Konkurrenten in den Markt. Die neue Konkurrenz führte dazu, dass sich bereits im Jahr 2006 31,8 Prozent der Ärzte einem starken Wettbewerb ausgesetzt sahen. Ein
Indiz dafür, dass niedergelassene Ärzte sich bevorzugt in Gebieten niederlassen werden, in
denen sie gegenüber der Konkurrenz hinsichtlich der Qualität und Preise bestehen können.
Wie schon in den anderen beiden Bereichen muss dem Bevölkerungsbild ebenfalls ein
hoher Einfluss auf die Verteilung zugesprochen werden. Die demographische Struktur der
Bevölkerung am Standort ist für alle Ärzte unterschiedlicher Fachrichtung von Bedeutung.
Kinderärzte werden zwangsläufig wirtschaftlich besser agieren wenn sie in Gebieten mit
einer hohen Kinderdichte niedergelassen sind. Für Hausärzte hingegen lohnt es sich eher in
Gegenden anzusiedeln, in denen viele ältere Menschen leben, da diese den größten Anteil
der Patienten bilden. Auf die Verteilung der Fachärzte wird so über die demographische
Lage einer Region großen Einfluss ausgeübt.
Mit zunehmender Bedeutung der „IGeL- Leistungen“ verstärkt sich gleichzeitig der Einfluss des Absatzmarktes auf die Verteilung. Besonders der Kaufkraft muss jetzt eine hohe
Aufmerksamkeit zukommen, da die vom Arzt angebotenen IGeL- Leistungen vom Patienten
selbst bezahlt werden müssen. Neben der Kaufkraft spielt auch der Anteil der Privatpatienten hinsichtlich des Absatzmarktes eine Rolle, da diese besonders für Ärzte eine sehr
lukrative Einnahmequelle darstellen. Der Standortfaktor Absatzmarkt beeinflusst die
Verteilung in dem Maße, dass Regionen mit hoher Kaufkraft und einem hohen Anteil privat
Versicherter für die wirtschaftliche Lage einer Praxis deutlich vorteilhafter sind.
Der Faktor Arbeitsmarkt übt wie schon erwähnt keinen großen Einfluss aus, während im
Bereich der Synergieeffekte zwischen zwei Konstellationen unterschieden werden muss.
Der regionale Arbeitsmarkt wird von niedergelassenen Ärzten sondiert, um geeignete,
qualifizierte Arzthelfer zu suchen, die gerade zu Beginn für Einzelpraxen enorm wichtig
sind. Allerdings kann der Einfluss als eher gering angesehen werden, da die Qualität der
geleisteten Arbeit in erster Linie von der Qualifikation des Arztes abhängig ist. Der Arzt
repräsentiert somit selbst die wichtigste Arbeitskraft einer Arztpraxis. Damit kommt die
Untersuchung zu der Erkenntnis, dass der regionale Arbeitsmarkt keinen großen Einfluss
auf die Verteilung von Ärzten in der BRD ausübt.
Der Standortfaktor Synergieeffekte der Branche muss differenziert betrachtet werden, je
nachdem ob Ärzte ihre eigene unabhängige Praxis eröffnen möchten oder beabsichtigen
sich einem MVZ anzuschließen. Im ersten Fall ist der Einfluss auf die Verteilung sehr gering.
Für den zweiten Fall kann sich der Einfluss schlagartig ändern, da sich mit dem Anschluss
an ein MVZ viele Vorteile hinsichtlich Kosten und Patientenzulauf verbinden. Besonders die
Reduktion der Kosten im Gegensatz zu einer selbständig geführten Praxis bieten Anreize
sich einem MVZ anzuschließen. Im Endeffekt zeigt die Analyse also, dass MVZ die Wahl des
Niederlassungsstandortes sehr wohl beeinflussen können.
62
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2009
4.4. Apotheken
Die Verteilung der Apotheken in der BRD hängt von mehreren standortabhängigen Faktoren ab.
Wie die Untersuchung zeigt, wird der Einfluss auf die Verteilung vorwiegend durch die
Infrastruktur und den Absatzmarkt eines Standortes determiniert. Der Wettbewerb und die
Effekte der Branchensynergien repräsentieren dahinter die zweitgrößte Einflusskraft, während der Arbeitsmarkt für die Verteilung an Bedeutung zunimmt. Die Verteilung wird dagegen von politischen Regelungen und dem Bevölkerungsbild einer Region nicht tangiert.
Abb. 23: Einflüsse auf die Verteilung von Apotheken
Für Apotheken kann belegt werden, dass diese bevorzugt in Gegenden mit einer guten
Infrastruktur gelegen sind. Es verwundert daher nicht, dass 44,07 Prozent aller Apotheken
in einer Großstadt ansässig sind. Weiter wurde gezeigt, dass Einrichtungen, die sich in Lauflagen befinden, über stark erhöhte Kundenfrequenzen verfügen und damit auch überdurchschnittliche Gesamtumsätze erwarten können. Die Erreichbarkeit für Fußgänger steht damit
ganz deutlich im Mittelpunkt der infrastrukturellen Auswertung. Gerade die Möglichkeit
Gesamtumsätze zu generieren, die 29,4 Prozent über dem Durchschnitt liegen, begünstigt
die Verteilung von Apotheken zu Gunsten der Städte.
Dem Absatzmarkt kommt eine gleichbedeutende Wirkung zu. Die Analyse dieses Faktors
zeigt, dass hier insbesondere die Kaufkraft der Bevölkerung am Standort aufgrund zweierlei
Sachverhalte von Bedeutung ist. Zum einen besteht in der deutschen Bevölkerung ein Trend
zur Selbstmedikation und zum anderen muss die Selbstbeteiligungsregelung hinsichtlich
verschreibungspflichtiger Medikamente beachtet werden. Für die Nachfrage nach verschrei-
63
Determinanten der räumlichen Verteilung von
Gesundheitswirtschaft in Deutschland
bungspflichtigen und frei verkäuflichen Arzneimitteln bildet die Kaufkraft die enorm wichtige Basis. Demnach wird ein Apotheker einen Standort mit hoher Kaufkraft unter ansonsten
gleichen Bedingungen eindeutig vorziehen.
Einem nicht wesentlich geringeren Einfluss kommt dem Wettbewerb und den Synergieeffekten zu.
Während in der Vergangenheit die Konkurrenz lediglich aus niedergelassenen Apotheken
bestand, so muss diese heute um Versandapotheken und Drogeriemärkte erweitert werden.
Tatsächlich spielt für die Verteilung allerdings nur die am Standort niedergelassene Konkurrenz eine Rolle, da Versandapotheken überregional agieren und somit jeder Standort in der
BRD gleichermaßen betroffen ist. Apotheker werden versuchen die Standorte zu meiden,
die bereits hohe Apothekendichten aufweisen.
Ferner hat die Untersuchung des Apothekenmarkts gezeigt, dass der Erfolg einer Apotheke von den Synergieeffekten der Branche abhängt. Die Effekte werden hier vor allem über
die niedergelassenen Ärzte generiert. Es konnte gezeigt werden, dass Apotheken in der
Nähe von Arztpraxen sowie Ärztehäusern deutlich erfolgreicher wirtschaften als an anderen Standorten. Der Grund hierfür ist eine erhöhte Verschreibungsdichte und eine größere
Anzahl an Kassenrezepten. Die Nähe zu Arztpraxen und eine hohe Anzahl niedergelassener
Ärzte spielen demnach eine Rolle bei der Standortwahl und nehmen so Einfluss auf die
Verteilung.
Der Einfluss des Arbeitsmarktes ist in der letzten Zeit angewachsen, da der Trend zu mehr
Personal mit höherer Qualifikation neigt. Der wachsenden Bedeutung wird heute dadurch
Rechnung getragen, dass in jedem Bundesland - ausgenommen Bremen - Pharmazie als
Studiengang angeboten wird.
Die Standortfaktoren politische Regelungen und das Bevölkerungsbild einer Region nehmen hier keinen Einfluss auf die Verteilung.
Im Rahmen dieser Arbeit konnte kein Bezug zwischen politischen Regelungen und dem
Apothekenmarkt bezüglich der Verteilung ausgemacht werden. Grundsätzlich besteht für
Apotheken eine Niederlassungsfreiheit.
Hinsichtlich des Bevölkerungsbildes einer Region zeigt die Analyse, dass für Apotheken
gerade ein Mix an jüngeren und älteren Kunden von Vorteil ist, da ältere Menschen zwar
häufiger Medikamente nachfragen, die jüngeren Kunden hingegen häufiger auf die Selbstmedikation zurückgreifen.
Wichtigste Literatur:
ABDA Bundesvereinigung Deutscher Apothekenverbände: Jahresbericht 07/08, Eschborn o.J.
Breyer, Friedrich; Zweifel, Peter; Kifmann Mathias: Gesundheitsökonomie, 5. Auflage, Heidelberg 2005
Bundesministerium für Wirtschaft und Technologie: Schlaglichter der Wirtschaftspolitik – Sonderheft der
Gesundheitswirtschaft, Berlin August 2008
Grönemeyer, Dietrich: Gesundheitswirtschaft –Die Zukunft für Deutschland, Berlin 2005
Lohmann, Heinz; Kehrein, Ines: Vision Gesundheit – Innovationsfaktor Gesundheitswirtschaft: Die Branche
mit Zukunft, Band 5
RWI Essen: Pflegeheim Rating Report 2007 – Wachstum und Restrukturierung, Heft 39
Statistisches Bundesamt: Die Bundesländer – Strukturen und Entwicklung, Ausgabe 2008, Wiesbaden März
2008
64
Kathrin Koziel, Bachelor of Laws
geboren am 7. Oktober 1982
Bewertung eines nicht-börsennotierten
Unternehmens am praktischen Beispiel
einer Private Equity Beteiligung
Bachelorarbeit, eingereicht im Sommer 2008
bei Professor Dr. Thomas Heide
Fachbereich Wirtschaftsrecht
Fachhochschule Gelsenkirchen,
Abt. Recklinghausen
In Deutschland wurden 2008 über 1.100 Projekte vom Start-up bis zum
Großunternehmen durch Beteiligungskapital in Höhe von rd. 8,4 Mrd. €
finanziert. Diese vom Bundesverband deutscher Kapitalbeteiligungsgesellschaften veröffentlichten Zahlen verdeutlichen die Aktualität der
vorliegenden Bachelorarbeit, auch wenn der Private Equity-Markt im ersten
Quartal 2009 angesichts der Finanz- und Wirtschaftskrise bereits eine
deutliche Korrektur erlebte.
Dieser Hintergrund veranschaulicht sehr deutlich, dass das Thema der
Unternehmensbewertung hohe praktische Relevanz besitzt. So stellt insbesondere in den ersten Jahren die Anschlussbewertung eines Private Equity
Unternehmens eine große Herausforderung auch für die finanzierenden
Banken dar. Die vorliegende Arbeit analysiert anhand der Discounted
Cashflow Analyse und der Multiplikatoranalyse eine nicht-börsennotierte
Gesellschaft, die im Rahmen eines Leveraged Buyouts übernommen wurde.
Die Autorin zeigt Anwendungsprobleme und Anpassungserfordernisse
sowie mögliche Lösungsansätze hierzu auf. In Ihrem Fazit weist die Autorin
insbesondere auf die mannigfaltigen Probleme bei der korrekten Evaluation
einer Private Equity Beteiligung hin. So werden tiefgreifende Einblicke in
die Prozesse und Strukturen des Unternehmens, sowie der Zugang zu Planzahlen und Entwicklungsplänen zwingend für erforderlich erachtet. Eine Bewertung mit Hilfe des Discounted Cashflow Verfahrens mit WACC könne im
Vergleich als genauer und zuverlässiger betrachtet werden, jedoch werde in
der Praxis häufig das Multiplikatorverfahren als Plausibilisierung hinzugezogen. Abschließend wird resümiert, dass eine Fair Value Bewertung eines
nicht-börsennotierten Unternehmens in der Praxis stets eine Herausforderung darstellt, aber insbesondere nach gründlicher Auseinandersetzung
mit dem Unternehmen und den einzelnen Bewertungsmethoden möglich
sein sollte.
Bewertung eines nicht-börsennotierten Unternehmens
am praktischen Beispiel einer Private Equity Beteiligung
1. Einleitung in das Thema der Bachelorarbeit
Die Finanzkrise beherrscht seit geraumer Zeit die Nachrichten wie kaum ein anderes Thema. Das Ausmaß der Krise und all ihre Folgen sind immer noch nicht in vollem Umfang zu
erkennen. Insbesondere zum Jahresende 2008 wurde deutlich, dass diese Krise maßgebliche Auswirkungen auch auf die Unternehmensbewertung – in der Bankenlandschaft – hat.
Das Thema der Unternehmensbewertung von nicht-börsennotierten Unternehmen
ist von hoher praktischer Relevanz, da Private Equity Beteiligungen in den vergangenen
Jahrzehnten mehr und mehr an Bedeutung gewonnen haben. Nach einer Investitionsentscheidung in ein Private Equity Unternehmen, stellt insbesondere die Anschlussbewertung
einer solchen Beteiligung eine Herausforderung dar. Diese besteht insbesondere in den
ersten Jahren nach Übernahme des Unternehmens durch Investoren, da in dieser Zeit durch
hohe Fremdkapitalanteile und laufende Umstrukturierungen meist negative Ergebnisse
erzielt werden. Eine Bewertung solcher Beteiligungen zum Fair Value ist jedoch zwingend
notwendig für Unternehmen, die nach den International Financial Reporting Standards
(IFRS) bilanzieren.1 Der Ansatz zu fortgeführten Anschaffungskosten ist gemäß IAS 39 nur
in Ausnahmefällen gestattet. Dieser wird den Unternehmen nur dann zugestanden, falls der
Fair Value nicht zuverlässig bestimmt werden kann. Von einem Finanzinstitut wird jedoch
erwartet, dass ein Fair Value ermittelt werden kann.
In der Bankpraxis muss eine solche Bewertung im Rahmen der Zwischen-berichtserstattung zumindest einmal im Quartal vorgenommen werden. Die Bestimmung des Fair Value
einer Private Equity Beteiligung gestaltet sich in der Praxis jedoch äußerst schwierig und
hat im Rahmen der gegebenen Ermessensspielräume einen erheblichen Einfluss auf die
Bilanz und die Gewinn- und Verlustrechnung des Investors. Daher werden innerhalb der
Banken meist eigenständige Teams mit Spezialexpertise gebildet.
Bei der der vorliegenden Arbeit zugrunde liegenden Beteiligung handelt es sich um eine
nicht-börsennotierte Gesellschaft, die im Rahmen eines Leveraged Buyouts (LBO) übernommen wurde. Besonders charakteristisch für solche Transaktionstypen ist die Finanzierung
des Kaufpreises überwiegend durch Fremdkapital, insbesondere vorrangig besicherte Bankdarlehen (so genannte Senior Loans). Das Eigenkapital wird zumeist von den Private Equity
Gesellschaftern bereitgestellt. Für den praktischen Teil der Arbeit wurde eine Private Equity
Beteiligung der Bank AG ausgesucht, die einen 1%igen Anteil am Eigenkapital der „The
Orange Company B.V.“ („Orange“) hält2. Orange ist ein Unternehmen, welches hauptsächlich
in der Informations- und Medienbranche agiert. Hauptsitz der Gesellschaft sind die Niederlande. Im Jahre 2006 wurde das Unternehmen von der Black Acquisition B.V. („Black“), einer
Akquisitionsgesellschaft, die von mehreren Investmentfonds zum Zwecke der Akquisition
gegründet wurde, übernommen und ist seitdem in Privateigentum. Orange ist im Bereich
Information Services und Market Research tätig.
Im Rahmen dieser Arbeit wird die Bewertung anhand der in der Praxis am häufigsten
angewandte Verfahren der Discounted Cashflow Analyse und der Multiplikatoranalyse
vorgenommen. Die Kapitalmarktorientierung dieser Verfahren führt aber zu Anwendungsproblemen bei der Bewertung von Private Equity Beteiligungen. Aus diesem Grund können
diese Verfahren nicht ohne Anpassungen für ein im Rahmen eines LBO’s übernommenen
1 Gemäß Art. 4 der Verordnung (EG) Nr. 1606/2002 des Europäischen Parlaments und des Rates vom
19.7.2002 müssen alle Unternehmen, deren Wertpapiere in einem beliebigen EU-Mitgliedsstaat zum Handel
in einem geregelten Markt zugelassen sind, für ab dem 1.1.2005 beginnende Wirtschaftsjahre verpflichtend
die IFRS anwenden.
2 Aus Vertraulichkeitsgründen ist der Name der Bank und der zu bewertenden Gesellschaft und
allen verbundenen Unternehmen von der Verfasserin geändert worden. Dies gilt auch für den im
Literaturverzeichnis angegebenen Jahresabschluss.
66
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2008
Private Equity Unternehmen angewandt werden. Die zugrunde gelegten Parameter zur Berechnung des Unternehmenswertes sind für eine solche Beteiligung auf Grund ihrer besonderen Struktur schwierig zu ermitteln. Die Besonderheiten, die bei einer solchen Bewertung
auftreten, werden in der vorliegenden Arbeit hervorgehoben und mögliche Lösungsansätze
kritisch diskutiert. Die Anwendung von mehreren Verfahren empfiehlt sich insbesondere vor
dem Hintergrund der Plausibilisierung der Ergebnisse.
Ausgangspunkt für eine Bewertung sind stets die veröffentlichten Abschlüsse der Gesellschaft und deren Anlagen. Die Anforderungen an die veröffentlichten Abschlüsse der
Unternehmen können besonders im Private Equity Bereich sehr unterschiedlich sein. Nicht
alle benötigten Informationen sind daher leicht zugänglich oder überhaupt verfügbar. Die
Grundlage für eine Bewertung muss daher durch genaue Analysen aller zugänglichen Informationen und vor allem eigene Annahmen erweitert werden. Um die zugrunde liegenden
Parameter der Bewertung zu berechnen müssen folglich die Bilanz, sowie die Gewinn- und
Verlustrechnung der vergangenen Jahre ausgewertet werden.
2. Die Bilanz und Gewinn- und Verlustrechnung der Orange Company
Mit Hilfe des veröffentlichten Jahresabschlusses der Orange Company kann in einem
ersten Schritt eine genaue Analyse der Einnahmen getätigt werden. Diese wird im Detail
für die Geschäftsbereiche und Regionen vorgenommen. Demnach erwirtschaftet Orange
im Bereich Information Services 56% der Einnahmen. Rund 66% der Einnahmen werden
zudem in der Region Americas erwirtschaftet, wobei 56% zu den USA zu allokieren sind.3
Zum Bilanzstichtag 31. Dezember 2007 verfügte Orange über eine Bilanzsumme von rund
$16 Mrd. (siehe Abbildung 1). Der aktivierte Goodwill machte knapp 48% der gesamten
Vermögenswerte aus. Dies ist ein enorm hoher Wert, der im Rahmen der vorzunehmenden
Bewertung berücksichtigt werden muss. Der aktivierte Goodwill entsteht dann, wenn die
Anschaffungskosten einer Beteiligung höher als die Differenz aus Vermögensgegenständen
und Schulden sind. Die akquirierende Gesellschaft, erwartet folglich einen höheren Nutzenzufluss. Mit 33% der Bilanzsumme sind weitere immaterielle Vermögenswerte auf der
Aktivseite bilanziert. Demnach fallen allein 81% der Vermögenswerte auf den Goodwill und
die anderen immateriellen Vermögenswerte.4
Abb. 1: Die Bilanz und Gewinn- und Verlustrechnung der Orange Company
Datenquelle: The Orange Company: Annual Report 2007 pursuant to section 13 or 15(d) of the securities exchange act of 1934, S.73
3 Vgl. The Orange Company: Annual Report 2007 pursuant to section 13 or 15(d) of the securities exchange
act of 1934, S.128
4 Vgl. Ebenda, S.89
67
Bewertung eines nicht-börsennotierten Unternehmens
am praktischen Beispiel einer Private Equity Beteiligung
Den größten Posten der Passivseite machen die langfristigen Verbindlichkeiten des Unternehmens mit rund $10 Mrd. aus. Das Eigenkapital beträgt knapp $4 Mrd. und macht somit lediglich 24% der Bilanzsumme aus. Dies ist eine typische Finanzierungsstruktur für ein
LBO. Ungefähr 66% des langfristig aufgenommenen Fremdkapitals sind durch so genannte
Senior Secured Credit Facilities abgedeckt. Dem Jahresabschluss der Orange Company ist
der Fair Value des langfristigen Fremdkapitals zu entnehmen und ist im Rahmen der Bewertung der Orange Company als solcher anzusehen. Ebenfalls angegeben ist die durchschnittliche Verzinsung der Senior Secured Credit Facilities und der Debenture Loans und des
gesamten langfristigen Fremdkapitals. Letzteres wird mit durchschnittlich 8,24% verzinst.
Das langfristige Fremdkapital wurde überwiegend in USD aufgenommen.5
Bezüglich der für die DCF mit Weighted Average Cost of Capital benötigten Zielkapitalstruktur lassen sich dem Jahresabschluss nur beschränkt Informationen entnehmen.
Demnach sind aber in den nächsten vier bis fünf Jahre keine gravierenden Änderungen zu
erwarten. Dies geht in erster Linie aus der Fälligkeitsstruktur der langfristigen Verbindlichkeiten hervor. Grundsätzlich ist aber auch bei diesem LBO ein Initial Public Offering (IPO) in
fünf bis acht Jahren geplant.6
Besonders interessant ist im Rahmen einer Bewertung der Ausblick auf das Ertragspotenzial des Unternehmens in den nächsten Jahren. Anmerkungen hierzu finden sich ebenfalls
in den Jahresabschlusskommentierungen. Diese beziehen sich insbesondere auf den
„Veronis Suhler Stevenson Industry Forecast 2007“7. Demnach geht man im Bereich Fernsehwerbung zwischen 2007 und 2011 von einem durchschnittlichen jährlichen Wachstum
(compound annual growth rate oder „CAGR“) von 4% aus.8 Unter Berücksichtigung der
Kosteneinsparungsprogramme, die vom Management auf den Weg gebracht wurden, ergibt
sich für die zukünftigen Geschäftsaussichten ein durchaus positives Bild. Orange verfügt
über einen Kundenstamm, der bereits seit Jahrzehnten Geschäftsbeziehungen zum Unternehmen Aufrecht erhält. Diese Tatsache ist insbesondere auf die zu erwartende steigende
Nachfrage in den verschiedenen Segmenten positiv zu bewerten.
3. Bewertung anhand der Discounted Cashflow Methode
(FCF to Entity)
3.1. Prognostizierung der Free Cashflows
Für eine Bewertung anhand der DCF Methode sind sehr viele Informationen nötig, folglich
ist ein solches Bewertungsverfahren bei nicht-börsennotierten Unternehmen unter Umständen schwierig. Denn es sind meist nicht nur extern veröffentlichte Finanzaufstellungen und
Unternehmensinformationen erforderlich, sondern vielmehr auch Planzahlen und zukünftige Entwicklungsstrategien. Diese werden im Normalfall während der Due Diligence Phase
bereits eingeholt. Je höher/niedriger der Anteil der Bank an dem zu bewertenden Unternehmen ist, desto auskunftsfreudiger/weniger auskunftsfreudig ist das Unternehmen.
5 Vgl. The Orange Company: Annual Report 2007 pursuant to section 13 or 15(d) of the securities exchange
act of 1934, S.89
6 Vgl Bank AG interne Quelle, 2006, S.2
7 Der VSS Industry Forecast wird auf jährlicher Basis erstellt und gilt insbesondere für die Medienbranche
als wichtiger Indikator für die zukünftigen Entwicklungspotenziale. Im Rahmen dieser Arbeit liegt der
VSS Industry Forecast 2007 leider aus Kostengründen nicht vor. Aus diesem Grund wird auf die im
Jahresabschluss enthaltenen Anmerkungen zum VSS Industry Forecast 2007 zurückgegriffen.
8 Vgl. The Orange Company: Annual Report 2007 pursuant to section 13 or 15(d) of the securities exchange
act of 1934, S.6f.
68
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2009
Für eine Bewertung mittels der Discounted-Cashflow-Methode sind einige Parameter
zwingend erforderlich. Hierzu gehören unter anderem die prognostizierten Cashflows des
zu bewertenden Unternehmens. Aus diesem Grund muss die Cashflowentwicklung der
letzten Jahre genau analysiert werden und auch die Planzahlen sollten kritisch hinterfragt
werden.
Auch im Rahmen dieser Arbeit standen Prognosen zum Ertragspotenzial zur Verfügung.
Diese wurden im Jahr 2006 erstellt und basieren unter anderem auf den von Orange zur
Verfügung gestellten Planzahlen. Darin werden für das Jahr 2008 Einnahmen von ca.
$5 Mrd. prognostiziert, die Steigerungsraten in den darauf folgenden Jahren liegen bei ca.
5%. Das adjusted EBITDA wird für das Jahr 2008 auf $1.189 Mio. geschätzt und unterliegt
in den darauf folgenden Jahren ebenfalls Steigerungsraten von 5%. Unter einem adjusted
EBITDA versteht man i.d.R. die von Sondereffekten bereinigte, unabhängig von der Finanzierungstätigkeit ermittelte Ertragskraft des operativen Geschäfts. Die Capital Expenditures
(CapEx oder auch Investitionsausgaben) bewegen sich im Zeitraum von 2008 bis 2011 der
Schätzung nach zwischen $198 Mio. und $223 Mio. Der angegebene Free Cashflow wird für
das Jahr 2008 auf $310 Mio. prognostiziert. Dieser Cashflow muss demnach ein Cashflow
to Equity darstellen, da ansonsten der Zinsaufwand, der im Jahr 2007 bei $648 Mio. lag und
bei dem für die zukünftigen Jahre kein signifikanter Rückgang erwartet werden kann, den
Free Cashflow übersteigen würde. Dabei dient der Cashflow wie bereits erörtert der Rückzahlung des Fremdkapitals. Um von den Free Cashflows to Equity zu den Free Cashflows to
Entity zu gelangen wird aus Vereinfachungsgründen der um die Steuerersparnis verminderte, jährliche Fremdkapitalaufwand hinzugerechnet (InterestExpsenseLessTaxShield=
648x(1-255)). Daraus ergeben sich dann folgende Free Cashflows to Entity:
Abb. 2: Free Cashflow Estimates (adjusted)
Um diese Berechnungen zu plausibilisieren, kann der aktuelle Free Cashflow des Geschäftsjahres 2007 hinzugezogen werden. Aus der Plausibilisierungsanalyse bestätigt sich die
Korrektheit der vorgenommenen Anpassung.
69
Bewertung eines nicht-börsennotierten Unternehmens
am praktischen Beispiel einer Private Equity Beteiligung
3.2. Der Diskontierungszinssatz WACC
Der Diskontierungszinssatz WACC ergibt aus folgendem Zusammenhang:
Fremdkapitalgeber; s: Unternehmenssteuersatz; FK: Fremdkapital; EK: Eigenkapital.
Für die Bestimmung der WACC werden lediglich die dem Finanzierungsbereich zuzuordnenden Teile des Fremdkapitals (also das verzinsliche Fremdkapital) einbezogen. Hierzu
wurden die Angaben der veröffentlichten Jahresabschlüsse analysiert. Vor allem bei den
kurzfristigen Teilen des verzinslichen Fremdkapitals erscheint der Ansatz von Buchwerten
unproblematisch, denn Buch- und Marktwerte dürften aufgrund der Kurzfristigkeit nah
beieinander liegen. Die unter dem Fremdkapital ebenso aufgeführten Steuerverbindlichkeiten hingegen sollten nicht zum Marktwert des Fremdkapitals gezählt werden. Im Grunde
dienen diese Verbindlichkeiten keinerlei Finanzierung des Unternehmens, und zum Zwecke
der Bewertung ist es sinnvoll diese für die Ermittlung der WACC auszublenden. Die Steuerverbindlichkeiten haben für das aktuelle Jahr den Cashflow theoretisch erhöht, denn sie
wurden lediglich als Verbindlichkeit in die Bilanz aufgenommen ohne jedoch den Cashflow
reduziert zu haben.
Des Weiteren müssen die kurzfristig fälligen Anteile des langfristigen Fremdkapitals
berücksichtigt werden. Für diese werden im Rahmen der Analyse aus Vereinfachungsgründen die Buchwerte angesetzt. Fraglich ist, zu welchem Fremdkapitalzins diese $8.504 Mio.
verzinst werden. Dem Jahresabschluss der Orange Company sind diesbezüglich weitere
Angaben zu entnehmen. Mit $7.696 Mio. machen die langfristigen Fremdkapitalposten den
größten Teil des Marktwertes aus. Diese haben einen durchschnittlichen Fremdkapitalzinssatz von 8,24%. Dieser Zinssatz bezieht sich jedoch auf die Buchwerte des Fremdkapitals.
Da jedoch die Buchwerte von den Marktwerten des langfristigen Fremdkapitals nur geringfügig abweichen, wird dieser Umstand zum Zwecke der Bewertung vernachlässigt. Aus
diesem Grund soll in der nachfolgenden Analyse von einer Fremdkapitalverzinsung in Höhe
von 8,24% ausgegangen werden.
Für die Berechnung der WACC ist zudem die Eigenkapitalrendite zu berechnen. Im
Rahmen der DCF Methode bedient man sich in der Praxis des CAPMs. Beim vorliegenden
Praxisbeispiel wird schnell deutlich, dass die Anwendung eines kapitalmarktorientierten
Verfahrens, wie dem CAPM, nicht problemlos auf die nicht-börsennotierte Orange
Company angewandt werden kann. Zum besseren Verständnis soll hier noch mal die
Berechnungsmethode der Eigenkapitalrendite mit Hilfe des CAPMs aufgezeigt werden:,
mit rEK : Renditeforderung der Eigenkapitalgeber; iR: Rendite der risikolosen Anlage; : Beta;
: erwartete Rendite des Marktportfolios; iR : Rendite der risikolosen Anlage.
Demnach wird im ersten Schritt ein adäquater risikoloser Zinssatz festgelegt. Im vorliegenden Anwendungsbeispiel bietet sich eine US Treasury Note mit einer Laufzeit von zehn
Jahren an. Bei der Auswahl der risikolosen Anlagemöglichkeit sollte darauf geachtet werden, dass diese konsistent mit den Cashflows behandelt wird. Da die Cashflows der Orange
Company in USD angegeben werden, ist das Zurückgreifen auf US Treasury Bonds durchaus
angebracht. Diese Bonds werden derzeit mit 3,85%9 verzinst. Die Wahl einer US Treasury
9 Verzinsung zum Stichtag 23.5.2008. Quelle: http://www.federalreserve.gov/releases/h15/data/Business_day/
H15_TCMN OM_Y10.txt, letzter Abruf 30.6.2008
70
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2009
Note ist außerdem sinnvoll, weil Orange mehr als die Hälfte ihrer Erträge in den USA erwirtschaftet und sich die restlichen Erträge über zahlreiche weitere Regionen aufteilen.
Für die Ermittlung der Marktrisikoprämie wird von der erwarteten Rendite des Marktportfolios der durchschnittliche risikolose Zinssatz eines festgelegten vergangenen Betrachtungszeitraums subtrahiert. Für die Bewertung der Orange Company ist fraglich, welche
Rendite des Marktes erwartet werden kann und welcher Markt überhaupt als relevant
bezeichnet werden kann. In Frage kämen hier beispielsweise der S&P 500 oder empirisch
bestimmte Marktrisikoprämien zahlreicher Studien. Im vorliegenden Fall ist kritisch zu
hinterfragen, ob der S&P 500 ein adäquater Index ist. Der S&P 500 ist ein Index, der 500 der
größten, börsennotierten US-amerikanischen Unternehmen enthält. Rein geographisch ist
der Index demnach plausibel anzuwenden. Allerdings ist kritisch zu bewerten, dass der Index lediglich börsennotierte Unternehmen enthält, Orange derzeit jedoch nicht börsennotiert ist. Die Größenverhältnisse der im Index enthaltenen Unternehmen stimmen ebenfalls
nicht mit denen der Orange Company überein. Grundsätzlich kann aber durchaus auf den US
Markt zurückgegriffen werden, denn dieser ist für die Orange Company von herausragender
Bedeutung. Aus diesem Grund wird für die Bestimmung der Marktrisikoprämie im Praxisbeispiel auf die erwartete Marktrendite für den US-amerikanischen Markt zurückgegriffen.
Diese beträgt derzeit 10,69%10.
Für die Ermittlung der Marktrisikoprämie wird des Weiteren auf den durchschnittlichen
risikolosen Zinssatz der US Treasury Bonds der vergangenen fünf Jahre zurückgegriffen.
Dieser liegt bei 4,34%11. Als Marktrisikoprämie ergibt sich somit ein Zinssatz von 6,35%
(= 10,69% - 4,34%). An dieser Stelle ist durchaus diskussionswürdig, welcher Zeitraum
für die Ermittlung des durchschnittlichen risikolosen Zinssatzes für die Berechnung der
Marktrisikoprämie verwendet werden sollte. Im erläuterten Beispiel handelt es sich um
einen Zeitraum von fünf Jahren. Es könnte jedoch durchaus in Betracht gezogen werden, an
dieser Stelle die Durchschnittsverzinsung der zehnjährigen US Treasury Bonds der letzten
20 Jahre zu verwenden. 12 Dafür spricht die Tatsache, dass mit Hilfe der Durchschnittbildung
kurzfristige Marktschwankungen und Schätzfehler geglättet werden können. Dennoch wird
im vorliegenden Beispiel auf einen Zeitraum von fünf Jahren zurückgegriffen, da somit die
Marktrisikoprämie tendenziell höher ausgewiesen wird. Die Zinsen sind in den vergangen
Jahren gesunken und durch die Anwendung einer geringeren Verzinsung wird die Marktrisikoprämie höher. Für den amerikanischen Markt erscheint eine höhere Risikoprämie unter
Berücksichtigung der aktuellen Entwicklungen angebrachter. Durch diese Annahme steigt
auch die geforderte Eigenkapitalrendite. Da es sich im vorliegenden Beispiel um ein risikoreicheres Investment im Private Equity Bereich handelt, ist die Anwendung einer höheren
geforderten Eigenkapitalrendite durchaus zu befürworten.
Für die weitere Berechnung der Eigenkapitalrendite benötigt man das , also den
Maßstab für das systematische Risiko. Das wird durch eine Regressionsanalyse einer
bestimmten Aktie zum entsprechenden Markt errechnet. Bei der Bewertung einer nicht-börsennotierten Gesellschaft wie der Orange Company, ergibt sich an dieser Stelle ein Problem:
Es gibt keine Aktie des Unternehmens, die in einem bestimmten Index notiert ist. Eine
derartige Regressionsanalyse ist aus diesem Grund nicht möglich. Diese Schwierigkeit
kann in der Praxis dadurch gelöst werden, dass man für die Ermittlung des systematischen
10 Quelle: Bloomberg, letzter Abruf 26.5.2008
11 Mittelwert der Zinssätze der letzten fünf Jahre der US Treasury Bonds mit einer Laufzeit von 10 Jahren.
Quelle: http://www.federalreserve.gov/releases/h15/data/Business_day/H15_TCMN OM_Y10.txt, letzter Abruf
30.6.2008
12 Vgl. Obermaier, R., Basiszinssatz, 2006, S.475
71
Bewertung eines nicht-börsennotierten Unternehmens
am praktischen Beispiel einer Private Equity Beteiligung
Risikos die Betas einer Peer Group heranzieht und dann Rückschlüsse auf das der zu
bewertenden Gesellschaft zieht. Eine zweite Möglichkeit besteht darin Industry Betas zu
verwenden. In diesem Fall erscheint jedoch eine Ermittlung des Betas durch eine Peer
Group zielführender. Diese Berechnung kann für die zwei Haupttätigkeitsfelder der Orange
Company vorgenommen werden. Für die Ermittlung einer adäquaten Peer Group sollte als
erster Ansatzpunkt die richtige Branchenzugehörigkeit sichergestellt sein. Diese bietet
empirischen Untersuchungen zufolge eine relativ hohe Effektivität. Aus der Analyse der
Geschäftsfelder haben sich zwei Hauptschwerpunktbranchen ergeben: der Bereich Market
Research (erwirtschaftet 44% der Einnahmen) und die Sparte Information Services (erwirtschaftet 56% der Einnahmen). In diesen beiden Branchen müssen die Peer Unternehmen
demnach tätig sein und diese müssen auch getrennt betrachtet werden.
Des Weiteren wäre es vorteilhaft, wenn die Unternehmen der Peer Group bezüglich Größe,
Alter und Cashflow Entwicklungen dem zu bewertenden Unternehmen ähnlich wären.
Jedoch ist hier zu beachten, dass dies keine zwingende Voraussetzung für die Auswahl
der Peer Group ist. Bei besonderen Finanzierungsstrukturen dürften diese Vergleiche mit
börsennotierten Unternehmen mitunter schwierig sein. In der Analyse ist zu beachten,
dass das jeweilige systematische Risiko der Peer Unternehmen in Form des Betas von der
Finanzierungsstruktur des jeweiligen Unternehmens bereinigt werden muss. Besonders im
vorliegenden Beispiel wird die Problematik einer unbedachten Anwendung eines Peer Betas
deutlich, denn die Finanzierungsstruktur eines von Private Equity Gesellschaften übernommenen Unternehmens unterscheidet sich i.d.R. deutlich von der Finanzierungsstruktur an
der Börse notierter Unternehmen. Aus diesem Grund müssen die Betas der einzelnen Peer
Group Unternehmen in einem ersten Schritt „unleveraged“ werden, d.h. um die Finanzierungsstruktur bereinigt werden. In einem zweiten Schritt wird dann die Finanzierungsstruktur des zu bewertenden Unternehmens auf das „unleveraged“ Beta angewandt, die Betas
werden demnach „releveraged“. Um das „unleveraged“ Beta zu ermitteln, wird auf folgende
Berechnungsmethode zurückgegriffen:
: unleveraged Beta; : leveraged Beta; s: Unternehmenssteuersatz; FK: Marktwert des
Fremdkapitals; EK: Marktwert des Eigenkapitals.
Das „releveraged“ Beta lässt sich dann durch die Umstellung der oben aufgeführten
Formel berechnen. Für die oben aufgeführten Peer Unternehmen lassen sich die Betas,
sowie die Verschuldungsgrade und der Unternehmenssteuersatz mit Hilfe von Bloomberg
abfragen. Die der Berechnung zugrunde gelegten „leveraged“ Betas der Unternehmen
stellen wöchentliche raw Betas für einen Zeitraum zwischen dem 02.06.2006 und dem
25.05.2008 dar. Raw Betas basieren lediglich auf Vergangenheitsdaten und enthalten keinerlei Zukunftsprognosen. Um zukünftige Beta Prognosen in die Kalkulation mit einfließen
zu lassen, könnte man auf so genannte adjusted Betas zurückgreifen. Diese sind ebenfalls
in Bloomberg abrufbar. Das adjusted Beta geht von der Annahme aus, dass Unternehmen
im Laufe der Zeit diversifizieren und sich ihre Beta-Werte daher immer mehr in Richtung
Eins, also in die Nähe des Marktportfoliowerts, bewegen. In der Praxis wird aber wegen der
sehr pauschalen Berechnung (=2/3 x raw Beta+1/3 x 1)13 des adjusted Betas, lediglich das
13 Vgl. Dörschell, A.; Franken, L.; u.a., Kapitalkosten, 2006, S.6
72
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2009
raw Beta verwendet. Die pauschale Berechnung ist insbesondere insofern fragwürdig, als
dass Unternehmen in sehr unterschiedlichem Maße diversifizieren dürften.14
Die für beide Sparten errechneten Mediane werden wie bereits erläutert mit 56% und
44% gewichtet. Somit ergibt sich ein Beta von 1,08. Somit liegt das Beta der Orange Company nah am Beta des Marktportfolios, welches ein Beta von eins vorweist. Ein Beta von
1,08 erscheint für die Orange Company plausibel, weil sie stark vom Gesamtmarkt abhängig
ist.
Aus den ermittelten Daten lässt sich die geforderte Eigenkapitalrendite für die Orange
Company ausrechnen.:
Abb. 3: Die Ermittlung der Eigenkapitalkosten
Mit den errechneten Daten kann an dieser Stelle eine DCF Bewertung vorgenommen werden. Hierzu soll in einem ersten Schritt die Bewertung anhand der Free Cashflows to Entity
erfolgen, da dies das in der Praxis am häufigsten angewandte Verfahren ist.
Abb. 4: Bewertungsergebnis der DCF mit WACC (Teil 1)
In der Abbildung 4 ist die Diskontierung der Flows to Entity dargestellt. Für die Bewertung
sind die Cashflows in zwei Zeitfenster geteilt. Der erste Planungszeitraum beträgt vier Jahre
von 2008 bis 2011. Für den darauf folgenden Zeitraum wird ein Fortführungswert berechnet. In der Bewertung der Orange Company wird vom Cashflow des Jahres 2011 ausgegangen. Diese Annahme beruht auf der Unterstellung eines Gleichgewichtszustandes in dem
die Cashflows des letzten Detailprognosezeitraums als „ewig“ erzielbar gelten. In einem
solchen Fall müssen die Abschreibungen den Investitionen gleichen und Sondereffekte des
letzten Detailprognosezeitraums eliminiert worden sein.
14 Vgl. Geginat, J.; Morath, B.; u.a., Entscheidungskriterium, 2006, S.20
73
Bewertung eines nicht-börsennotierten Unternehmens
am praktischen Beispiel einer Private Equity Beteiligung
Für die Ermittlung des Unternehmenswertes der Orange Company wird von einer Wachstumsrate von 0% ausgegangen. Diese Annahme beruht zum einen auf der Tatsache, dass
die Wachstumsrate einen enorm hohen Einfluss auf den Unternehmenswert hat. Dieser wird
durch die Annahme einer kontinuierlichen Steigerung der Free Cashflows unter Umständen
künstlich aufgebläht. Das Ergebnis der Bewertung kann so maßgeblich beeinflusst und
somit verfälscht werden.
Um den Barwert der Free Cashflows zu errechnen, werden die Free Cashflows mit dem
Diskontierungsfaktor abgezinst Aus der Addition der Barwerte der Free Cashflows und dem
Fortführungswert ergibt sich der Unternehmenswert. Demnach ist die Orange Company
zum Zeitpunkt der Bewertung $11.760 Mio. wert. In diesem Wert ist bereits der Liquidationswert des nicht betriebsnotwendigen Vermögens in Höhe von $399 Mio. enthalten. Diese
Position ergibt sich ausschließlich aus den liquiden Mitteln der Orange Company.
Abb. 5: Bewertungsergebnis der DCF mit WACC (Teil 2)
Im Rahmen dieser Arbeit ist der Fair Value des von der Bank AG gehaltenen Anteils an
der Orange Company zu ermitteln. Da die Bank AG ein Equity Investment an der Orange
Company hält, muss im nächsten Schritt vom Gesamtwert des Unternehmens der Marktwert
des verzinslichen Fremdkapitals abgezogen werden. Dieser beträgt wie bereits diskutiert
$8.504 Mio. Daraus resultiert ein Marktwert des Eigenkapitals in Höhe von $3.256 Mio. Eine
1%ige Beteiligung entspricht demnach $32,56 Mio. Des Weiteren wird ein Abschlag in Höhe
von 20% für Nicht-Handelbarkeit vom Beteiligungswert abgezogen. Dieser Abzug rechtfertigt sich insbesondere durch die Tatsache, dass es sich bei dem Investment in die Orange
Company um ein risikoreiches Private Equity Geschäft handelt, dessen von der Bank erworbener Anteil nicht jederzeit an der Börse veräußert werden kann. Im Falle eines vorzeitigen
Veräußerungswunsches seitens der Bank muss zuerst ein Erwerber gefunden werden. In
einem solchen Fall ist ebenfalls mit dem Verkauf zu einem niedrigeren Wert auszugehen.
4. Bewertung anhand der Discounted Cashflow Methode (FCF to Equity)
Bei der Bewertung der Flows to Equity ist zu beachten, dass diese nicht mit den WACC diskontiert werden können, sondern lediglich mit der Eigenkapitalrendite abgezinst werden.
Für die Berechnung der WACC wurde die Eigenkapitalrendite jedoch bereits ermittelt und
kann für die vorliegende Bewertungsmethode erneut herangezogen werden. Demnach kann
- wie in der folgenden Abbildung dargestellt - von einem Diskontierungszinssatz in Höhe
von 10,68% ausgegangen werden.
74
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2009
Abb. 6: Inputparameter Übersicht für die DCF mit Flow to Equity
In der nächsten Abbildung ist die DCF Bewertung der Free Cashflows to Equity dargestellt.
Abb. 7: Bewertungsergebnis der DCF mit Flow to Equity
Auch bei der Anwendung der DCF Methode mit Free Cashflows to Equity wird von einer
Wachstumsrate in Höhe von 0% ausgegangen. Bei dieser Methode wird nicht der Gesamtunternehmenswert ermittelt, sondern nur der Marktwert des Eigenkapitals. Insofern kann
direkt vom Ergebnis der Wert der 1%igen Beteiligung der Bank AG errechnet werden. Dieser
liegt nach Abzug eines 20%igen Abschlags bei $29,86 Mio. Dieses Ergebnis dient der Plausibilisierung der DCF Analyse mit Hilfe der Free Cashflows to Entity. Für sich allein gesehen,
ist die Berechnung des Unternehmenswertes mit dieser Methode nicht sehr aussagekräftig, da die gesamte Finanzierungsstruktur der Orange Company außer Acht gelassen wird.
Jedoch unterstreicht das Ergebnis dieser Bewertung die Annahme, dass die vorgegebenen
Free Cashflows lediglich Free Cashflows to Equity darstellten und einer Anpassung zwingend bedurften. Zur weiteren Plausibilisierung des Ergebnisses sollte jedoch eine Multiplikatoranalyse herangezogen werden.
5. Bewertung anhand des Multiplikatorverfahrens
Bereits bei der Berechnung des Betas der Orange Company wurde auf die Peer Group
des Unternehmens zurückgegriffen. In der folgenden Abbildung sind unter anderem die
am häufigsten angewandten Multiplikatoren Enterprise Value/EBIT(DA) dargestellt. Diese
werden sowohl für die letzten zwölf Monate als auch für die Jahre 2008 und 2009 berechnet.
Bei letzteren wird hier jedoch auf geschätzte Werte aus den Analysen Bloombergs zurückgegriffen.
75
Bewertung eines nicht-börsennotierten Unternehmens
am praktischen Beispiel einer Private Equity Beteiligung
Abb. 8: Multiplikatoren Übersicht der Peer Group
Die geschätzten adjusted EBITDA Werte der Orange Company können nun zur Bewertung
der Orange Company hinzugezogen werden. Daraus ergibt sich folgendes Ergebnis:
Abb. 9: Ergebnis der Bewertung mit Hilfe des Multiplikatorverfahrens
Durch das Multiplikatorverfahren wird ein Unternehmenswert in Höhe von $11.797 Mio.
festgestellt. Dieser beinhaltet ebenfalls den Liquidationswert des nicht betriebsnotwendigen Vermögens in Höhe von $399 Mio. Wie auch bei der DCF Bewertung mit FCF to Entity
muss hier das verzinsliche Fremdkapital in Höhe von $8.504 Mio. abgezogen werden, um
zum Equity Value zu gelangen. Dieser liegt nach der vorliegenden Berechnung bei $3.293
Mio. Von diesem Wert wird ebenfalls ein Abschlag für Nicht-Handelbarkeit in Höhe von 20%
abgezogen. Der Bank AG Anteil an der Orange Company ist folglich $26,34 Mio. wert.
6. Fazit
Im Rahmen der Ausarbeitung wurde deutlich, dass sich an vielen Stellen der Bewertung
einer Private Equity Beteiligung Probleme ergeben.
Für die Bewertung mit Hilfe des Discounted Cashflow Verfahrens wurde bewusst sowohl
auf die Diskontierung mit den Weighted Average Cost of Capital als auch auf die Diskontierung mit den Cost of Equity eingegangen. Hierbei gestaltet sich die Prognose der zukünftigen Cashflows bei der Bewertung eines nicht-börsennotierten Unternehmens sehr schwierig und erfordert gute Einblicke in die Prozesse und Strukturen des Unternehmens, sowie
76
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2009
Zugang zu Planzahlen und Entwicklungsplänen. Die Recherche gestaltet sich häufig äußerst
schwierig. So wurde zwar eine Prognose der zukünftigen Cashflows für die Bewertung zur
Verfügung gestellt, jedoch gab es keinen Zugang zu den dahinter stehenden Annahmen
und Planzahlen. Für die Bewertung der Orange Company erwies sich die Plausibilisierung
dieser Zahlen demnach als sehr aufwendig. Weitergehende Informationen konnten nur über
öffentlich zugängliche Quellen beschafft werden.
Im Rahmen der DCF Bewertung mit WACC mussten die Cashflows aus den erläuterten
Gründen angepasst werden. Es haben sich allerdings neben der Bestimmung der Cashflows
noch weitere Probleme ergeben, welche vornehmlich in der richtigen Bestimmung der
WACC zu sehen sind. Im Rahmen einer Bewertung eines nicht-börsennotierten Unternehmens bereitet die Anwendung des CAPM’s Schwierigkeiten. Denn an dieser Stelle ist fraglich, ob eine kapitalmarktorientierte Ermittlung der Kapitalkosten überhaupt angebracht ist
und inwieweit das Ergebnis zutreffend ist. Um die Eigenkapitalkosten zu ermitteln, wurde
für die Bewertung der Orange Company auf die historischen Betas der Peer Group zurückgegriffen. Eine solche Vorgehensweise erscheint durchaus plausibel, jedoch muss klar sein,
dass bereits an dieser Stelle mehrere Unsicherheitsfaktoren auftreten. Zum einen muss
eine geeignete Peer Group gefunden werden, zum anderen werden lediglich historische
Betaentwicklungen berücksichtigt, dabei ist es doch gerade der zukünftige Ausblick, der
die Bewertung mit Hilfe einer DCF Analyse bestimmt. Das Ergebnis der Discounted Cashflow
Bewertung unter Anwendung der Cost of Equity und der Free Cashflows to Equity lag höher
als die Ergebnisse der beiden anderen Bewertungsmethoden. An dieser Stelle kann aber
festgehalten werden, dass diese Bewertungsmethode lediglich einen groben Richtwert
ermitteln kann und für die Bewertung einer Private Equity Beteiligung an einem nichtbörsennotierten Unternehmen zu ungenau erscheint. Dies wird besonders deutlich, wenn
man sich bewusst macht, dass die Finanzierungsstruktur der zu bewertenden Gesellschaft
komplett ausgeblendet wird. Eine derartige Vorgehensweise kann für Unternehmen mit
einem so hohen Fremdkapitalanteil jedoch nicht adäquat sein. Das Bewertungsergebnis
wurde außerdem durch die Anwendung des Multiplikatorverfahrens plausibilisiert. Hierbei
wurde nur auf Entity Multiplikatoren zurückgegriffen, die als ergebnisorientierte Multiplikatoren in der Praxis am häufigsten Anwendung finden. Eine Bewertung allein mit dieser
Methode ist jedoch abzulehnen, vielmehr sollte diese Methode als Plausibilisierung der
DCF Bewertungsergebnisse dienen. Die Bewertung mit Hilfe der WACC kann im Vergleich als
genauer und zuverlässiger betrachtet werden. Bestätigt wird dies insbesondere durch die
Tatsache, dass das Multiplikatorverfahren zum ungefähr selben Ergebnis kommt. Bei allen
drei Bewertungsverfahren wurde jeweils ein Abschlag für die Nicht-Handelbarkeit der Anteile der Orange Company berücksichtigt. Dieser liegt in der Praxis zwischen 20% und 40%.
Im Rahmen dieses Praxisbeispiels wurde dieser in Höhe von 20% angesetzt. Ein solcher
Abschlag rechtfertigt sich dadurch, dass im Falle eines Veräußerungswunsches der Anteil
nicht einfach und schnell über die Börse veräußert werden kann, sondern zuerst ein Käufer
gefunden werden muss, der diesen Anteil für einen angemessenen Preis erwerben möchte.
Zusammenfassend betrachtet zeigt die vorliegende Arbeit, dass sich die Bewertung der
Orange Company aufgrund der spärlichen Informationslage schwierig gestaltet, nichts
desto trotz verdeutlicht das vorliegende Beispiel allerdings auch, dass eine Bewertung
nach gründlicher Auseinandersetzung mit dem jeweiligen Unternehmen und den einzelnen
Bewertungsmethoden durchaus möglich ist. Generell ist eine Fair Value Bewertung von
nicht-börsennotierten Unternehmen zwingend notwendig, stellt jedoch in der Praxis eine
Herausforderung für die Beteiligungsbewertung dar.
77
Bewertung eines nicht-börsennotierten Unternehmens
am praktischen Beispiel einer Private Equity Beteiligung
Literaturverzeichnis
Bücher und Sammelbände
Baetge, Jörg; Niemeyer, Kai; u.a. [Discounted Cashflow Verfahren, 2004]: Darstellung der
Discounted-Casflow-Verfahren (DCF-Verfahren) mit
Beispiel, in: Peemöller, Volker H., (Hrsg.), Praxishandbuch der Unternehmensbewertung, nwb Verlag Neue
Wirtschaftsbriefe, Nürnberg 2004, S. 265-376
Ballwieser, Wolfgang [Unternehmensbewertung,
2007]: Unternehmensbewertung – Prozess, Methoden und Probleme, Schäffer-Poeschel Verlag, 2. Auflage, Stuttgart 2007
Dinstuhl, Volkmar [Konzernbezogene Unternehmensbewertung, 2003]: Konzernbezogene Unternehmensbewertung, Deutscher Universitäts-Verlag, 1.
Auflage, Wiesbaden 2003
Drukarczyk, Jochen, Schüler, Andreas [Unternehmensbewertung, 2006]: Unternehmensbewertung,
Verlag Franz Vahlen München, München 2006
Eckstaller, Claudia; Huber Jahn, Ingrid; u.a. [Private
Equity, 2006]: Private Equity and Venture Capital –
Begriff – Grundlagen – Perspektiven, Verlag Wissenschaft und Praxis, Sternenfels 2006
Franke, Günter; Hax, Herbert [Finanzwirtschaft,
2003]: Finanzwirtschaft des Unternehmens und Kapitalmarkt, Springer, 5. Auflage, Berlin 2003
Johnen, Raffael; Schacht, Ullrich [Leveraged Buyouts, 2005]: Bewertung eines Leveraged Buyouts, in:
Schacht, Ulrich; Fackler, Matthias (Hrsg.) Praxishandbuch der Unternehmensbewertung – Grundlagen,
Methoden, Fallbeispiele, Betriebswirtschaftlicher
Verlag Dr. Th. Gabler, 1. Auflage, Wiesbaden 2005
Krolle, Sigrid; Schmitt, Günter; u.a. [Multiplikatorverfahren, 2005]:
Multiplikatorverfahren in der Unternehmensbewertung, Schäffer-Poeschel Verlag, Stuttgart 2005
Mandl, Gerwald; Rabel, Klaus [Grundlagen der
Unternehmensbewertung, 2004]: Grundlagen der
Unternehmensbewertung – Teil D: Methoden der
Unternehmensbewertung (Überblick), in Peemöller,
Volker H., (Hrsg.) Praxishandbuch der Unternehmensbewertung, nwb Verlag Neue Wirtschaftsbriefe,
Nürnberg 2004, S. 47-88
Mandl, Gerwald; Rabel, Klaus [Unternehmensbewertung, 1997]: Unternehmensbewertung – Eine
praxisorientierte Einführung, Ueberreuter, Wien 1997
Peemöller, Volker H., (Hrsg.) [Praxishandbuch,
2004]: Praxishandbuch der Unternehmensbewertung, nwb Verlag Neue Wirtschaftsbriefe, Nürnberg
2004
78
Peemöller, Volker H. [Grundlagen, 2004]: Grundlagen der Unternehmensbewertung - Teil A: Wert
und Werttheorien, in: Peemöller, Volker H., (Hrsg.)
Praxishandbuch der Unternehmensbewertung, nwb
Verlag Neue Wirtschaftsbriefe, 3. Auflage, Nürnberg
2004, S. 3-25
Peemöller, Volker H.; Kunowski, Stefan [Ertragswertverfahren, 2004]: Ertragswertverfahren nach
IDW, in: Peemöller, Volker H., (Hrsg), Praxishandbuch
der Unternehmensbewertung, nwb Verlag Neue Wirtschaftsbriefe, 3. Auflage, Nürnberg 2004, S. 201-264
Schäfer, Henry [Unternehmensinvestitionen,
2005]: Unternehmensinvestitionen – Grundzüge in
Theorie und Management, Physica-Verlag, 2. Auflage,
Heidelberg 2005
Seppelfricke, Peter [Handbuch, 2007]: Handbuch
Aktien- und Unternehmensbewertung – Bewertungsverfahren, Unternehmensanalyse, Erfolgsprognose,
Schäffer-Poeschel Verlag Stuttgart, 3. Auflage,
Stuttgart 2007
Spremann, Klaus [Valuation, 2004]: Valuation –
Grundlagen moderner Unternehmensbewertung, R.
Oldenbourg Verlag München, Wien 2004
Artikel aus Zeitschriften
Berner, Christian; Rojahn, Joachim; u.a. [Berücksichtigung, 2005]: Die Berücksichtigung des unternehmensindividuellen Risikos in der Unternehmensbewertung – Eine empirisch gestützte Untersuchung
des Beta-Faktors, in: Finanz Betrieb, Heft 11, 2005,
S. 711-718
Borowicz, Frank [Methoden der Unternehmensbewertung, 2005]: Methoden der Unternehmensbewertung - Ertragswertmethode, Discounted Cash Flow
and Economic Value Added, in: Wirtschaftswissenschaftliches Studium, Heft 7, 2005, S. 368-373
Dörschell, Andreas; Franken, Lars; u.a. [Kapitalkosten, 2006]: Praktische Probleme bei der Ermittlung
der Kapitalkosten bei Unternehmensbewertungen,
in: BewertungsPraktiker, Heft 3, 2006
Obermeier, Robert [Basiszinssatz, 2006]: Marktzinsorientierte Bestimmung des Basiszinssatzes in
der Unternehmensbewertung, in: Finanz Betrieb, Heft
7, 2006, S. 472-479
Schöning, Stephan; Gatzka, Markus: [Private
Equity und Venture Capital, 2006]: Private Equity
und Venture Capital: Heuschrecken oder Rettung des
deutschen Mittelstands, in: WISU, Heft 11, 2006, S.
1399 – 1404
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2009
Weizsäcker von, Robert K.; Krempel, Katja
[Risikoadäquate Bewertung, 2004]: Risikoadäquate
Bewertung nicht-börsennotierter Unternehmen – Ein
alternatives Konzept, in: Finanz Betrieb, Heft 12,
2004, S. 808-814
Verordnung (EG) Nr. 1606/2002 des Europäischen
Parlaments und des Rates vom 19. Juli 2002 betreffend die Anwendung internationaler Rechnungslegungsstandards
Bank AG interne Quellen
Internetpublikationen
Bank AG interne Quelle, 2006
Geginat, Joost; Morath, Beatrix; u.a., [Entscheidungskriterium, 2006]: Kapitalkosten als strategisches Entscheidungskriterium, Roland Berger
Strategy Consultants, 2006, http://www.swissamba.
ch/fileadmin/user_upload/Dateien/ Cost_of_Capital_as_a_Stragetic_Decision_Criterion.pdf ,letzter
Abruf 17.6.2008
Bank AG interne Quelle,(1Q-2008)_Orange, 2008
PriceWaterHouseCoopers [Private Equity
Trend Report 2008]: Private Equity Trend Report
2008 - Germany – still the golden opportunity
for international investors?, http://www.pwc.com/
extweb/pwcpublications.nsf/docid/8B5BAB669CA
C9ABA8025744F0034F736/$file/PwC_Private_Equity_Trend_Report_Germany_2008.pdf, letzter Abruf
17.6.2008
Sonstige Publikationen
ECB [Monthly Bulletin, 2007]: Leveraged Buyouts
and Financial Stability, Monthly Bulletin August 2007
Durschnittverzinsung US Treasury Bonds, http://
www.federalreserve.gov/releases/h15/data/Business_
day/H15 _TCMNOM_Y10.txt, letzter Abruf 30.6.2008
Handelsgesetzbuch [HGB]: Deutscher Taschenbuch Verlag, 41., überarbeitete Auflage, München
2004
IFRS/IAS [IAS]: http://www.ifrs-portal.com/Texte_
deutsch/Standards/Standards _aktuell.html, letzter
Abruf 7.8.2008
Institut der Wirtschaftsprüfer [IDW S 1, 1983]: IDW
Standard Grundsätze zur Durchführung von Unternehmensbewertung (IDW S 1), 1983
Historische Kurse DAX, http://de.finance.yahoo.
com/q/hp?s=%5EGDAXI, letzter Abruf 28.4.2008
The Orange Company Annual Report 2007 pursuant to section 13 or 15(d) of the securities exchange
act of 1934, 15
15 Aus Vertraulichkeitsgründen ist der Name
der zu bewertenden Gesellschaft und
allen verbundenen Unternehmen von der
Verfasserin geändert worden. Dies gilt auch
für den im Literaturverzeichnis angegebenen
Jahresabschluss
79
Bewertung eines nicht-börsennotierten Unternehmens
am praktischen Beispiel einer Private Equity Beteiligung
80
Die Preisträger
der Wissenschaftspreise 1997 bis 2008
Die Preisträger
des Wissenschaftspreises 2008
Von links nach rechts: Esther Uhe, Jan Matysik, Kathrin Koziel, Jan Benedikt Kleibrink,
Dr. Michael Schulte (Sparkasse Vest Recklinghausen),
82
Die Preisträger
der Wissenschaftspreise 1997 bis 2007
Tülin Aynur...................................... 1999
Tim Lange....................................... 2000
Minh Banh....................................... 2003
Dr. Stefan Lilischkis....................... 2000
Angelika Barann............................. 2006
Christian Loose.............................. 2002
Dr. Joachim Bonn........................... 1998
Christian Mehrens......................... 2004
Dr. Jürgen Born............................. 2007
Kaj Ulrich Meys.............................. 1998
Arkadiusz Brand............................. 2005
Diana Mikulec................................. 1998
Heiko Ciesinski............................... 2000
Dr. Jochen Nachtwey..................... 1997
Axel Dewitz..................................... 2003
Pascal Nevries................................ 2000
Timm Dolezych............................... 2002
Frank Osterhoff.............................. 1999
Verena Dvorak................................ 2003
Dr. Jens Udo Prager....................... 2002
Christian Egtved............................. 2004
Christoff Rössel.............................. 1997
Jennifer Ellerbrock........................ 2001
Hauke Schinkel............................... 2001
Dr. Peter Fehr.................................. 1999
Dr. Harald Schoelen....................... 2003
Stefan Feuerstein........................... 2004
Stephanie Schreiber...................... 2002
Martin Gräbe.................................. 1997
Klaus Segbers................................ 1999
Tobias Grapentin............................ 2007
Martina Simon................................ 1999
Holger Hausmann.......................... 2003
Jan Philipp Soennecken............... 2002
Dr. Martin Hebler............................ 2001
Dr. Karl-Heinz Storchmann........... 1998
Michael Hegemann........................ 2005
Falk Strotebeck............................... 2007
Arne Helfer...................................... 1997
Karsten Thielmann........................ 1998
Dr. Andreas Horsch........................ 2006
André Vesper.................................. 2000
Carsten Hubensack........................ 2006
Raphael Weller............................... 2005
Anne Kampmann........................... 2004
Daniel Wissing............................... 2005
Dr. Laura Kästner........................... 2007
Monika Wittenberg........................ 2007
Dr. Michael Kersting...................... 2001
Volker Maximilian Wladarz........... 2006
Birgit Krchov................................... 2001
Dr. Tobias Zimmermann................ 2006
Volker Kruse................................... 1997
Die Preisträger der Wissenschaftspreise 1997 bis 2007
Die Preisträger der Wissenschaftspreise 2007
Preisverleihung vom 6. Juni 2008
Dr. Jürgen Born
geboren am 29. Mai 1971
Monitoring public debt management in the European Monetary Union
- An external benchmark approach
Doktorarbeit, eingereicht im Herbst 2006
bei Professor Dr. Wim Kösters
Lehrstuhl für Theoretische Volkswirtschaftslehre
Ruhr-Universität Bochum
Tobias Grapentin
geboren am 17. August 1976
Stakeholder-Management von Sparkassen im Spiegel der Geschäftsberichte
- Systematische Bestandsaufnahme und kritische Bewertung
Diplomarbeit, eingereicht im Winter 2006
bei Professor Dr. Andreas Pfingsten
Institut für Kreditwesen
Westfälische Wilhelms-Universität Münster
Dr. Laura Kästner
geboren am 30. Juni 1979
Performance von Banken und Bankensystemen und ihre Einflussfaktoren
- Eine theoretische und empirische Analyse für Europa
Doktorarbeit, eingereicht im Frühjahr 2008
bei Professor Dr. Stephan Paul
Lehrstuhl für Finanzierung und Kreditwirtschaft
Ruhr-Universität Bochum
Falk Strotebeck
geboren am 6. Januar 1981
Regionale Innovationsnetzwerke
- Beispiel Ruhrgebiet
Diplomarbeit, eingereicht im Frühjahr 2006
bei Professor Dr. Helmut Karl
Lehrstuhl für Wirtschaftspolitik
Ruhr-Universität Bochum
Monika Wittenberg
geboren am 19. Januar 1978
Schutz der Verbraucher vor Werbung für Finanzdienstleistungen
Diplomarbeit, eingereicht im Sommer 2007
bei Professor Dr. Bernhard Bergmans
Fachbereich Wirtschaftsrecht
Fachhochschule Gelsenkirchen, Abteilung Recklinghausen
84
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2009
Die Preisträger der Wissenschaftspreise 2006
Preisverleihung vom 22. Juni 2007
Angelika Barann
geboren am 12. April 1983
Entgeltregulierung nach dem neuen EnWG unter besonderer
Berücksichtigung der Anreizregulierung
Diplomarbeit, eingereicht im Herbst 2006
bei Professor Dr. Peter Oligmüller
Fachbereich Wirtschaftsrecht
Fachhochschule Gelsenkirchen, Abteilung Recklinghausen
Dr. Andreas Horsch
geboren am 7. Mai 1966
Rating und Regulierung - Eine ökonomische Analyse von
Entwicklungsprozessen rating-basierter und rating-gerichteter Regulierung
Habilitationsschrift, eingereicht im Dezember 2006
in der Fakultät für Wirtschaftswissenschaft der
Ruhr-Universität Bochum
Casten Hubensack
geboren am 3. Mai 1979
Die Höhe des ökonomischen Kapitals für Adressrisiken bei Verwendung
von Kreditportfoliomodellen anstelle des Baseler IRB-Ansatzes
- Ein empirischer Vergleich
Diplomarbeit, eingereicht im Sommer 2006
bei Professor Dr. Andreas Pfingsten
Institut für Kreditwesen
Westfälische Wilhelms-Universität Münster
Volker Maximilian Wladarz
geboren am 17. April 1980
Regionale Innovationssysteme
- Theoretische Grundlagen und Anwendungen auf das Ruhrgebiet
Diplomarbeit, eingereicht im Sommer 2006
bei Professor Dr. Helmut Karl
Lehrstuhl für Wirtschaftspolitik
Ruhr-Universität Bochum
Dr. Tobias Zimmermann
geboren am 29. September 1976
Reale Konjunkturzyklen, Effizienzlöhne und die Rolle von Ölpreisschocks
- Eine theoretische und empirische Analyse für die Bundesrepublik Deutschland
Doktorarbeit, eingereicht im Sommer 2006
bei Professor Dr. Wim Kösters
Lehrstuhl für Theoretische Volkswirtschaftslehre
Ruhr-Universität Bochum
85
Die Preisträger der Wissenschaftspreise 1997 bis 2007
Die Preisträger der Wissenschaftspreise 2005
Preisverleihung vom 4. August 2006
Arkadiusz Brand
geboren am 5. Februar 1980
Regionale Innovationsdynamik
- Theoretische Grundlagen und empirische Fallstudie in den Bundesländern
Nordrhein-Westfalen und Baden-Württemberg
Diplomarbeit, eingereicht im Sommer 2005
bei Professor Dr. Helmut Karl
Lehrstuhl für Wirtschafts- und Finanzpolitik
Ruhr-Universität Bochum
Michael Hegemann
geboren am 1. Mai 1980
Vermögenspreisentwicklung und Geldpolitik
Diplomarbeit, eingereicht im Sommer 2005
bei Professor Dr. Wim Kösters
Lehrstuhl für Theoretische Volkswirtschaftslehre
Ruhr-Universität Bochum
Raphael Weller
geboren am 4. März 1978
Das Exit-Verhalten institutioneller Private-Equity-Geber in Deutschland
- Eine empirische Analyse von Secondary Purchases
Diplomarbeit, eingereicht im Sommer 2005
bei Professor Dr. Stephan Paul
Lehrstuhl für Finanzierung und Kreditwirtschaft
Ruhr-Universität Bochum
Daniel Wissing
geboren am 20. Februar 1978
Strategien zur Ausrichtung der Sparkassen-Finanzgruppe im Konsumentenkreditgeschäft
- Eine kritische Analyse
Diplomarbeit, eingereicht im Winter 2004/05
bei Professor Dr. Andreas Pfingsten
Institut für Kreditwesen
Westfälische Wilhelms-Universität Münster
86
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2009
Die Preisträger der Wissenschaftspreise 2004
Preisverleihung vom 1. Juli 2005
Christian Egtved
geboren am 12. Juni 1976
Die Entgelte der Kreditinstitute
- Eine Untersuchung anhand einiger Grundsatzurteile des Bundesgerichtshofes
Diplomarbeit, eingereicht im Sommer 2004
bei Professor Dr. Ralf-Michael Marquardt
Fachbereich Wirtschaftsrecht
Fachhochschule Gelsenkirchen, Abteilung Recklinghausen
Stefan Feuerstein
geboren am 10. Oktober 1978
Aufbau Ostdeutschland
- Eine Bilanz aus regionalökonomischer Sicht
Diplomarbeit, eingereicht im Sommer 2004
bei Professor Dr. Helmut Karl
Lehrstuhl für Wirtschafts- und Finanzpolitik
Ruhr-Universität Bochum
Anne Kampmann
geboren am 14. Februar 1978
Stellt die Bestellung eines konservativen Zentralbankpräsidenten
eine wirksame Lösung des Problems der Zeitinkonsistenz der Geldpolitik dar?
Diplomarbeit, eingereicht im Sommer 2004
bei Professor Dr. Wim Kösters
Lehrstuhl für Theoretische Volkswirtschaftslehre
Ruhr-Universität Bochum
Christian Mehrens
geboren am 8. November 1976
Institutsübergreifende Bankenfusion
- Eine kritische Analyse unter besonderer Berücksichtigung der Informationsökonomik
Diplomarbeit, eingereicht im Winter 2003/04
bei Professor Dr. Andreas Pfingsten
Institut für Kreditwesen
Westfälische Wilhelms-Universität Münster
87
Die Preisträger der Wissenschaftspreise 1997 bis 2007
Die Preisträger der Wissenschaftspreise 2003
Preisverleihung vom 28. Mai 2004
Minh Banh
geboren am 20. Februar 1979
Die Bemessung der Eigenkapitalunterlegung von Kreditrisiken des
Retail-Portfolios nach Basel II
- Eine empirische Analyse am Beispiel einer Privatkundenbank
Diplomarbeit, eingereicht im Winter 2003/04 bei
Professor Dr. Stephan Paul
Lehrstuhl für Finanzierung und Kreditwirtschaft
Ruhr-Universität Bochum
Axel Dewitz
geboren am 23. April 1976
Die Sanierung von Kreditgenossenschaften
- Eine agencytheoretische Untersuchung
Diplomarbeit, eingereicht im November 2002
bei Professor Dr. Andreas Pfingsten
Institut für Kreditwesen
Westfälische Wilhelms-Universität Münster
Verena Dvorak
geboren am 27. August 1978
US-Lease
- Chancen und Risiken eines Finanzierungsinstrumentes des kommunalen Haushalts
Diplomarbeit, eingereicht im Winter 2003/2004
bei Professor Dr. Ralf-Michael Marquardt
Lehrstuhl für internationales Wirtschaftsrecht und Rechtsvergleichung
Fachhochschule Gelsenkirchen, Abteilung Recklinghausen
Holger Hausmann
geboren am 28. Februar 1978
Sovereign Credit Ratings und die Finanzkrise in Südostasien 1997/98
Diplomarbeit, eingereicht im Sommer 2003
bei Professor Dr. Wim Kösters
Lehrstuhl für Theoretische Volkswirtschaftslehre
Ruhr-Universität Bochum
Dr. Harald Schoelen
geboren am 9. Februar 1967
Arbeits- und Bildungspendler in der Region Niederrhein
- Eine empirische Analyse der Pendlerverflechtungen und der grenzüberschreitenden
Arbeitsmobilität in die Niederlande
Doktorarbeit, veröffentlicht im Dezember 2003
bei Professor Dr. Helmut Karl
Lehrstuhl Wirtschaftspolitik
Ruhr-Universität Bochum
& Ruhr-Forschungsinstitut für Innovations- und Strukturpolitik
88
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2009
Die Preisträger der Wissenschaftspreise 2002
Preisverleihung vom 27. Mai 2003
Timm Dolezych
geboren am 25. Januar 1976
Ansätze zur Berücksichtigung längerfristigen Wachstums in der Unternehmensbewertung
Diplomarbeit, eingereicht im Winter 2001/02
bei Professor Dr. Stephan Paul
Lehrstuhl für Finanzierung und Kreditwirtschaft
Ruhr-Universität Bochum
Christian Loose
geboren am 11. Oktober 1975
Auswirkungen der Entwicklung der aufsichtsrechtlichen Behandlung von
Mortgage Backed Securities auf deren Vorteilhaftigkeit
- Eine Analyse von Theorie und Praxis
Diplomarbeit, eingereicht im Sommer 2002
bei Professor Dr. Andreas Pfingsten
Institut für Kreditwesen
Westfälische Wilhelms-Universität Münster
Dr. Jens Udo Prager
geboren am 17. Februar 1971
Nachhaltige Umgestaltung der kommunalen Abwasserentsorgung
- Eine ökonomische Analyse innovativer Entsorgungskonzepte
Doktorarbeit, eingereicht im Winter 2001/02
bei Professor Dr. Helmut Karl
Lehrstuhl für Wirtschafts- und Finanzpolitik
Ruhr-Universität Bochum
Stephanie Schreiber
geboren am 3. Januar 1976
Öffentliche Förderung kleiner und mittlerer Unternehmen
- Dargestellt und kritisch beleuchtet an einem Förderverfahren zur Existenzgründung
eines Technologieunternehmens
Diplomarbeit, eingereicht im Sommer 2002
bei Professor Dr. Rolf Hermes
Fachbereich Wirtschaftsrecht
Fachhochschule Gelsenkirchen, Abteilung Recklinghausen
Jan Philipp Soennecken
geboren am 30. März 1977
Die Aufenthaltsdauer von Migranten im Gastland
- Eine Analyse am Beispiel der EU-Osterweiterung
Diplomarbeit, eingereicht im Frühjahr 2003
bei Professor Dr. Wim Kösters
Lehrstuhl für Theoretische Volkswirtschaftslehre
Ruhr-Universität Bochum
89
Die Preisträger der Wissenschaftspreise 1997 bis 2007
Die Preisträger der Wissenschaftspreise 2001
Preisverleihung vom 8. Mai 2002
Jennifer Ellerbrock
geboren am 1. Februar 1976
Preisstrategien im Private Banking
- Vergleich und kritische Würdigung
Diplomarbeit, eingereicht im Sommer 2001
bei Professor Dr. Stephan Paul
Lehrstuhl für Finanzierung und Kreditwirtschaft
Ruhr-Universität Bochum
Dr. Martin Hebler
geboren am 11. Februar 1969
Arbeitsmarkteffekte der EU-Osterweiterung
- Zur Wirkung von Integration, Migration und institutionellem Wandel auf dem Arbeitsmarkt
Doktorarbeit, eingereicht im Herbst 2001
bei Professor Dr. Wim Kösters
Lehrstuhl für Theoretische Volkswirtschaftslehre
Ruhr-Universität Bochum
Dr. Michael Kersting
geboren am 24. Juni 1965
Subterrestrische Gütertransporte in Ballungsgebieten
- Ökonomische Rahmenbedingungen und Potentiale
Doktorarbeit, eingereicht im Winter 2001/2002
bei Professor Dr. Paul Klemmer
Lehrstuhl für Wirtschafts- und Finanzpolitik
Ruhr-Universität Bochum
Birgit Krchov
geboren am 28. März 1974
Rechtliche und organisatorische Rahmenbedingungen elektronischer Archivierungssysteme
in der Auftragsabwicklung
Diplomarbeit, eingereicht im Winter 2000/01
bei Professor Dr. Achim Müglich
Lehrstuhl für Internationales Wirtschaftsrecht und Rechtsvergleichung
Fachhochschule Gelsenkirchen, Abteilung Recklinghausen
Hauke Schinkel
geboren am 5. Februar 1975
Alternative Ansätze der Preisfindung für Erstemissionen innovativer Unternehmen
- Eine kritische Analyse aus Sicht einer Bank
Diplomarbeit, eingereicht im Sommer 2001
bei Professor Dr. Andreas Pfingsten
Institut für Kreditwesen
Westfälische Wilhelms-Universität Münster
90
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2009
Die Preisträger der Wissenschaftspreise 2000
Preisverleihung vom 4. Mai 2001
Heiko T. Ciesinski
geboren am 5. Mai 1969
Wertpapierhandel im Internet
- Rechtliche Rahmenbedingungen für den Vertrieb von
Investmentanteilen und Aktien im Internet
Diplomarbeit, eingereicht im Sommer 2000
bei Professor Dr. Andreas Müglich
Lehrstuhl für Internationales Wirtschaftsrecht und Rechtsvergleichung
Fachhochschule Gelsenkirchen, Abteilung Recklinghausen
Tim Lange
geboren am 3. Juni 1976
Spezifische Probleme des Börsengangs von Vereinen der Fußballbundesliga
Diplomarbeit, eingereicht im Sommer 2000
bei Professor Dr. Stephan Paul
Lehrstuhl für Finanzierung und Kreditwirtschaft
Ruhr-Universität Bochum
Dr. Stefan Lilischkis
geboren am 4. April 1966
Hemmnisse und Förderung von Unternehmensgründungen aus der
Ruhr-Universität Bochum und der University of Washington (Seattle)
Doktorarbeit, eingereicht im Winter 2000/2001
bei Professor Dr. Paul Klemmer
Lehrstuhl für Wirtschafts- und Finanzpolitik
Ruhr-Universität Bochum
Pascal Nevries
geboren am 16. Juli 1975
Die kurzfristige Performance von Initial Public Offerings unter besonderer
Berücksichtigung der Risikoadjustierung
Diplomarbeit, eingereicht im Herbst 1999
bei Professor Dr. Andreas Pfingsten
Institut für Kreditwesen
Westfälische Wilhelms-Universität Münster
André Vesper
geboren am 22. Juli 1973
Das „Zwei-Säulen-Konzept“ der geldpolitischen Strategie der Europäischen Zentralbank
- Darstellung und kritische Würdigung
Diplomarbeit, eingereicht im Frühjahr 2000
bei Professor Dr. Wim Kösters
Lehrstuhl für Theoretische Volkswirtschaftslehre
Ruhr-Universität Bochum
91
Die Preisträger der Wissenschaftspreise 1997 bis 2007
Die Preisträger der Wissenschaftspreise 1999
Preisverleihung vom 5. Mai 2000
Tülin Aynur
geboren am 10. März 1969
Hat die EWU Auswirkungen auf den Zentralisierungsgrad von
Lohnverhandlungen und dadurch auf die Höhe der Beschäftigung?
Diplomarbeit, eingereicht im Frühjahr 1999
bei Professor Dr. Wim Kösters
Lehrstuhl für Theoretische Volkswirtschaftslehre
Ruhr-Universität Bochum
Dr. Peter Fehr
geboren am 18. Oktober 1967
Wohnbegleitende Dienstleistungen
- Gestaltungsempfehlungen auf Basis einer theoretischen und empirischen
Analyse von Angebot und Nachfrage in Bezug auf Sekundärleistungen der
unternehmerischen Wohnungswirtschaft
Doktorarbeit, eingereicht im Winter 1999/2000
bei Professor Dr. Joachim Süchting
Lehrstuhl für Finanzierung und Kreditwirtschaft
Ruhr-Universität Bochum
Frank Osterhoff
geboren am 23. Februar 1966
Innovations- und Technologiepolitik als Aufgabe der kommunalen Wirtschaftsförderung
- Das Beispiel Essen
Diplomarbeit, eingereicht im Frühjahr 1998
bei Professor Dr. Paul Klemmer
Lehrstuhl für Wirtschafts- und Finanzpolitik
Ruhr-Universität Bochum
Klaus Segbers
geboren am 11. Januar 1974
Berücksichtigung des Risikos in der Entlohnungsfunktion von Portfolio-Managern
Diplomarbeit, eingereicht im Frühjahr 1999
bei Professor Dr. Andreas Pfingsten
Institut für Kreditwesen
Westfälische Wilhelms-Universität Münster
Martina Simon
geboren am 2. April 1969
Vertragsgestaltung in DV-optimierten Geschäftsprozessen
- Eine Untersuchung unter besonderer Berücksichtigung des Einsatzes von UN/EDIFACT
beim elektronischen Zahlungsverkehr
Diplomarbeit, eingereicht im Sommer 1999
bei Professor Dr. Andreas Müglich
Lehrstuhl für Internationales Wirtschaftsrecht und Rechtsvergleichung
Fachhochschule Gelsenkirchen, Abteilung Recklinghausen
92
Sparkasse Vest Recklinghausen
Wissenschaftspreis 2009
Die Preisträger der Wissenschaftspreise 1998
Preisverleihung vom 28. April 1999
Dr. Joachim K. Bonn
geboren am 31. März 1967
Bankenkrisen und Bankenregulierung
Doktorarbeit, eingereicht im Winter 1997/98
bei Professor Dr. Joachim Süchting
Lehrstuhl für Finanzierung und Kreditwirtschaft
Ruhr-Universität Bochum
Kaj Ulrich Meys
geboren am 17. September 1971
Interessenkonflikte und Anreizprobleme der Bankenaufsicht
Diplomarbeit, eingereicht im Frühjahr 1998
bei Professor Dr. Andreas Pfingsten
Institut für Kreditwesen
Westfälische Wilhelms-Universität Münster
Diana Mikulec
geboren am 24. Oktober 1974
Die Konkurrenz zwischen dem Euro und dem US-Dollar als dominante
internationale Währungen
- Eine Analyse der Rolle der Finanzmärkte unter Berücksichtigung von
Transaktionskosten und Netzwerkexternalitäten
Diplomarbeit, eingereicht im Herbst 1998
bei Professor Dr. Wim Kösters
Lehrstuhl für Theoretische Volkswirtschaftslehre
Ruhr-Universität Bochum
Dr. Karl-Heinz Storchmann
geboren am 11. November 1961
Auswirkungen von Mineralölsteuererhöhungen auf den öffentlichen Personennahverkehr
Doktorarbeit, eingereicht im Frühjahr 1998
bei Professor Dr. Paul Klemmer
Lehrstuhl für Wirtschafts- und Finanzpolitik
Ruhr-Universität Bochum
Karsten Thielmann
geboren im Dezember 1973
Providerhaftung im Internet
Diplomarbeit, eingereicht im Sommer 1998
bei Professor Dr. Andreas Müglich
Lehrstuhl für Internationales Wirtschaftsrecht und Rechtsvergleichung
Fachhochschule Gelsenkirchen, Abteilung Recklinghausen
93
Die Preisträger der Wissenschaftspreise 1997 bis 2007
Die Preisträger der Wissenschaftspreise 1997
Preisverleihung vom 17. April 1998
Martin Gräbe
geboren am 2. September 1969
Investor Relations bei Börseneinführungen
- Zur potentiellen Verdrängung fundamentaler Informationen durch Prinzipien der
Konsumgüterüberwachung im Falle des 1996er Börsenganges der Deutschen Telekom AG
Diplomarbeit, eingereicht im Frühjahr 1997
bei Professor Dr. Joachim Süchting
Lehrstuhl für Finanzierung und Kreditwirtschaft
Ruhr-Universität Bochum
Arne Helfer
geboren am 15. Juni 1972
Auswirkungen der EWU auf die Arbeitslosigkeit
Diplomarbeit, eingereicht im Herbst 1997
bei Professor Dr. Wim Kösters
Lehrstuhl für Theoretische Volkswirtschaftslehre
Ruhr-Universität Bochum
Volker Kruse
geboren am 4. Juli 1970
Die Rolle der staatlichen Einlagenversicherung in der amerikanischen Savings & Loan Krise
Diplomarbeit, eingereicht im Frühjahr 1997
bei Professor Dr. Andreas Pfingsten
Institut für Kreditwesen
Westfälische Wilhelms-Universität Münster
Dr. Jochen Nachtwey
geboren am 19. August 1967
Institutionelle Strukturen als Auslöser persistenter Arbeitslosigkeit
- Eine ökonomische Analyse für das Ruhrgebiet
Doktorarbeit, eingereicht im Herbst 1997
bei Professor Dr. Paul Klemmer
Lehrstuhl für Wirtschafts- und Finanzpolitik
Ruhr-Universität Bochum
Christoff Rössel
geboren am 28. Mai 1971
Cyber Money
- Rahmenbedingungen für Wirtschaft und Verbraucher
Diplomarbeit, eingereicht im Herbst 1997
bei Professor Dr. Achim Albrecht
Lehrstuhl für Internationales Privatrecht
Fachhochschule Gelsenkirchen, Abteilung Recklinghausen
94
Die Kooperation mit der Wissenschaft hat für die Sparkasse Vest Recklinghausen
traditionell eine große Bedeutung. So bestehen seit vielen Jahren enge Kontakte zu
den bankwissenschaftlichen Lehrstühlen an den Universitäten in Bochum und Münster
sowie dem Fachbereich Wirtschaftsrecht der Fachhochschulabteilung Recklinghausen.
Neben der Gewinnung leistungsfähiger wissenschaftlicher Nachwuchskräfte steht
dabei auch der unmittelbare Know-how-Transfer zur Lösung von Problemen in der
Praxis im Mittelpunkt des Interesses. Planerische Entscheidungen werden künftig im
Hinblick auf die immer komplexer werdenden Fragestellungen durch Globalisierung
und technologiebetriebenen Innovationen vermehrt auf wissenschaftliche Lösungsbeiträge angewiesen sein.
Hinzu kommt, dass die Förderung von Wissenschaft, Kunst und Kultur auch allgemein zu den wichtigen gesellschaftspolitischen Anliegen der deutschen Sparkassenorganisation gehört.
Mit der Dotierung von fünf Förderpreisen trägt die Sparkasse Vest Recklinghausen
diesen Zielsetzungen aktiv Rechnung. Gefördert werden sollen sehr gute bzw. gute
Diplom- oder Doktorarbeiten, die sich mit bank- und bzw. sparkassenspezifischen
Themenstellungen beschäftigen und in besonderer Weise eine Verbindung zwischen
Theorie und Praxis darstellen.
Die Nominierung der geförderten Arbeiten erfolgt durch ausgewählte wissenschaftliche Lehrstühle, zu denen inhaltliche oder besondere regionale Anknüpfungspunkte
bestehen. Durch die Auswahl der Lehrstühle soll gleichzeitig eine gewisse Breite der
Themenstellungen erreicht werden, um so auch einem möglichst großen Leserkreis
eine interessante und anregende Lektüre zu bieten. Kurzfassungen der Arbeiten
werden im Rahmen der vorliegenden Broschüre einer breiten Öffentlichkeit zugänglich
gemacht.