Wissenschaftsförderung der Sparkasse Vest Recklinghausen
Transcription
Wissenschaftsförderung der Sparkasse Vest Recklinghausen
Wissenschaftsförderung der Sparkasse Vest Recklinghausen Die Preisträger Erste Konsequenzen aus der Finanzmarktkrise für das Management von Liquiditätsrisiken in Kreditinstituten Dipl.-Ökonomin Esther Uhe Seite 9 Die Limitierung von Branchenexposures unter besonderer Berücksichtigung der Risikobeiträge aus Collateralized Debt Obligations Dipl.-Kaufmann Jan Matysik Seite 23 Die Operationalisierung des Ziels Preisniveaustabilität durch die Europäische Zentralbank – Darstellung und kritische Würdigung Jan Benedikt Kleibrink, Bachelor of Arts Seite 41 Determinanten der räumlichen Verteilung von Gesundheitswirtschaft in Deutschland Dipl.-Ökonom Tim Glittenberg Seite 53 Bewertung eines nicht-börsennotierten Unternehmens am praktischen Beispiel einer Private Equity Beteiligung Kathrin Koziel, Bachelor of Laws Seite 65 Wissenschaftsförderung der Sparkasse Vest Recklinghausen Die Preisträger Herausgeber: Sparkasse Vest Recklinghausen Herzogswall 5 45657 Recklinghausen Inhalt Erste Konsequenzen aus der Finanzmarktkrise für das Management von Liquiditätsrisiken in Kreditinstituten Dipl.-Ökonomin Esther Uhe Seite 9 Die Limitierung von Branchenexposures unter besonderer Berücksichtigung der Risikobeiträge aus Collateralized Debt Obligations Dipl.-Kaufmann Jan Matysik Seite 23 Die Operationalisierung des Ziels Preisniveaustabilität durch die Europäische Zentralbank – Darstellung und kritische Würdigung Jan Benedikt Kleibrink, Bachelor of Arts Seite 41 Determinanten der räumlichen Verteilung von Gesundheitswirtschaft in Deutschland Dipl.-Ökonom Tim Glittenberg Seite 53 Bewertung eines nicht-börsennotierten Unternehmens am praktischen Beispiel einer Private Equity Beteiligung Kathrin Koziel, Bachelor of Laws Seite 65 Die Preisträger der Wissenschaftspreise 1997-2008 Seite 81 4 Wissenschaftsförderung der Sparkasse Vest Recklinghausen Kontinuität und Innovation sind zwei wesentliche Pfeiler unserer Geschäftspolitik. Kontinuität bedeutet vor allem in unseren Kundenbeziehungen berechenbarer und verlässlicher Partner zu sein. Oft über viele Jahre dauernde Beratung und Betreuung unserer Kunden durch bekannte Mitarbeiter schaffen die Vertrauensbasis für eine dauerhafte erfolgreiche Zusammenarbeit. Kontinuität und Verlässlichkeit gilt es aber auch insgesamt in der Geschäftspolitik und gegenüber unseren weiteren externen Partnern sicher zu stellen. Innovationsbereitschaft und –fähigkeit gewährleisten hierbei, dass die Sparkasse attraktiver und moderner Partner bleibt. Innovationsbereitschaft setzt Aufgeschlossenheit gegenüber neuen Entwicklungen – auch in übergeordneten Themengebieten – voraus. Im Jahr 1997 wurden erstmals fünf Wissenschaftspreise der Sparkasse Vest Recklinghausen ausgeschrieben. In enger Kooperation mit Universitäten in Bochum und Münster sowie der Fachhochschule Gelsenkirchen hat es sich bereits zu einer kleinen Tradition entwickelt, in jedem Jahr sehr gute bzw. gute Diplom- oder Doktorarbeiten mit bank- bzw. sparkassenspezifischen Themenstellungen auszuzeichnen. Auch in diesem Engagement sehen wir einen Baustein unserer Geschäftsphilosophie: Fair. Menschlich. Nah. Dabei steht hier die Nachhaltigkeit der wirtschaftlichen und sozialen Entwicklung in unserer Region im Vordergrund unserer Bemühungen. Eine Verantwortung der wir uns nicht entziehen und zu der wir nun schon seit vielen Jahren als verlässlicher Partner und Förderer stehen. Auch in diesem Jahr freuen wir uns, wieder fünf Preisträger für ihre sehr guten wissenschaftlichen Arbeiten auszeichnen zu können. Wir danken den Preisträgern für Ihre außergewöhnlich gelungenen Beiträge sowie den Lehrstühlen, ohne die diese Preisverleihung nicht möglich ist. Preisträger und Vertreter der Lehrstühle bei der Preisverleihung 5 6 Die Themen: Nachfolgend ein kurzer Überblick über die Themen, mit denen sich die diesjährigen Preisträger der Wissenschaftsförderung der Sparkasse Vest Recklinghausen befasst haben: Die erste bankwissenschaftliche Arbeit setzt sich mit dem Thema der „Konsequenzen aus der Finanzmarktkrise für das Management von Liquiditätsrisiken in Kreditinstituten“ auseinander. Eingereicht wurde die Diplomarbeit am Lehrstuhl für Finanzierung und Kreditwirtschaft an der Ruhr-Universität Bochum und zielt darauf ab, Lösungsansätze zur Weiterentwicklung des Managements von Liquiditätsrisiken unter Einbeziehung geeigneter Stress-Tests und Notfallplanungen zu finden. Autorin: Dipl.-Ökonomin Esther Uhe Mit der „Limitierung von Branchenexposures unter besonderer Berücksichtigung der Risikobeiträge aus Collateralized Debt Obligations“ befasst sich die zweite bankwissenschaftliche Arbeit, die am Institut für Kreditwesen - Westfälische Wilhelms-Universität Münster eingereicht wurde. Analysiert wurde in dieser Diplomarbeit, auf welche Weise branchenspezifische Risiken, die sich aus Collateralized Debt Obligations ergeben, in die Branchenlimitierung einer Bank eingebunden werden können. Autor: Dipl.-Kaufmann Jan Matysik Bei den volkswirtschaftlichen Themenstellungen wurde in diesem Jahr erstmals eine Bachelorarbeit ausgewählt, die sich mit dem Thema „Operationalisierung des Ziels Preisniveaustabilität durch die Europäische Zentralbank“ beschäftigt. Dabei wird insbesondere auch auf die politischen Vorgaben des EG-Vertrages eingegangen. Nominiert wurde diese Arbeit vom Lehrstuhl für Theoretische Volkswirtschaftslehre der Ruhr-Universität Bochum. Autor: Jan Benedikt Kleibrink, Bachelor of Arts Mit den „Determinanten der räumlichen Verteilung von Gesundheitswirtschaft in Deutschland“ setzt sich die zweite volkswirtschaftliche Arbeit auseinander. In dieser Arbeit wird die Gesundheitswirtschaft als die größte und innovativste Branche Deutschlands beschrieben. Im Fokus steht die Analyse regionaler Standortfaktoren und deren Wirkung auf die Standortwahl von bereits agierenden Unternehmen, sowie auf Unternehmen, die ihren Einstieg planen. Diese Diplomarbeit wurde von der Ruhr-Universität Bochum nominiert. Eingereicht wurde sie am Lehrstuhl für Wirtschaftspolitik. Autor: Dipl.-Ökonom Tim Glittenberg Mit der „Bewertung eines nicht-börsennotierten Unternehmens am praktischen Beispiel einer Private Equity Beteiligung“ hat der Fachbereich Wirtschaftsrecht der Fachhochschulabteilung Recklinghausen auch in diesem Jahr wieder ein weiteres, mehr als aktuelles Thema ausgewählt. So wurden in Deutschland 2008 über 1.100 Projekte durch Beteiligungskapital in Höhe von 8,4 Mrd. € finanziert. Dieser Hintergrund zeigt die hohe praktische Relevanz des Themas der Unternehmensbewertung. Autorin: Kathrin Koziel, Bachelor of Laws 7 8 Dipl.-Ökonomin Esther Uhe geboren am 26. Oktober 1983 Erste Konsequenzen aus der Finanzmarktkrise für das Management von Liquiditätsrisiken in Kreditinstituten Diplomarbeit, eingereicht im Sommer 2008 bei Professor Dr. Stephan Paul Lehrstuhl für Finanzierung und Kreditwirtschaft Ruhr-Universität Bochum Aufgrund latenter Vertrauensverluste zwischen den Kreditinstituten geriet die kurzfristige Liquiditätsüberlassung im Inter-Banken-Handel während der zweiten Jahreshälfte 2007 ins Stocken. Als Auslöser galt die zunehmende Unsicherheit über schwebende Bewertungsverluste und Liquiditätsbedarfe im Zusammenhang mit syndizierten US-Hypothekenanleihen geringer Bonität (Subprimes). Die Europäische Zentralbank reagierte auf die Verknappung der Liquiditätsströme im Inter-Banken-Handel mit großvolumigen Tendern um negative Impulse für die Finanzmärkte abzuschwächen. In diesem Zusammenhang wird den Banken unterstellt, über keine zeitgemäßen Systeme zur Messung von Liquiditätsrisiken zu verfügen. Somit zielt die Arbeit darauf ab, Lösungsansätze zur Weiterentwicklung des Managements von Liquiditätsrisiken unter Einbeziehung geeigneter StressTests und Notfallplanungen zu finden. Es wird aufgezeigt, dass die Unsicherheit unter den Finanzmarktteilnehmern weiterhin Bestand hat und darauf verwiesen, dass mehrere Institutionen Reformen bezüglich Regulierung, Risikomanagement und Bilanzvorschriften für Banken fordern. Erste Ansätze sollten darin bestehen, so die Autorin, die Liquiditätsrisiken in die Gesamtbanksteuerung zu integrieren, die Stressmodelle gezielt weiter zu entwickeln und weitreichende Krisenpläne zu implementieren. Des Weiteren wird eine Stärkung der qualitativen Aufsicht sowie eine Reform der Mindestanforderungen an das Eigenkapital gefordert. Ratsam erscheint ein Risikomanagement der Banken, das Liquiditätsfazilitäten sowie Risiken aus strukturierten Finanzprodukten berücksichtigt. Positiv wertet die Autorin insbesondere die Forderung nach erweiterten Offenlegungspflichten der Institute bezüglich der Verbriefungsformen, der angewendeten Bewertungsregeln und der außerbilanziellen Verpflichtungen. Darüber hinaus könnte eine weitere Stabilisierung des Finanzmarktsystems auch erreicht werden, wenn der Originator der Verbriefung einen Teil des Risikos in seiner Bilanz behält. Erste Konsequenzen aus der Finanzmarktkrise für das Management von Liquiditätsrisiken in Kreditinstituten 1. Einleitung Aufgrund latenter Vertrauensverluste zwischen den Kreditinstituten geriet die kurzfristige Liquiditätsüberlassung im Inter-Banken-Handel während der zweiten Jahreshälfte 2007 ins Stocken. Als Auslöser jenes zurückhaltenden Agierens galt die zunehmende Unsicherheit über schwebende Bewertungsverluste und Liquiditätsbedarfe im Zusammenhang mit syndizierten US-Hypothekenanleihen geringer Bonität (Subprimes). Die Europäische Zentralbank (EZB) hat daraufhin wiederholt mit großvolumigen Tendern auf dieses von vielen Marktteilnehmern unerwartete „Austrocknen“ der Liquiditätsströme im Inter-BankenHandel reagiert. Damit gelang es der Notenbank die branchenweite Notwendigkeit zur Liquidierung von Finanzaktiva mit möglicherweise negativen Impulsen für die Finanzmärkte erheblich abzuschwächen. Wäre eine derartige Abschwächung nicht möglich gewesen, wären weit mehr Institute mit Liquiditätsrisiken bis hin zur Zahlungsunfähigkeit, konfrontiert gewesen. Liquiditätsrisiken in diesem Sinne werden in operationelle und strukturelle Liquiditätsrisiken untergliedert. Operationelle Risiken betreffen die Sicherung der kurzfristigen Zahlungsfähigkeit, wobei strukturelle Liquiditätsrisiken die optimale längerfristige (Zeitraum über einem Jahr) Liquiditätssteuerung betreffen. In diesem Zusammenhang wird den Banken u.a. vorgeworfen, über keine zeitgemäßen Systeme zum Management von Liquiditätsrisiken verfügt zu haben. Vor diesem Hintergrund war es das Ziel der Verfasserin… 1 …zunächst geeignete Kriterien zu identifizieren, anhand derer eine Verknappung von Liquiditätsströmen zwischen den Banken festgemacht werden kann, 2. …mit Blick auf 2007 die Maßnahmen der EZB zur Sicherstellung einer ausreichenden Liquidität der Banken herauszustellen und sowohl Effektivität als auch Effizienz bei der „Verarbeitung“ durch den Markt anhand geeigneter Indikatoren zu bewerten sowie 3. …marktübliche Modelle zum Management von Liquiditätsrisiken in Banken zu systematisieren und vor dem Hintergrund der dargestellten Liquiditätskrise in 2007 als Ausgangspunkt von Innovationsansätzen kritisch zu würdigen. Auf Basis dieser vorbereitenden Teilschritte zielt die Arbeit darauf ab, Lösungsansätze zur Weiterentwicklung des Managements von Liquiditätsrisiken in Kreditinstituten unter Einbeziehung geeigneter Stress-Tests und Notfallplanungen aufzuzeigen. 10 Sparkasse Vest Recklinghausen Wissenschaftspreis 2008 2. Gang der Untersuchung Beim Gang der Untersuchung orientiert sich die Verfasserin am dreigliedrigen Risikokreislauf aus Risikoanalyse, -steuerung und -kontrolle. Die Adaption der Gliederung der vorliegenden Arbeit an den Risikokreislauf wird in Abbildung 1 dargestellt. Abbildung 1: Risikomanagement als Prozessgefüge1 Die Untersuchung beginnt mit der Analyse der Subprimekrise als Ausgangssituation der Konsequenzen für das Liquiditätsmanagement von Banken. Im Anschluss werden im dritten Kapitel grundlegende theoretische Abgrenzungen und Definitionen des Liquiditäts- und Risikobegriffes dargestellt. Angelehnt an die Risikoanalyse erfolgen die Risikoidentifikation und -deskription sowie die Risikoklassifizierung und eine Darstellung der Wechselwirkungen zwischen banktypischen Risikoarten. In Kapitel 4 untersucht die Diplomandin den Interbankenmarkt als eine Hauptdeterminante des Liquiditätsmanagements von Banken 1 Eigene Darstellung, in Anlehnung an Paul, S./Süchting, J. (1998), S. 481. 11 Erste Konsequenzen aus der Finanzmarktkrise für das Management von Liquiditätsrisiken in Kreditinstituten sowie die institutionellen Rahmenbedingungen der Europäischen Zentralbank als Hauptakteur für den Interbankenmarkt. Der Schwerpunkt der Diplomarbeit liegt auf den Kapiteln 5 und 6. Im ersten Teil des fünften Kapitels erfolgt die Entwicklung und Systematisierung geeigneter Indikatoren für die Verknappung der Liquiditätsströme auf dem Interbankenmarkt. Diese werden im Zuge der Subprimekrise durch eine empirische und eine deskriptive Analyse auf ihre Tragfähigkeit hin untersucht. Im zweiten Teil des fünften Kapitels werden die Reaktionen der EZB auf die Krise beschrieben und im Rahmen einer Ereignisstudie und einer Analyse von Marktreaktionen bezüglich ihrer Effektivität sowie ihrer Effizienz bewertet. Anschließend erfolgt die Darstellung erster Ansatzpunkte zur Verbesserung des Liquiditätsmanagements in Form von Frühwarnsystemen durch Nutzung der zuvor erarbeiteten Indikatoren. Beim Übergang zum sechsten Kapitel der vorliegenden Arbeit wechselt die Perspektive von einer gesamtwirtschaftlichen Sicht auf die der Risikosteuerung einzelner Kreditinstitute. Auf Grundlage der Darstellung der betriebswirtschaftlichen, rechtlichen und regulatorischen Anforderungen werden die Praktiken des Liquiditätsmanagements systematisiert und bewertet. Des Weiteren werden Verbesserungspotenziale für die Einbettung des Liquiditätsmanagements in die Gesamtbanksteuerung, die Durchführung von Stresstests sowie die Entwicklung von Notfallplänen analysiert und Ansätze für mögliche Weiterentwicklungen dargestellt. Dieser Schritt stellt im dargestellten Risikoprozessgefüge die Risikokontrolle dar. Die Arbeit schließt mit einer Synopse und einem Ausblick zur weiteren Entwicklung des Liquiditätsmanagements von Banken. Dabei werden einige aktuelle Forderungen bezüglich der Veränderungen dieses Managements und der regulatorischen Grundlagen kritisch diskutiert. Die vorliegende Kurzfassung der Diplomarbeit orientiert sich nach einer kurzen Darstellung der Finanzmarktkrise als Einstieg, strukturell sowie thematisch an den Ergebnissen der drei zentralen Untersuchungsschwerpunkten: Interbankenmarkt, Bewertung der Maßnahmen der EZB sowie der Analyse der Liquiditätsrisikosysteme der Kreditinstitute. 3. Ursachen der jüngsten Finanzmarktkrise und Folgen für die Kreditwirtschaft Seit Juli 2007 ist es auf dem globalen Finanzmarkt zu erheblichen Turbulenzen gekommen, in deren Zentrum der Verbriefungsmarkt steht.2 Der Ursprung der Krise liegt auf dem Markt für zweitklassige Hypothekenkredite in den USA, den sog. Subprime Mortgages, die der Krise ihren Namen gaben.3 Seit Mitte/Ende 2006 kam es erstens zu einem Preisverfall auf den amerikanischen Immobilienmärkten und zweitens durch Leitzinserhöhungen für viele schwächere Kreditnehmer zu nicht mehr leistbaren Kapitaldiensten. Das Streben nach steigenden Gewinnen trieb viele Finanzinstitute zusätzlich dazu, höhere sowie neuartige Risiken in Form komplexer Verbriefungen jener Subprime-Mortgages einzugehen.4 Die andersartigen Risiken sowie die Komplexität dieser Finanzinstrumente stellen hohe Anforderungen an die Bewertung und Steuerung der Risiken durch das Risikomanagement der Banken. Diesen Anforderungen sind viele Risikomanagementsysteme internationaler Banken nicht gewachsen. Ein weiteres Problem stellt die unzureichende Abbildung der eingegangenen Risiken in den Bilanzen der Kreditinstitute dar. Diese haben die Transaktionen nicht auf ihre eigenen Bilanzen gebucht, sondern sie über Zweckgesellschaften (SPVs), sogenannte Conduits, abgewickelt. Es kommt somit zu einer systematischen Unterschätzung des Liquiditätsrisikos durch die Banken, die weder die außerbilanziellen Verpflichtungen ausreichend in das Liquiditätsrisikomanagement einbeziehen noch das Risiko durch 2 Vgl. Senior Supervisors Group (2008), S. 1 sowie International Monetary Fund (2008), S. 86. 3 Vgl. Deutsche Bundesbank (2007), S. 8. 4 Vgl. Hagedorn, D. (2007), S. 21f. 12 Sparkasse Vest Recklinghausen Wissenschaftspreis 2009 fehlende Nachfrage bei der Anschlussfinanzierung der langlaufenden Verbriefungen mit kurzfristigen Commercial Paper angemessen berücksichtigen.5 Diese Faktoren bildeten den Nährboden der Subprimekrise. Ausgelöst durch die Unsicherheit über mögliche Risiken zwischen den Akteuren auf dem Interbankenmarkt entstand eine globale Vertrauenskrise, aufgrund derer sich die Liquiditätsanspannungen schrittweise auf weitere Marktsegmente ausbreiteten.6 Der Internationale Währungsfonds (IWF) hat den Abschreibungsbedarf bereits im April 2008 weltweit wie folgt geschätzt (rund ein Jahr später, am 21.04.2009 schätzt der IWF diese Summe nun auf 4 Billionen US-Dollar):7 Wirtschaftssektor Verlustvolumen (Mrd. US-$) Prozent des Gesamtvolumens Banken 440 - 510 45 - 54 % Versicherer 105 - 130 11 - 14 % 90 - 160 12 - 14 % Pensionskassen Öffentl. Körperschaften, Regierungen 40 - 140 5 - 12 % Sonstige (Hedge Funds, etc.) 110 - 200 14 - 18 % Summe ca. 945 100% Tabelle 1: Verlustverteilung aufgrund der Subprimekrise8 4. Kriterien zur Messung und Bewertung von Liquiditätsanspannungen auf dem Interbankenmarkt vor dem Hintergrund der Subprimekrise Der Interbankenmarkt dient dem kurz- und langfristigen Liquiditätsausgleich sowie der Verknüpfung der Geschäftsbereiche der einzelnen Finanzinstitute und Bankengruppen. Die Geber- und Nehmerpositionen der Bankengruppen auf dem Interbankenmarkt sind vornehmlich durch ihre typischen Geschäftsfelder, ihre Einbindung in die Gesamtorganisation (bei Genossenschaftsbanken und Sparkassen) und die Struktur des Nichtbankengeschäfts geprägt. Sie stellen dabei spiegelbildlich die Strukturen ihres Geschäftes mit Nichtbanken dar. Institute mit Einzahlungsüberschüssen aus dem Geschäft mit Nichtbanken (z.B. Privatkunden) können diese Überschüsse am Interbankenmarkt an andere Institute verleihen.9 Die größten Überschusssektoren sind dabei Sparkassen, Kreditgenossenschaften und Kreditbanken während Realkreditinstitute, genossenschaftliche Zentralbanken, Landesbanken, Bausparkassen und Banken mit Sonderaufgaben die Defizitsektoren darstellen. Die Nehmerposition der Banken mit Sonderaufgaben spiegelt ihre Funktion als Förderinstitut des Staates (z.B. Existenzgründerhilfen, Investitionskredite und Umweltschutz) wider. Landesbanken übernehmen u.a. die Funktion von Liquiditätsspeichern und der 5 Vgl. Financial Stability Forum (2008), S. 5f. und Hagedorn, D. (2007), S. 23. Auch die Ratingagenturen sind in Verbindung mit der Subprimekrise in Kritik geraten, da sie die betroffenen Finanzinstrumente nicht risikoadäquat beurteilt haben. Vgl. Osman, Y. (2008). 6 Vgl. Deutsche Bundesbank (2007), S. 8. 7 Vgl. International Monetary Fund (2008), S. X. 8 Vgl. International Monetary Fund (2008), S. 12. 9 Vgl. Deutsche Bundesbank (2000), S. 50 und S. 54. 13 Erste Konsequenzen aus der Finanzmarktkrise für das Management von Liquiditätsrisiken in Kreditinstituten Fristentransformation indem sie kurzfristige Kredite der Sparkassen in langfristige Einlagen transformieren. Sie sind demnach unter dem Blickwinkel der kurzfristigen Geldströme dem Liquiditätsdefizitsektor zuzuordnen. Weitere Akteure, die auf dem Interbankenmarkt überschüssige Liquidität zur Verfügung stellen sind Zweigstellen ausländischer Banken, Auslandsbanken und Großbanken und Regionalbanken, als Teil der Kreditbanken. Tabelle 2: Kredite zwischen Banken: 3-Jahresdurchschnitt (2005-2007)10 Die Messung der Marktliquidität auf dem Interbankenmarkt und das frühzeitige Aufspüren von Liquiditätsanspannungen sind wesentliche Grundvoraussetzungen für ein erfolgreiches Liquiditätsmanagement der Kreditinstitute. Eine vorausschauende Quantifizierung der Liquidität auf den Finanzmärkten erweist sich, besonders in angespannten Marktsituationen, als äußerst schwierig.11 Es sollen im Folgenden Kriterien gefunden werden, die bezüglich der Dimensionen Tiefe, Breite und Stabilität eines Marktes die Liquidität auf dem Interbankenmarkt abbilden und Liquiditätsanspannungen frühzeitig signalisieren. 10 Quelle: Deutsche Bundesbank (2008), Bankenstatistik Nr. 4, S. 17-19. 11 Vgl. International Monetary Fund (2008), S. 87; Tang, Dragon Y./Yan, H. (2007), S. 16 sowie zur Vertiefung Sauerbier, P. (2006), S. 3-5. 14 Sparkasse Vest Recklinghausen Wissenschaftspreis 2009 Wie in Abbildung 2 dargestellt, lassen sich solche Indikatoren in vier Gruppen gliedern: Abbildung 2: Indikatoren zur Messung der Liquidität auf dem Interbankenmarkt12 5. Die Maßnahmen der EZB als Reaktion auf die Subprimekrise Kreditinstitute übernehmen eine wichtige Funktion bei der Transmission der monetären Impulse der EZB in die Realwirtschaft und erfüllen eine Mittlerrolle zwischen den herausgestellten finanziellen Überschuss- und Defizitsektoren des Interbankenmarktes. Aufgrund der Wichtigkeit seiner Funktionen und der fundamentalen Bedeutung von Vertrauen im bankbetrieblichen Prozess stellt der Finanzsektor einen besonders schutzbedürftigen Sektor in der Gesamtwirtschaft dar.13 Ziel der institutionellen Rahmenbedingungen und speziell der EZB ist es daher, die ordnungsmäßige Durchführung von Bankgeschäften zu sichern, sowie eine Systemkrise und damit verbundene erhebliche Nachteile für die Gesamtwirtschaft zu verhindern.14 Allgemein zielt die EZB neben niedriger, stabiler Inflation auf ein strapazierfähiges Finanzsystem und minimale systemische Risiken für das Übergreifen von negativen Impulsen einzelner Institute auf das globale Finanzsystem. Kurzfristig sollte die Zentralbank die Liquidität auf den Finanzmärkten sichern, so dass das Funktionieren des Handels zwischen Wirtschaftsobjekten reibungslos verläuft.15 12 13 14 15 Eigene Darstellung. Vgl. Blåvarg, M./Nimander, P. (2002), S. 287, sowie Keine, F.-M. (1986), S. 31f. Vgl. Moch, N. (2007), S. 19 sowie Keine, F.-M. (1986), S. 31f. Vgl. Cecchetti, S. (2007), S. 7. 15 Erste Konsequenzen aus der Finanzmarktkrise für das Management von Liquiditätsrisiken in Kreditinstituten Dem Eurosystem und der EZB steht ein breiter Handlungsrahmen an geldpolitischen Instrumenten zur Verfügung. Eine Zentralbank steuert die kurzfristigen Geldmarktsätze durch Signale für den Finanzsektor sowie durch die Liquiditätsversorgung am Geldmarkt.16 Da die EZB für den Euroraum das Monopol als Anbieter der monetären Basis besitzt, nutzt sie u.a. dieses Instrument zur Durchsetzung ihrer geldpolitischen Ziele. Bei der Geschäftstätigkeit der EZB geht es vorrangig darum, das reibungslose Funktionieren des Geldmarktes und eine ausreichende Liquiditätsversorgung des Finanzsystems zu gewährleisten. Um Liquiditätsschwankungen bei Kreditinstituten auszugleichen stellt sie regelmäßig Refinanzierungsmittel sowie Fazilitäten zur Verfügung.17 Die EZB hat auf die Anspannungen auf dem Interbankenmarkt reagiert und ist ihrer Funktion als Lender of Last Resort nachgekommen. Ihre Maßnahmen zielten auf die Annäherung des Niveaus der Geldmarktzinssätze an das Zinsniveau des Hauptrefinanzierungsgeschäftes und auf die Gewährleistung der Funktionsfähigkeit des Geldmarktes ab.18 Diese Maßnahmen wurden bezüglich ihrer Effektivität sowie ihrer Effizienz beurteilt. Die Analyse der Effektivität der Maßnahmen der EZB erfolgte in Anlehnung an die Vorgehensweise einer Ereignisstudie19 anhand von zwei stellvertretenden Operationen der EZB als Reaktion auf die Subprimekrise. Die Effizienz der Maßnahmen wurde demgegenüber deskriptiv untersucht. Generell werden die Maßnahmen der EZB positiv bewertet, wenngleich eine Signifikanz für alle Parameter nicht festgestellt werden kann. Dies verdeutlicht die Notwendigkeit konzentrierter und kombinierter Maßnahmen zur Eindämmung der Liquiditätsanspannungen. 6. Liquiditätsmanagement in Kreditinstituten Das Liquiditätsmanagement von Banken basiert auf dem Zielsystem aus Rentabilität, Liquidität und Sicherheit, den Grundpfeilern der Bankpolitik.20 In der vorliegenden Untersuchung stellt die Verfasserin die folgenden modernen Verfahren zur Liquiditätssteuerung kritisch dar: das Standardverfahren nach der Liquiditätsverordnung, Liquiditätsablaufbilanzen, die eine Art Cash-Flowrechnung, bzw. Gapanalyse der Ein- und Auszahlungen in bestimmten Laufzeitbändern darstellen sowie Liquidity-at-Risk-Modelle als Vertreter der stochastischen Verfahren, die an dem Modell des Value-at-Risk angelehnt sind. Vor dem Hintergrund der Subprimekrise zeigen alle beschriebenen Verfahren, wenn auch in unterschiedlicher Relevanz und Stärke, Mängel zur Bestimmung und Steuerung des Liquiditätsrisikos. Das Standardverfahren impliziert die Annahme, dass die Angemessenheit der Liquiditätsposition primär von dem Ausmaß der zu erwartenden Zahlungsströme, dem Bestand an liquiden Aktiva sowie den Refinanzierungsmöglichkeiten bestimmt wird.21 Es erfolgt eine Fokussierung auf Abruf- und kurzfristige Refinanzierungsrisiken, so dass langfristige Refinanzierungsrisiken, die im Zuge der Subprimekrise durch erhöhte Fristentransformation und eine erhebliche Erhöhung des Gesamtrisikos besondere Bedeutung erlangt haben, nicht berücksichtigt werden. Zu dieser Problematik gehört auch die Erfassung bilanzunwirksamer Geschäfte, speziell Derivate, die im Zentrum der Finanzmarktkrise stehen.22 16 17 18 19 20 21 22 16 Vgl. Europäische Zentralbank (2004), S. 75. Vgl. Europäische Zentralbank (2004), S: 76. Vgl. Trichet, J.-C. (2008). Zur allgemeinen Vorgehensweise einer Ereignisstudie vgl. MacKinlay, A. C. (1997), S. 14-16. Vgl. Fürer (1990), S. 56. Zur Vertiefung der Problematik siehe auch Zeranski, S. (2007), S. 39-43. Vgl. Bundesaufsichtsamt für das Kreditwesen (BAKred) (2001), S. 4. Vgl. Moch, N. (2007), S. 61. Sparkasse Vest Recklinghausen Wissenschaftspreis 2009 Die Erfassung dieser Risiken wird nach dem Standardansatz nicht vollumfassend gewährleistet. Problematisch wird diese unzureichende Risikoerfassung besonders bei neuartigen und komplexen Risiken durch Finanzinnovationen, die derzeit stark an Bedeutung und Volumen gewinnen. Weitere Nachteile des Standardansatzes bilden der kurzfristige Zeithorizont von einem Jahr sowie die fehlende Aussage über bestehende Restrisiken. Im Zuge der Finanzmarktkrise wird deutlich, dass die Anspannungen auf dem Interbankenmarkt mittelbis langfristig bestehen bleiben und die Folgen daraus ein Jahr und somit den Planungshorizont der Liquiditätsverordnung überschreiten. Auch das Risiko eines Großabrufes von Einlagen, welches im Zuge der Krise die englische Bank Northern Rock betraf, wird in der Liquiditätsverordnung nicht berücksichtigt. Zusammenfassend kann bei dem Standardansatz lediglich von einer unzureichenden Abbildung des Liquiditätsrisikos gesprochen werden und somit auch von einer ungenügenden Sicherstellung der jederzeitigen Zahlungsfähigkeit.23 Liquiditätsablaufbilanzen eignen sich im direkten Vergleich, unter Berücksichtigung jüngster Entwicklungen, deutlich besser zur Liquiditätsrisikosteuerung als der Standardansatz. Von Vorteil sind hier u.a. die Möglichkeit zum Einbezug von Stresstests und Szenarioanalysen. Speziell Szenarioanalysen erlauben die Verknüpfung der Liquiditätsrisiken mit erfolgsorientierten Zielgrößen, bspw. durch eine Simulation erhöhter Refinanzierungskosten.24 Die Verwendung interner, nicht bilanzorientierter Daten gewährleistet den Einbezug aller liquiditätswirksamen Zahlungen, wobei teilweise Schwierigkeiten bei der Berücksichtigung und Modellierung stochastischer Zahlungsströme auftreten. Positiv zu beurteilen ist die Fähigkeit von Liquiditätsablaufbilanzen, auch über Laufzeiten > 1 Jahr, Liquiditätsengpässe frühzeitig aufzudecken und renditeoptimal zu behandeln. Bestehende Restrisiken und Wahrscheinlichkeiten für Liquiditätsabflüsse werden auch in der Zahlungsstrombilanz nicht angegeben.25 Die Stärken der Liquiditätsablaufbilanzen liegen in der langfristigen Steuerung der Liquidität, während für das kurzfristige Liquiditätsmanagement und die Sicherstellung der jederzeitigen Zahlungsfähigkeit ein Sicherheitspuffer notwendig ist. Im Gegenzug zu den zuerst analysierten Verfahren erreicht der Liquidity at Risk eine statistische Genauigkeit bei der Bestimmung des Liquiditätsrisikos und ermöglicht einen Einbezug von Wahrscheinlichkeitsaussagen in das Liquiditätsmanagement.26 Es bleibt allerdings der Einwand der fehlenden Möglichkeit des Einbezugs von Stresstests erhalten. Obwohl der LaR extreme Liquiditätsanforderungen modelliert und schätzt, besteht die Möglichkeit der Szenariovariation nicht. Weitere Nachteile ergeben sich durch die fehlende Integration des Modells in die Gesamtbanksteuerung und andererseits durch die mangelnde kontinuierliche Überprüfung der Werthaltigkeit und des Liquiditätsgrades „liquider“ Aktiva. Besonders vor dem Hintergrund der Subprimekrise wurden Wertpapiere sowie Verbriefungsinstrumente als äußerst liquide eingestuft, obwohl sie aufgrund starker Anspannungen auf dem Sekundärmarkt und fehlender Absatzmöglichkeiten kaum noch bzw. nur mit hohen Preisabschlägen liquidierbar waren. Ein Nachteil der statistischen Schätzung des Risikos liegt darin, dass die Risiken zwar statistisch quantifiziert werden, es dadurch allerdings einerseits zu einer Fehleranfälligkeit wie z.B. durch Sondersituationen oder zu kurze Datenhistorien kommen kann und andererseits das Verfahren keine Erkenntnisse bezüglich 23 24 25 26 Vgl. Moch, N. (2007), S. 62f. Vgl. hierzu sowie im Folgenden Moch, N. (2007), S. 69f. Vgl. Zeranski, S. (2007), S. 86. Vgl. Zeranski, S. (2005), S. 247. 17 Erste Konsequenzen aus der Finanzmarktkrise für das Management von Liquiditätsrisiken in Kreditinstituten der originären Ursachen der Risiken hervorbringt, was für eine zielgerichtete Steuerung der Liquidität unerlässlich ist.27 Aus betriebswirtschaftlicher Perspektive ist dieses Modell dennoch den ersteren vorzuziehen, da es ein kurzfristiges Liquiditätsoptimum durch die statistisch fundierte Schätzung nahezu erreicht und zugleich eine langfristige renditeoptimale Strukturierung der Liquiditätspositionen unter gegebener Risikoneigung der Anwender ermöglicht. Durch die abschließende Beurteilung der Liquiditätsablaufbilanzen und des Liquidity-atRisk erschließt sich die Kombination beider Methoden als sinnvoll. Da die Zahlungsstrombilanz erhebliche Vorteile für den langfristigen Analysehorizont aufweist, sollte sie mit dem kurzfristig fundierten LaR verknüpft werden, um die jederzeitige Zahlungsfähigkeit zu gewährleisten und die Stärken beider Verfahren nutzbar zu machen. Die folgende Abbildung systematisiert die Praktiken zum Liquiditätsmanagement der Kreditinstitute und bietet einen guten Überblick über den Entwicklungsstand der verschiedenen Methoden. Die aus einer aktuell von der Verfasserin in Zusammenarbeit mit dem ikf° durchgeführten Befragung einzelner Kreditinstitute zum Stand ihres Liquiditätsmanagements gewonnenen neuen Erkenntnisse werden durch das rote Symbol dargestellt. Abbildung 3: Systematisierung verschiedener Verfahren des Liquiditätsmanagements28 27 Vgl. Moch, N. (2007), S. 79f. sowie Zeranski, S. (2005), S. 211. 28 In Anlehnung an Zeranski, S. (2006), S. 2. 18 Sparkasse Vest Recklinghausen Wissenschaftspreis 2009 Vor allem bei der Entwicklung und Durchführung von Stresstests sollten Maßnahmen zur Verbesserung ergriffen werden z.B. durch die Berücksichtigung außerbilanzieller Verpflichtungen und die Aggregation verschiedener Szenarien zur Berücksichtigung der Risikokorrelationen. Bei der Bewältigung von Krisen in Form von Liquiditätsnotfallplänen ergeben sich Verbesserungspotenziale im Bereich der Langfristigkeit der Pläne sowie in der Anpassung der Maßnahmen auf die der Notfallsituation zugrundeliegenden Krise. Des Weiteren sollte ein Einbezug der entwickelten Frühwarnindikatoren zur Messung von Liquiditätsanspannungen in die Liquiditätssicherungssysteme stattfinden. Neben den dargestellten Optimierungspotenzialen bezüglich Stresstests und Liquiditätsnotfallplänen erscheint die Einbettung des Liquiditätsrisikomanagements in die Gesamtbanksteuerung noch wenig fortgeschritten und sollte durch verschiedene Maßnahmen, wie bspw. die Aggregation der Risikopositionen unter Einbezug des Liquiditätsrisikos zu einer Gesamtrisikoposition, gefördert werden. 7. Ausblick Die Unsicherheit unter den Finanzmarktakteuren ist aufgrund des Fortbestehens der Krise weiterhin hoch.29 Um das Vertrauen der Marktteilnehmer sowie die Stabilität des Bankensystems zu fördern und dadurch zukünftige systemische Krisen zu vermeiden, fordern mehrere Institutionen Reformen bezüglich Regulierung, Risikomanagement und Bilanzvorschriften für Banken. Dabei sollten erste Ansätze darin bestehen, die Liquiditätsrisiken in die Gesamtbanksteuerung zu integrieren, die Stresstestmodelle gezielt weiter zu entwickeln und weitreichende und zugleich klar definierte Krisenpläne zu implementieren. Wichtig für alle vier Ansatzpunkte sind eine solide Datenbasis und eine stärkere Nutzung der Indikatoren zur Messung der Liquidität. Dabei sollten neben den originären Risiken auch derivative Risiken und Risikokorrelationen sowie außerbilanzielle Geschäfte vermehrt in die Steuerung einbezogen werden. Bezüglich der Reformen der Bankenaufsicht wird von allen Institutionen eine Stärkung der qualitativen Aufsicht gefordert. Der Bundesverband deutscher Banken fordert in diesem Zusammenhang einen generellen Paradigmenwechsel von einem statischen zu einem prinzipienbasierten Aufsichtsansatz.30 Dieser Ansatz ist grundsätzlich positiv zu bewerten, da gerade ein sich schnell entwickelnder Finanzmarkt flexible Behandlung und somit qualitative, aber nicht statische Regulierung erfordert. Eine weitere Reform der Regulierung der Banken betrifft die Mindestanforderung an das Eigenkapital. Dabei gibt es einerseits die Forderung nach einem generell höheren EKPuffer und einen Ansatz, der die EK-Hinterlegung der Liquiditätsfazilitäten an SPVs oder verbriefter Finanzinstrumente vorsieht.31 Vor dem Hintergrund der jüngsten Krise verfehlt dieser Ansatz allerdings den Kern des Problems. Die Mindestanforderungen beziehen sich auf das Eigenkapital der Institute. Die Krise entstand jedoch aufgrund der unzureichenden Sicherstellung der jederzeitigen Zahlungsfähigkeit, also der Liquiditätsposition der Kreditinstitute. Sinnvoller erscheint dementsprechend die Sicherstellung eines adäquaten Risikomanagements der Banken, das den Einbezug der Liquiditätsfazilitäten sowie der Risiken aus strukturierten Finanzprodukten fordert. 29 Vgl Europäische Zentralbank (2008), S. 1. 30 Vgl. Bundesverband Deutscher Banken (2008), S. ii und S. 1. 31 Vgl. Financial Stability Forum (2008), S. 3 und Hagedorn, D. (2007), S. 25. 19 Erste Konsequenzen aus der Finanzmarktkrise für das Management von Liquiditätsrisiken in Kreditinstituten Positiv hingegen ist die Forderung nach erweiterten Offenlegungspflichten der Institute bezüglich der Verbriefungsformen, der angewendeten Bewertungsregeln und der außerbilanziellen Verpflichtungen zu bewerten. Dies fördert die Transparenz und macht auch sekundäre und außerbilanzielle Risiken der Banken sichtbar. Um eine weitere Stabilisierung des Finanzsystems zu erreichen wird eine Verbesserung der Anreizstrukturen auf Verbriefungsmärkten gefordert. Um dies zu erreichen sollte in Zukunft gewährleistet sein, dass der Originator der Verbriefung auch einen Teil des Risikos in seiner Bilanz behält (First Loss Piece) und so einen Teil des Risikos mit trägt. Hierbei ist allerdings die Vorteilhaftigkeit der Verbriefungsstruktur zu bewahren, die ja gerade im Risikotransfer besteht. Mangels veröffentlichter Daten sollte der erste Schritt im Anschluss an die präsentierte Diplomarbeit darin bestehen, den Status quo zum Liquiditätsrisikomanagement der Institute nach Ausbruch der Krise zu eruieren und darauf aufbauend Entwicklungspotenziale herauszustellen. 20 Sparkasse Vest Recklinghausen Wissenschaftspreis 2009 Literaturverzeichnis Blåvarg, Martin/Nimander, Patrick (2002): Interbank Exposures and systemic risk, www.bis.org/cgfs/ conf/mar02r.pdf, 01.04.2008. Bundesaufsichtsamt für das Kreditwesen (Hrsg.) (2001): Jahresbericht 2000, Frankfurt am Main. Bundesverband deutscher Banken (2008): Lehren aus den Finanzmarktturbulenzen – Positionen des Bankenverbandes, Berlin. Cecchetti, Stephen (2007): Market Liquidity and Short Term Credit - The Financial Crisis of August 2007, https://www.ifk-cfs.de/ fileadmin/downloads/ events/ecbwatchers/ 20070907ecb_cecchetti_document.pdf, 14.04.2008. Deutsche Bundesbank (2000): Monatsbericht Januar 2000 - Längerfristige Entwicklung der Interbankbeziehungen der deutschen Kreditinstitute, S. 49-70, Frankfurt am Main. Deutsche Bundesbank (2007): Finanzstabilitätsbericht 2007, Frankfurt am Main. Deutsche Bundesbank (2008): Monatsbericht Februar 2008 - IV. Banken, Frankfurt am Main, S. 20*-41*. Europäische Zentralbank (2004): Die Geldpolitik der EZB, Frankfurt am Main. Europäische Zentralbank (2008): Introductory Statement with Q & A von Jean-Claude Trichet und Lucas Papademos, Athen, 08.05.2008, http://www. ecb.eu/press/pressconf/2008/html/is080508.en.html, 03.06.08. Fürer, Guido (1990): Risk Management im internationalen Bankgeschäft, in: Kilgus, Ernst/Schuster, Leo (Hrsg.): Bankwirtschaftliche Forschungen, Bern, zugl.: Zürich, Univ., Diss., 1990. Financial Stability Forum (2008): Report of the Financial Stability Forum on Enhancing Market and Institutional Resilience, http://www.fsforum. org/publications/FSF_Report _to_G7_11_April.pdf, 03.06.2008. Hagedorn, Dittmar (2007): Die Subprime-Krise und ihre Folgen - Turbulenzen an den Finanzmärkten, in: Die Bank (12/2007), S. 20-26. Moch, Nils (2007): Liquiditätsrisikomanagement in Kreditinstituten, Lohmar, Köln. Osman, Yasmin (2008): „Ratingaufsicht sorgt für Streit“, in: Financial Times Deutschland, 03.04.2008, http://www.ftd.de/boersen_maerkte/ aktien/:Ratingaufsicht%20Streit/337 598.html, 02.05.2008. Paul, Stephan/Süchting, Joachim (1998): Bankmanagement, 4. Aufl., Stuttgart. Sauerbier, Peter (2006): Liquiditätsspreads im Gleichgewicht auf illiquiden Anleihenmärkten, Wiesbaden, zugl.: Mannheim, Univ., Diss., 2006. Senior Supervisors Group (2008): Observations on Risk Management Practices during the Recent Market Turbulence, http://www.fsa.gov.uk/ pubs/other/SSG_ risk_management.pdf, 25.05.2008. Tang, Dragon Yongjun/ Yan, Hong (2007): Liquidity and Credit Default Swap Spreads, http:// papers.ssrn.com/sol3/papers.cfm?abstract_ id=891263#PaperDownload, 13.05.2008. Trichet, Jean-Claude (2008): Remarks on the recent turbulences in global financial markets – Keynotes address by Jean - Claude Trichet, President of the ECB, at the Policy Discussion „Global Economical Policy Forum 2008“, 14.04.2008, New York, http:// www.ecb.int/press/ key/date/2008/html/sp080414_1. en.html, 11.05.2008. Zeranski, Stefan (2005): Liquidity at Risk zur Steuerung des liquiditätsmäßig-finanziellen Bereiches von Kreditinstituten, Chemnitz, zugl: Chemnitz, Univ., Diss., 2004. Zeranski, Stefan (2006): Liqudity at Risk - Quantifizierung extremer Zahlungsstromrisiken, in: Risiko Manager 2006, Heft 11, S. 1, 4-9. Zeranski, Stefan (2007): Grundlagen und Entwicklungsstufen im bankbetrieblichen Liquiditätsrisikomanagement, in: Zeranski, Stefan (Hrsg.): Ertragsorientiertes Liquiditätsrisikomanagement, Heidelberg, S. 58-113. International Monetary Fund (2008): Global Financial Stability Report - Containing Systemic Risks and Restoring Financial Soundness, April 2008, Washington DC, http://www.imf.org/External/Pubs/FT/ GFSR/2008/ 01/pdf/text.pdf, 22.04.2008. MacKinlay, A. Craig (1997): Event studies in Economics and Finance, in: Journal of Economic Literature, Vol. 35, März 1997, S. 13-39. 21 Erste Konsequenzen aus der Finanzmarktkrise für das Management von Liquiditätsrisiken in Kreditinstituten 22 Dipl.-Kaufmann Jan Matysik geboren am 21. Juni 1981 Die Limitierung von Branchenexposures unter besonderer Berücksichtigung der Risikobeiträge aus Collateralized Debt Obligations Diplomarbeit, eingereicht im Winter 2007 bei Professor Dr. Andreas Pfingsten Institut für Kreditwesen Westfälische Wilhelms-Universität Münster Der Handel mit strukturierten Kreditprodukten, so genannten AssetBacked-Securities (ABS), war ein wesentlicher Baustein der auch derzeit noch nicht überwundenen globalen Finanzkrise. Zu diesen Produkten zählen insbesondere auch Collateralized Debt Obligations (CDOs), die z.B. durch Forderungen an Unternehmen besichert sind. Dabei wurden teilweise sehr komplexe Verbriefungsinstrumente konstruiert, die mit ihren Möglichkeiten nach wie vor großes strategisches Interesse für Banken besitzen, aber auch mit nicht unbeträchtlichen Risiken verbunden sind. Somit kommt der konsistenten Einbindung in das Risikomanagement von Banken eine besondere Bedeutung zu. Ziel dieser Arbeit war es zu untersuchen, auf welche Weise branchenspezifische Risiken, die sich aus CDOs ergeben, in die Branchenlimitsteuerung einer Bank eingebunden werden können und welche Probleme dabei entstehen. Erläutert werden neben den Grundlagen des Kreditrisikomanagements in Banken insbesondere die Bedeutung der Diversifikation von Kreditforderungen in heterogene Sektoren, die jeweils auf unterschiedliche Faktoren reagieren. Ausgeführt wird, dass die Ausfallkorrelationen zwischen den Sektoren möglichst gering, innerhalb der Sektoren jedoch möglichst hoch sein sollte. Aus der Branchenlimitierung ergeben sich allerdings auch einige allgemeine Probleme, die in der vorliegenden Arbeit erläutert werden. Als Ausgangspunkt für die Analyse des Branchenrisikos in CDOs und seiner Einbindung in Nominal- bzw. VaR-Limite konstruiert der Autor einen Fall, an dem sich eindeutige Aussagen ableiten lassen. Darauf aufbauend werden Lösungsansätze aufgezeigt, wie die konsistente Einbindung der aus CDOs resultierenden Risiken in die Branchenrisikosteuerung von Banken möglich ist. Resümiert wird, dass letztlich allein die Branchenstruktur der Gesamtausfälle relevant ist und sich somit die Konstruktion einer Ausfallchronologie erübrigt. Das Problem der gegenseitigen Ausschließlichkeit der Risikobeiträge lässt sich durch die Definition von CDOs als eigene Branche für das Limitsystem lösen. Die Limitierung von Branchenexposures unter besonderer Berücksichtigung der Risikobeiträge aus Collateralized Debt Obligations 1. Einleitung Die gegenwärtige internationale Finanzkrise wurde erst möglich durch den weltweiten Handel mit einer relativ jungen Finanzinnovation: strukturierten Kreditprodukten, so genannten Asset-Backed-Securities (ABS). Zu ABS im weiten Sinne zählen auch Collateralized Debt Obligations (CDO), die durch Forderungen an Unternehmen besichert sind. Auf der Jagd nach Anlagemöglichkeiten mit hohen Renditen bei geringem Risiko wurden zunehmend komplexe Verbriefungsinstrumente konstruiert, deren Risikoprofil sich zwar noch in mathematischen Modellen ausdrücken ließ, jedoch selbst für Experten nicht mehr ohne weiteres verständlich war. Im Rahmen von ABS konnte nahezu jedes beliebige Kreditportfolio auf eine Weise verbrieft werden, die zum Teil in der Emission von AAA-Wertpapieren resultieren würde. Trotz der unrühmlichen Rolle, die ABS im Rahmen der gegenwärtigen Krise gespielt haben, sind die mit diesen Instrumenten einhergehenden Möglichkeiten für Banken nach wie vor von großem strategischem Interesse. Durch die Verbriefung von Kreditrisiken werden Institute in die Lage versetzt, die Entscheidung über den Abschluss eines Kreditgeschäftes von der Entscheidung bzgl. der Risikoübernahme zu trennen. Sie können am Markt die Kreditrisiken kaufen, die ihren jeweiligen Rendite-Risiko-Vorstellungen entsprechen und die ihr eigenes Kreditportfolio auf optimale Weise ergänzen. Gleichzeitig können sie Risiken verkaufen, um ihr Exposure gegenüber bestimmten Branchen oder Regionen zu begrenzen. Dadurch wird das Verfolgen von Spezialisierungsstrategien erleichtert, da diese nun nicht mehr zwangsläufig zum Aufbau von Klumpenrisiken führen. Aufgrund der beträchtlichen Risiken, die aus dem Handel mit ABS entstehen können, ist die konsistente Einbindung dieser strukturierten Produkte in das Risikomanagement einer Bank von großer Bedeutung. Die meisten Banken steuern ihre Kreditportfolios unter anderem nach Branchenaspekten. Da auch einem CDO Titel aus unterschiedlichen Branchen zu Grunde liegen, soll im Folgenden diese Spezialform der ABS betrachtet werden. Ziel dieser Arbeit ist es zu untersuchen, auf welche Weise branchenspezifische Risiken, die sich aus einer Investition in CDOs ergeben, in die Branchenlimitsteuerung einer Bank eingebunden werden können und welche Probleme dabei entstehen. 2. Grundlagen des Kreditrisikomanagements in Banken Das Kreditrisiko ergibt sich aus der Unsicherheit über die künftige Zahlungsfähigkeit des Schuldners, die durch die Ausfallwahrscheinlichkeit (PD) ausgedrückt wird. Fällt der Kreditnehmer tatsächlich aus, entstehen Verluste in Höhe des Exposures zum Zeitpunkt des Ausfalls (EAD), das dem noch nicht getilgten Forderungsbetrag entspricht. Es wird davon ausgegangen, dass im Falle der Zahlungsunfähigkeit keinerlei Zahlungen mehr an die Gläubiger fließen. Die Verlustquote beim Ausfall (LGD) beträgt somit annahmegemäß 100% des EAD.1 In dieser Arbeit werden endfällige Schuldtitel unterstellt, so dass sich das Exposure während der gesamten Laufzeit aus dem Nominalbetrag der Forderung ergibt.2 Die Ausfallwahrscheinlichkeit kann z.B. aus Ratings abgelesen werden, die eine erwartete PD innerhalb eines bestimmten Zeitraumes angeben. Alternativ dazu kann sie auch von der Bank selbst modelliert werden, z .B. mit Hilfe eines Asset-Value-Modells, in dem die PD auf Basis des Unternehmenswertes berechnet wird. Dieses Modell hat in der Praxis große Beachtung gefunden3 und wird außerdem von den wichtigsten Rating-Agenturen zur Bewertung von CDOs eingesetzt.4 Das Asset-Value-Modell geht zurück auf die Arbeiten von Merton (1973) sowie Black und Scholes (1973) und interpretiert Eigenkapital (EK) und Fremdkapital (FK) als Optionen auf den Unternehmenswert.5 Im Rahmen des Modells fällt ein Kredit an ein Unternehmen aus, wenn der Unternehmenswert unter den Wert der Verbindlichkeiten, den so 24 Sparkasse Vest Recklinghausen Wissenschaftspreis 2008 genannten Default Punkt (DefP), sinkt. Die risikoneutrale Ausfallwahrscheinlichkeit ergibt sich dann aus: Wird das Kreditrisiko im Portfoliokontext betrachtet, muss zusätzlich zur Ausfallwahrscheinlichkeit auch die Ausfallkorrelation zwischen den einzelnen Titeln berücksichtigt werden.6 Dafür wurden Modelle entwickelt, die das Risiko eines Kreditportfolios unter Berücksichtigung der Korrelationsstrukturen quantifizieren (Kreditportfolio-Modelle).7 Zwei der vier wichtigsten Modelle beruhen auf dem oben vorgestellten Asset-Value-Modell, so dass sich die Ausfallkorrelation aus der Korrelation der Unternehmenswerte ergibt.8 Zur Schätzung der paarweisen Korrelationen aller im Portfolio enthaltenen Forderungen werden Faktoren-Modelle eingesetzt.9 Die Korrelation zwischen zwei Schuldnern wird dabei durch deren Korrelation mit Hintergrundfaktoren erklärt. Im Rahmen dieser Arbeit dienen die Branchen, in denen die Unternehmen tätig sind, als intuitive Hintergrundfaktoren.10 Zur Vereinfachung wird angenommen, dass jedes Unternehmen eindeutig einer Branche zugeordnet werden kann. Die Branchenfaktoren werden durch Branchenindizes ausgedrückt.11 Die Veränderungen des Unternehmenswertes ergeben sich für Unternehmen i in Branche s aus:12 Die Wertschwankungen setzen sich also aus einem branchenspezifischen (systematischen) und einem firmenspezifischen (idiosynkratischen) Anteil zusammen. Für beide Risikofaktoren wird eine Normalverteilung unterstellt.13 Die Korrelation der Unternehmenswerte zweier Unternehmen i und j aus den Branchen s und t errechnet sich entsprechend der folgenden Gleichung: 14 Das Portfoliorisiko soll nun mit dem Value at Risk (VaR) gemessen werden. Diese Kennzahl ist in der Praxis und den gängigen Kreditportfoliomodellen weit verbreitet, auch wenn sie nicht ohne Kritik ist.15 Da Kreditverluste nicht normalverteilt sind, muss zur Bestimmung des VaR die gesamte Portfolioverlustverteilung konstruiert werden.16 Hierfür bietet sich eine Monte-Carlo-Simulation an, da so auf explizite Annahmen zur Verlustverteilung verzichtet werden kann und die Titel in ihrer Heterogenität korrekt erfasst werden.17 In der Simulation kann das oben beschriebene Asset-Value-Modell in einer leicht veränderten Form eingesetzt werden. Es wird angenommen, dass die PD sich aus einem Rating ergibt und daher bereits bekannt ist. Entsprechend des Modells bezeichnet sie die Wahrscheinlichkeit, mit der der Unternehmenswert sich so stark negativ entwickelt, dass er den DefP unterschreitet. Da die simulierten stetigen Unternehmenswertänderungen normalverteilt sind, kann die PD durch in eine kritische Rendite überführt werden, deren Unterschreiten 25 Die Limitierung von Branchenexposures unter besonderer Berücksichtigung der Risikobeiträge aus Collateralized Debt Obligations zum Zahlungsausfall führt.18 Im ersten Schritt der Simulation werden nun Ausprägungen für die normalverteilten Branchenfaktoren generiert. Diese können dann z.B. mit Hilfe der Cholesky-Separation in die gewünschte Korrelationsstruktur gebracht werden.19 Auf Basis der Branchenfaktoren und einer Ziehung für ᵢ ergibt sich aus (2) für jeden Titel im Portfolio die stetige Unternehmenswertänderung. Ist dieser Wert kleiner als , fällt der Titel aus. Die Forderungen, die ihre kritische Renditegrenze unterschritten haben, ergeben in ihrer Summe den Portfolioverlust eines Simulationsganges. Wird diese Simulation sehr häufig wiederholt und werden die Portfolioverluste aufsteigend sortiert, ergibt sich die PortfolioVerlustverteilung. Der Portfolio-VaR ist der größte Verlust, der nur in 0,1% der Simulationsgänge überschritten wurde.20 3. Branchenlimitierung im Kreditportfolio Für eine Bank ist es riskant, ihre gesamten Kredite an einen kleinen Kreis von Unternehmen zu vergeben, da in einem solchen Portfolio ein einziger Ausfall auf Grund des hohen Exposures bereits zu massiven Verlusten führen würde (Adressenkonzentration). Daher ist es erstrebenswert, das Kreditvolumen auf eine große Anzahl von Kreditnehmern zu verteilen, so dass die Verluste beim Ausfall eines Titels auf ein tragbares Maß begrenzt sind.21 Würden die Kredite jedoch ausschließlich auf Unternehmen verteilt, die auf den gleichen Hintergrundfaktor reagieren, könnte lediglich das idiosynkratische Risiko verringert werden, so dass bei gegeben hohen Faktorsensitivitäten weiterhin hohe Ausfallkorrelationen bestünden (Sektorkonzentration22). Nur eine Diversifikation der Forderungen auf Kreditnehmer in verschiedenen Sektoren, die jeweils auf unterschiedliche Faktoren reagieren, führt auch zu einer Verringerung des systematischen Risikos. Unter Konzentrationsrisiken werden im Rahmen dieser Arbeit solche Risiken verstanden, die aus einer Sektorkonzentration im Kreditgeschäft entstehen und die geeignet sind, sehr große Verluste zu generieren.23 Sie sind für das Gesamtrisiko einer Bank von hoher Bedeutung und sollten daher differenziert erfasst und aktiv gesteuert werden.24 Da Konzentrationsrisiken durch hohe Ausfallkorrelationen verursacht werden,25 müssen die Kreditnehmer zur Beurteilung dieser Risiken zunächst zu Sektoren zusammengefasst werden. Die Ausfallkorrelationen sollten zwischen den Sektoren möglichst gering und innerhalb der Sektoren möglichst hoch sein.26 In der Praxis ist eine Aggregation nach Branchenzugehörigkeit am weitesten verbreitet.27 Werden die Titel bei der Risikomessung nach Branchen getrennt erfasst, können Aussagen zu Konzentrationsrisiken im Portfolio getroffen werden. Da eine solch differenzierte Erfassung im Rahmen der beschriebenen Simulation des Portfolio-VaR jedoch nicht möglich ist, werden hierzu Branchenlimits eingesetzt.28 Sie weisen dem Risiko, das insgesamt aus einer Branche resultiert, eine Höchstgrenze zu, die zu keinem Zeitpunkt überschritten werden darf.29 Dabei sind zwei mögliche Ausformungen dieser Limits möglich. Zum Einen kann das EAD als Kennzahl benutzt werden. Das Branchenexposure ergibt sich dann aus der Summe der Nominalbeträge sämtlicher Forderungen, die gegenüber Unternehmen aus einer bestimmten Branche bestehen. Der Risikobeitrag eines Titels entspricht dem nominalen Forderungsvolumen. Eine Limitierung des Branchenexposures (Nominallimite30) begrenzt den Verlust, der im Worst-Case, also einem Totalausfall der jeweiligen Branche, entsteht. Alternativ dazu könnten sich die Limite auf den VaR beziehen, der sich aus den einzelnen Branchen ergibt (VaR-Limite). Dafür müsste allerdings zunächst der Branchen-VaR bestimmt werden. Ein mögliches Verfahren zur Bestimmung dieser Kennzahl ist die Bildung von SubPortfolios, in denen nur Titel aus einer Branche vertreten sind und für die der VaR jeweils separat simuliert wird. Bei dieser Methode wird allerdings eine perfekt positive Korrelation zwischen den Branchen unterstellt. Da Diversifikationseffekte völlig vernachlässigt werden, 26 Sparkasse Vest Recklinghausen Wissenschaftspreis 2009 führt dieses Verfahren zu einer sehr konservativen Bestimmung des Branchen-VaR. Der Risikobeitrag eines neuen Titels kann mit Hilfe des inkrementellen VaR bestimmt werden. Eine Limitierung des Branchen-VaR begrenzt nicht mehr den maximal möglichen Verlust, sondern die Wahrscheinlichkeit, mit der die Verluste den limitierten Wert übersteigen. Auch wenn VaR-Limite aus theoretischer Sicht überlegen erscheinen, besitzen Nominallimite in der Praxis weiterhin eine große Bedeutung, so dass sie auch im Rahmen dieser Arbeit berücksichtigt werden.31 Eine mögliche Erklärung dafür sind Modellrisiken, die bei der VaRBerechnung in einem Kreditportfolio-Modell entstehen. Die Aussagekraft eines solchen Modells ist somit immer von der Qualität der getroffenen Annahmen abhängig. Nominallimite sind unanfällig für Modellrisiken. Darüber hinaus können die Risikobeiträge von Neugeschäften ohne jeglichen Rechenaufwand exakt bestimmt werden. Aus der beschriebenen Branchenlimitierung ergeben sich einige allgemeine Probleme, die im Folgenden kurz erläutert werden. Zunächst führt eine Aggregation nach Branchen nicht zwangsläufig zu den oben geforderten Korrelationsstrukturen. Während zum einen die Ausfallkorrelationen innerhalb einzelner Branchen relativ niedrig ausfallen können,32 ist es zum anderen durchaus möglich, dass die Korrelationen zwischen zwei Branchen extrem hoch sind,33 so dass eine Aggregation nach Branchenzugehörigkeit zu einem gewissen Grad beliebig erscheint.34 Ein weiteres offenes Problem ist die Frage nach der optimalen Höhe der Limite. Zum Teil wird für Branchenlimite eine Orientierung am Eigenkapital gefordert.35 Dieser Ansatz erscheint jedoch nicht zweckmäßig, da die Kreditrisiken auf Einzelkreditnehmerbasis bereits mit Eigenkapital unterlegt werden.36 Eine Doppelunterlegung dieser Risiken würde zu einer suboptimalen Nutzung der knappen Ressource EK führt. Schließlich fehlt es zur Herleitung von Limits zurzeit an einer stringenten Theorie. Im Limitierungsprozess muss daher eine Entscheidung getroffen werden, die sich aus strategischen Überlegungen bzw. geschäftspolitischen Vorgaben ergibt.37 Diese Entscheidung wird durch das Fehlen eines allgemeingültigen Benchmark-Portfolios erschwert, anhand dessen die gegenwärtige Konzentrationsstruktur beurteilt werden könnte. Spezialinstitute übernehmen planmäßig Konzentrationsrisiken, so dass nicht grundsätzlich davon ausgegangen werden kann, dass eine hohe Diversifikation für jede Bank erstrebenswert ist.38 4. Collateralised Debt Obligations (CDOs) Bevor die Einbindung von CDOs in die oben beschriebenen Branchenlimite analysiert wird, soll zunächst die komplexe Struktur dieses Finanzinstrumentes erläutert werden. Im Zentrum von CDOs steht eine rechtlich selbstständige und insolvenzferne Zweckgesellschaft (SPV),39 die ein Portfolio aus festverzinslichen Schuldtiteln vom ursprünglichen Gläubiger der Forderungen (Originator) erwirbt und das Geschäft durch die Emission von Wertpapieren finanziert (Vgl. Abb. 1).40 Abb. 1.: Stark vereinfachte CDO-Struktur 27 Die Limitierung von Branchenexposures unter besonderer Berücksichtigung der Risikobeiträge aus Collateralized Debt Obligations Die Zahlungsansprüche der Effekten werden aus den Zins- und Tilgungszahlungen des Forderungspools bedient. Da dieser an das SPV verkauft wird, ist für die Investoren nur die Qualität der übertragenen Forderungen relevant, nicht die des Originators. Die einzelnen Titel werden von einem Service-Agenten verwaltet. Liegen dem Portfolio Kredite zu Grunde, übernimmt die als Originator fungierende Bank häufig zusätzlich diese Rolle. Begründet wird dies u.a. mit dem Aufrechterhalten der Kunde-Bank-Beziehung, da der Verkauf der Forderungen für die Kunden dann nicht offensichtlich wird.41 Der Service-Agent wird von einem Treuhänder überwacht, an den der Forderungspool sicherungsübereignet wird. Der Treuhänder reicht die eingehenden Zahlungen an die Investoren weiter und dient als Bindeglied zwischen ihnen, SPV und Service-Agenten.42 CDOs entsprechen in ihrer Struktur AssetBacked-Securities, deren Assetpool aus Krediten bzw. Anleihen besteht43 und denen sehr viel weniger Referenzschuldner zu Grunde liegen, als das bei ABS normalerweise der Fall ist.44 Nähert man diese stark vereinfachte Grundstruktur real existierenden CDOs an, ergibt sich eine Bandbreite von Gestaltungsmöglichkeiten, die im Folgenden skizziert werden. Im oben beschriebenen Basisfall wurde implizit eine Pass-Through-Struktur unterstellt. Sie zeichnet sich dadurch aus, dass die eingehenden Cashflows vom SPV bzw. vom Treuhänder sofort und unverändert an die Investoren weitergereicht werden. Die emittierten Wertpapiere verbriefen somit proportionale Ansprüche am Forderungspool und haben in Bezug auf die Zahlungsströme Beteiligungscharakter.45 In einer Pay-Through-Struktur werden die emittierten Wertpapiere tranchiert, wobei die jeweiligen Tranchen eine unterschiedliche Rangstellung in Bezug auf den zu Grunde liegenden Forderungspool innehaben (Subordination bzw. Wasserfallprinzip).46 Typischerweise unterscheidet man zwischen der ranghöchsten Senior-Tranche, einer darauf folgenden Mezzanine-Tranche und schließlich der rangniedrigsten Equity-Tranche (Vgl. Abb. 2). Abb. 2.: Pay-Through-CDO Die eingehenden Zins- und Tilgungszahlungen befriedigen nach dem Abzug von Gebühren zunächst die Ansprüche aus der Senior-Tranche. Erst wenn diese erfüllt sind, werden mit dem restlichen Cashflow die Forderungen aus der Mezzanine-Tranche bedient. Die danach noch verbleibenden Mittel fließen der Equity-Tranche zu. Letztere wird von Zahlungsausfällen zuerst getroffen und heißt daher auch First Loss Piece (FLP). Erst wenn die kumulierten Ausfälle größer werden als die Ansprüche aus der Equity-Tranche, belasten sie die Mezzanine-Tranche.47 Das Credit Enhancement (CE) einer Tranche quantifiziert die Höhe der Verluste, die der CDO verkraften kann, ohne dass die Zahlungsansprüche der jeweiligen Investoren davon betroffen werden. Im obigen Fall ergibt sich das CE ausschließlich aus der Subordination, d.h. den kumulierten Nominalwerten aller rangniedrigeren Tranchen. Es kann jedoch durch zusätzliche Sicherheitsmechanismen erhöht werden. Die Tranchierung führt trotz einer Besicherung durch das gleiche Portfolio zu einem unterschiedlichen Risi- 28 Sparkasse Vest Recklinghausen Wissenschaftspreis 2009 koprofil der einzelnen Tranchen.48 Diese werden daher für Investoren mit sehr heterogenen Präferenzen attraktiv.49 Bisher wurde davon ausgegangen, dass die Forderungen vom Originator an das SPV verkauft werden. Dieses Vorgehen kennzeichnet eine True-Sale-Transaktion.50 Dabei werden die Zins- und Tilgungszahlungen aus dem Forderungspool an die Investoren weitergeleitet. In synthetischen CDOs verbleiben die Forderungen beim Originator, lediglich das Risiko wird mit Hilfe von Kreditderivaten übertragen. In den meisten Transaktionen werden dafür Credit Default Swaps (CDS) eingesetzt. Dabei zahlt der Originator eine periodische Prämie an das SPV um sich gegen das Auftreten von Kreditereignissen abzusichern.51 Das SPV emittiert dann Anleihen, deren Tilgung um die ausgefallenen Referenztitel reduziert wird. Die Emissionserlöse werden in ein Portfolio aus sicheren Titeln, wie z.B. Staatsanleihen, investiert (Fully Funded).52 Die Zahlungen an die Investoren setzen sich aus den Prämienzahlungen für die CDS und den Zinszahlungen aus der sicheren Anlage zusammen. Kommt es zu einem Ausfall, wird der entsprechende CDS fällig und das SPV entschädigt den Originator in Höhe des realisierten Verlustes aus der gehaltenen sicheren Anlage. Im selben Moment werden die emittierten Wertpapiere in Höhe dieser Ausgleichszahlung abgeschrieben. Hier besteht ein für die spätere Analyse wichtiger Unterschied zu True-Sale-Transaktionen. Dort lösen Kreditausfälle zunächst keine Zahlungen aus. Nach einem Default verringern sich lediglich die in den Folgeperioden verfügbaren Zinseinnahmen. Reicht der Cashflow in einer Periode nicht aus, um die Zahlungsansprüche der Investoren vollständig zu bedienen, werden sie auf die nächste Periode verschoben.53 Am Ende der Laufzeit werden die eingehenden Zinsund Tilgungszahlungen unter Beachtung des Wasserfalls zur Befriedigung aller aktuellen sowie der aus früheren Perioden aufgeschobenen Ansprüche eingesetzt. Eine Aussage über das Ausmaß, in dem die kumulierten, über die gesamte Laufzeit aufgetretenen Verluste die Tilgung der jeweiligen Tranchen belasten, ist also erst in der letzten Periode möglich.54 Das Risiko, dem die Investoren eines CDOs ausgesetzt sind, ergibt sich hauptsächlich aus dem Kreditrisiko der Schuldtitel.55 Wird der allgemeine Risikobeitrag des CDOs im Rahmen von Nominallimits anhand des EAD beurteilt, so entspricht er dem Tranchen-Volumen als maximal möglichem Verlust. Soll das Risiko jedoch durch den VaR ausgedrückt werden, muss zunächst die tranchenspezifische Verlustverteilung konstruiert werden. Jede Tranche wird vollständig durch zwei Punkte der Portfolio-Verlustverteilung beschrieben: Den Attachment-Punkt (AP), ab dem die insgesamt realisierten Ausfälle auf die Tranche durchschlagen, und den Detachment-Punkt (DP), an dem sie vollständig ausfällt, so dass die in der Subordination folgende ranghöhere Tranche die weiteren Verluste trägt.56 Deren AP ist also identisch mit dem DP der direkt angrenzenden rangniedrigeren Tranche. Das Volumen einer Tranche (w) ergibt sich aus der Differenz zwischen dem tranchenindividuellen DP und AP. Sei Lt der Portfolioverlust in t, so ergibt sich der Verlust in Tranche j aus:57 Unter Anwendung von (4) können die simulierten Portfolio-Verluste direkt in Verluste der einzelnen Tranchen überführt werden. Sobald die realisierten Ausfälle den AP erreichen, steigt der Verlust der Tranche so lange als lineare Funktion der Portfolio-Ausfälle, bis die gesamte Tranche ausgefallen ist. Ausfallraten oberhalb des DP haben keine Auswirkungen auf j. Die Wahrscheinlichkeit der einzelnen Verluste ergibt sich aus der Dichtefunktion der Portfolio-Verlustverteilung, wobei sich auf dem Punkt des Totalausfalls die Wahrscheinlichkeitsmasse für alle Szenarien konzentriert, in denen der DP überschritten wird. Die bespro29 Die Limitierung von Branchenexposures unter besonderer Berücksichtigung der Risikobeiträge aus Collateralized Debt Obligations chene Tranchierung führt zu einer nicht-proportionalen Aufteilung des Risikos auf die drei Investoren-Gruppen (Vgl. Abb. 3).58 Abb. 3 Aufteilung des Portfolio-Risikos auf die CDO-Tranchen Dem FLP kommt insofern eine besondere Bedeutung zu, als der erwartete Verlust des Portfolios von der Equity-Tranche abgedeckt wird.59 Investoren in die Mezzanine-Tranche realisieren also nur Verluste, wenn der Pool sich schlechter als erwartet entwickelt. Auf die Senior-Tranche schlagen schließlich nur Verlustrealisationen am rechten Ende der PortfolioVerlustverteilung durch, die nur mit einer äußerst geringen Wahrscheinlichkeit auftreten. Da die einzelnen Tranchen in verschiedenen Intervallen der Verlustverteilung von Ausfällen betroffen werden, reagieren sie auch unterschiedlich auf eine Veränderung der zu Grunde liegenden Parameter. Während das Risiko aller Tranchen mit wachsender PD steigt, sorgt eine Veränderung der Korrelation für unterschiedliche Effekte.60 Senior-Investoren werden nur von Ausfällen am oberen Ende der Verlustverteilung getroffen. Bei niedriger Korrelation verringert sich also ihr Risiko, da in diesem Fall Wahrscheinlichkeitsmasse von den Enden hin zum Erwartungswert der Verteilung verschoben wird. Für das FLP ist jedoch eine hohe Korrelation vorteilhaft, da sie zu „fat tails“ führt, also einer höheren Wahrscheinlichkeit für extreme Ereignisse. Die Verluste der Equity-Investoren sind auch bei sehr hohen Ausfällen auf das Tranchen-Volumen beschränkt. Sie sind daher, anders als die Senior-Investoren, dem gewachsenen Risiko für extreme Verluste nicht ausgesetzt, profitieren jedoch unmittelbar von der gestiegenen Wahrscheinlichkeit für besonders geringe Ausfallraten. Auf die Mezzanine-Tranche wirken beide Effekte, so dass eine generelle Aussage zum Zusammenhang zwischen Korrelation und Risiko für sie nicht möglich ist. Darüber hinaus verändert die mit der Tranchierung einhergehende Umstrukturierung des Risikos auch die Sensitivität der einzelnen Tranchen auf den systematischen Risikofaktor.61 Es lässt sich zeigen, dass das FLP sehr viel sensitiver auf Ausprägungen des Hintergrundfaktors reagiert als das dem CDO zu Grunde liegende Portfolio. Da die Equity-Tranche von jedem auftretenden Ausfall sofort betroffen wird, können selbst relativ gute Szenarien mit geringen Ausfällen hier noch zu großen Verlusten führen. Die Equity-Investoren sind dem systematischen Risiko somit in viel höherem Maße ausgesetzt als sie es in einer PassThrough-Struktur wären. Eine gegenteilige Aussage gilt für die Senior-Tranche, die sich 30 Sparkasse Vest Recklinghausen Wissenschaftspreis 2009 durch eine äußerst geringe Sensitivität auszeichnet. Sie ist selbst in relativ schlechten Szenarien noch durch ihr CE geschützt und hat keine oder nur sehr geringe Verluste zu tragen. Als direkte Folge der Subordination verändern sich daher sowohl die Bedeutung als auch der Erklärungsgehalt des Branchenrisikos als systematischem Faktor für das Risiko, dem die Investoren in ihren jeweiligen Tranchen ausgesetzt sind. 5. Analyse des branchenspezifischen Risikos in CDOs Als Ausgangspunkt für die Analyse des Branchenrisikos in CDOs und seiner Einbindung in Nominal- bzw. VaR-Limite soll ein Fall konstruiert werden, in dem eindeutige Aussagen einfach abgeleitet werden können. Dabei handelt es sich um eine Pass-Through-Struktur, an der die Investoren gleichrangige Anteile halten.62 In diesem CDO gibt es drei verschiedene Branchen, aus denen sich das Referenzportfolio gleichmäßig zusammensetzt. Für die einzelnen Titel wird eine Faktorsensitivtät von 100 % unterstellt, so dass es für jede Branche nur zwei mögliche Zustände gibt: Entweder fällt kein einziger Titel in der betrachteten Branche aus, oder es kommt zum Totalausfall. Des Weiteren existieren drei Investoren, die jeweils ein Drittel des CDO-Volumens gekauft haben. Alle Zahlungsströme aus dem Forderungspool werden vom SPV gleichmäßig auf die drei Investoren verteilt. Sie erhalten also ein Drittel aller eingehenden Zahlungen und tragen ein Drittel aller auftretenden Verluste. Ihr Investment gleicht dem direkten Erwerb eines Portfolios, das in seiner Struktur dem CDO-Portfolio entspricht.63 Wird das Risiko mit Nominallimiten begrenzt, muss das Branchen- exposure im Worst-Case, also einem Totalausfall der jeweiligen Branche, bestimmt werden. In einem solchen Szenario hat jeder Investor Verluste in Höhe eines Drittels des Branchenvolumens zu tragen, so dass dieser Wert als Risikobeitrag auf das nominale Branchenlimit angerechnet wird. Im Rahmen von VaR-Limiten ergibt sich das Branchenrisiko des jeweiligen Investors aus dem Anteil am Branchen-VaR, der seinem Anteil am Gesamtvolumen der Struktur entspricht. Im betrachteten Fall würde also ein Risikobeitrag in Höhe von einem Drittel des jeweiligen Branchen-VaR auf das VaR-Limit angerechnet werden. Die Analyse des Branchenrisikos in einem Pay-Through-CDO basiert auf der Struktur in Abb. 4. Das Branchenexposure in den einzelnen Tranchen könnte nun wie im Fall des Pass-Through-CDOs entsprechend des Tranchenvolumens und der Branchenstruktur des Referenzportfolios berechnet werden. Abb. 4: Pay-Through-CDO mit drei Branchen Für den Mezzanine-Investor ergäbe sich so z.B. ein Exposure von 50 GE gegenüber Branche A. Tatsächlich existieren für ihn aber in Abhängigkeit vom zeitlichen Anfall der Ausfälle vier verschiedene potentielle Exposures. Angenommen, A fällt als erste Branche aus, dann werden 50 GE vom FLP absorbiert und der Mezzanine-Investor trägt die restlichen 100 GE. Fällt A hingegen erst nach B und C aus, wird die Mezzanine-Tranche von den daraus 31 Die Limitierung von Branchenexposures unter besonderer Berücksichtigung der Risikobeiträge aus Collateralized Debt Obligations resultierenden Verlusten nicht mehr berührt, da sie bereits komplett abgeschrieben wurde, so dass auch kein Exposure mehr besteht. Da Nominallimite die Verluste begrenzen sollen, die im Worst-Case in einer Branche realisiert werden, muss zur Bestimmung des Risikobeitrages der Ausfallpfad zu Grunde gelegt werden, der zum größtmöglichen Verlust aus der jeweiligen Branche und damit zum Worst-Case-Exposure führt. Dies ist der Fall, wenn die betrachtete Branche ausfällt nachdem ein evtl. vorhandenes CE vollständig aufgezehrt wurde, so dass die Verluste komplett auf die investierte Tranche durchschlagen. Eine Investition von 100 GE in die Mezzanine-Tranche würde im Beispiel zu einer Auslastung der Nominallimite in Höhe von insgesamt 250 GE führen. Diese Zahl ergibt sich aus der Addition der maximal möglichen Verluste aus jeder Branche. Hierbei entsteht das Problem, dass sich die jeweils angerechneten Branchen-Exposures gegenseitig ausschließen, da sie sich aus verschiedenen Ausfallpfaden ergeben, von denen nur einer eintreten kann. Steuert die Bank ihre Konzentrationsrisiken mit VaR-Limiten, müssen die jeweiligen Branchen-VaR bestimmt werden. Dafür muss jeder mögliche Ausfallpfad sowie der damit verbundene brancheninduzierte Tranchen-Verlust berücksichtigt werden. Die Verluste aus der jeweils betrachteten Branche in der investierten Tranche, die sich aus jedem dieser Szenarien ergeben, können dann aufsteigend sortiert werden, so dass sich der gesuchte tranchenindividuelle Branchen-VaR ablesen und als Risikobeitrag auf das VaR-Limit anrechnen lässt. Das setzt jedoch voraus, dass alle Pfade die gleiche Eintrittswahrscheinlichkeit besitzen, wobei zumindest unklar ist, warum dies der Fall sein sollte. Eine Zuordnung von Wahrscheinlichkeiten zu den einzelnen Szenarien ist aber problematisch, da keine Daten zur zeitlichen Struktur der Ausfälle vorliegen. Das Rating für einen Bewertungshorizont trifft nur eine Aussage dazu, mit welcher Wahrscheinlichkeit es zum Ausfall kommt, nicht ob dieser am Anfang oder Ende des Betrachtungszeitraumes liegt. Darüber hinaus besteht das gleiche Problem wie für Nominallimite. Die Ausfallpfade, die zu den jeweiligen BranchenVaR führen, schließen sich gegenseitig aus. Die Annahme eines homogenen Ausfallverhaltens innerhalb der Branchen wird nun aufgehoben. Die einzelnen Forderungen weisen also fortan neben dem systematischen auch ein idiosynkratisches Risiko auf. Für Nominallimite bleibt es bei den oben hergeleiteten Risikobeiträgen, da sich das Branchenexposure im Worst-Case nicht verändert hat. Das Szenario, in dem kein Kredit aus einer Branche ausfällt, bevor das vorhandene CE der investierten Tranche aufgebraucht ist, es danach jedoch zu einem Totalausfall der betrachteten Branche kommt, ist zwar äußerst unwahrscheinlich. Dennoch beschreibt es in Bezug auf die betrachtete Branche weiterhin den Worst-Case und ein Nominallimit zeichnet sich gerade dadurch aus, dass es Wahrscheinlichkeiten nicht berücksichtigt. Bei der Berechnung der Branchen-VaRs bleibt das Problem bestehen, dass die möglichen brancheninduzierten Verluste in der jeweiligen Tranche wie oben geschildert von der zeitlichen Reihenfolge der Ausfälle und damit von den jeweiligen Ausfallpfaden abhängen, denen Wahrscheinlichkeiten zugeordnet werden müssen. Die Anzahl der Ausfallpfade ergibt sich jetzt jedoch nicht mehr aus den Branchen, sondern aus der Anzahl der Referenztitel und wird daher schnell unhandlich groß. Selbst eine Monte-Carlo-Simulation der Portfolioverluste führt hier nicht weiter, da sie lediglich angibt, wie viele Kredite insgesamt bis zum Betrachtungshorizont ausfallen, nicht aber deren Ausfallreihenfolge. Es bleibt bei dem Problem, die simulierten Ausfälle zeitlich zu sortieren. 32 Sparkasse Vest Recklinghausen Wissenschaftspreis 2009 In den bisher analysierten synthetischen CDOs führen Ausfälle in dem Moment ihres Auftretens zu Zahlungen und daraus resultierenden Abschreibungen in den betroffenen Tranchen. Daher besteht die Möglichkeit, bei Kenntnis der zeitlichen Reihenfolge der Ausfälle die Tranchenverluste ursächlich auf einzelne Ausfälle und damit auch auf Branchen zurückzuführen. In einer True-Sale-Transaktion liegt der Fall anders. Obwohl die Ausfälle nicht gleichzeitig anfallen, werden sie dennoch erst in der letzten Periode in ihrer Gesamtheit schlagend. Es kann daher lediglich eine Aussage dazu getroffen werden, ob eine Tranche von den kumulierten Ausfällen getroffen wurde und welche Branchenstruktur Letztere aufweisen. Eine verursachungsgerechte Schlüsselung der realisierten Tranchen-Verluste auf die einzelnen Branchen, aus denen sich die kumulierten Ausfälle zusammensetzen, ist jedoch nicht möglich, da diese nur in ihrer Gesamtheit zu dem jeweiligen Verlust führen. Daher ist auch die Bestimmung des Branchenexposures bzw. des Branchen-VaR wieder nur auf Basis heuristischer Annahmen möglich. Eine solche Heuristik ist z.B. die anteilige Schlüsselung der Tranchenverluste auf die einzelnen Branchen entsprechend deren Anteil am Gesamtverlust. 6. Lösungsansätze zu ausgewählten Problemen Es wurde gezeigt, dass in synthetischen CDOs die zeitliche Reihenfolge der simulierten Portfolioverluste entscheidend für die Bestimmung der Risikobeiträge in VaR-Limiten ist. Dazu trifft die Simulation allerdings keine Aussage. Es wird lediglich angegeben, ob ein Titel in der betrachteten Periode ausfällt, nicht jedoch wann dies geschieht. Selbst wenn statt der Totalperiode kürzere Perioden simuliert würden, ergäben sich dadurch neue Probleme. Zunächst potenziert sich die Zahl der nötigen Simulationen für eine gewünschte Genauigkeit mit der Zahl der Betrachtungszeitpunkte.64 Außerdem müssten Annahmen über die zeitliche Entwicklung der Branchenfaktoren, gegeben deren Ausprägung im ersten Simulationsgang, getroffen werden.65 Auf Grund dieser Probleme scheint es legitim, sich für die zeitliche Sortierung der simulierten Verluste einer Heuristik zu bedienen. Hierfür wird erneut auf das in Kapitel 2 vorgestellte Asset-Value-Modell zurückgegriffen. Im Rahmen dieses Modells fällt ein Titel aus, wenn der Unternehmenswert den DefP unterschreitet. In jedem Simulationsgang werden die Unternehmenswertänderungen aller Titel berechnet und mit dieser kritischen Grenze verglichen. Daher kann eine exakte Aussage dazu getroffen werden, in welcher Höhe der jeweilige DefP unterschritten wurde. Die Heuristik würde nun annehmen, dass die Unternehmen, die ihre kritische Grenze am deutlichsten unterschreiten, auch am ehesten ausfallen.66 Sie unterstellt daher, dass die Realisation von besonders schlechten Renditen zu einem frühen Ausfall führt. Unternehmen, die ihren DefP hingegen nur knapp unterschreiten, können sich annahmegemäß länger halten, bevor es schließlich zum Ausfall kommt. Diese Heuristik ermöglicht eine einfache Konstruktion der Verlustreihenfolge. In der Monte-Carlo-Simulation werden die Kreditportfolio-Verluste unter Beachtung aller existierender Korrelationen sowie unterschiedlicher PDs und EADs simuliert. Anschließend werden die ausgefallenen Titel nach der Differenz zwischen kritischer und simulierter Rendite aufsteigend sortiert. Zusätzlich zum Volumen des ausgefallenen Titels werden für jede Position auch die kumulierten Ausfälle angegeben. Sind die einzelnen Kreditnehmer nun eindeutig Branchen zugeordnet, können mit Hilfe der in Kap. 4 erläuterten tranchenindividuellen AP und DP die Ausfälle identifiziert werden, die zu Verlusten in der gehaltenen Tranche führen. Die Branchenstruktur der separierten Ausfälle muss dann in jedem Simulationsgang nur noch abgelesen werden. Nach einer hohen Anzahl von Simulationen kann für jede Branche eine Verlustverteilung konstruiert werden, die nur diejenigen 33 Ausfälle berücksichtigt, die tatsächlich Verluste in der gehaltenen Tranche verursacht haben. Daraus lässt sich der tranchenindividuelle Branchen-VaR ablesen, der als Risikobeitrag auf das VaR-Limit angerechnet wird. Dennoch ist auch diese Zurechnung in gewisser Weise beliebig.67 In einem gegebenen Simulationsgang würden lediglich die Ausfälle registriert, die auftreten, nachdem das CE der investierten Tranche aufgezehrt wurde. Diese Verminderung des Sicherheitspolsters wurde jedoch von den früher aufgetretenen Ausfällen verursacht. Hätte es diese nicht gegeben, würden die registrierten Ausfälle auch nicht zu Verlusten führen, sondern lediglich das dann noch vorhandene CE reduzieren. Die mit Hilfe der Heuristik separierten Forderungen haben durch ihren Ausfall zwar die Verluste in der gehaltenen Tranche verursacht, allerdings nur unter der Bedingung, dass alle vorherigen Ausfälle bereits aufgetreten sind. Es besteht also Pfadabhängigkeit. Daher stellt sich die Frage, ob die Verluste der Investoren ausschließlich den Titeln zugeordnet werden können, die sie haben schlagend werden lassen, oder ob nicht auch die Titel berücksichtigt werden müssen, die ein Auftreten von Verlusten durch das Aufbrauchen des CE überhaupt erst ermöglicht haben. Tatsächlich werden die Verluste auf Grund des Zusammenspiels von zwei Faktoren verursacht: Zum einen wird das CE aufgebraucht und zum anderen finden danach noch weitere Ausfälle statt. Relevant sind also in jedem Simulationsgang der Gesamtverlust und daher auch alle Ausfälle, aus denen sich dieser zusammensetzt. Eine Differenzierung zwischen Ausfällen, die die investierte Tranche treffen, und solchen, die „lediglich“ das CE aufzehren, führt zu einer verzerrten Risikoerfassung. Die bereits angesprochene anteilige Zurechnung des Tranchenverlustes auf die einzelnen Branchen entsprechend deren Anteil am Gesamtausfall ist eine intuitive Heuristik die alle relevanten Verluste berücksichtigt und so zu einem vollständigeren Risikoausweis führt. Schließlich soll das Problem der gegenseitigen Ausschließlichkeit der Anrechnungsbeträge in den Branchenlimits betrachtet werden. Eine Anrechnung des Branchenrisikos aus tranchierten CDOs auf vorhandene Branchenlimite, sei es im Rahmen von Nominal- oder von VaR-Limiten, führt grundsätzlich zu dem Problem, dass die angegebenen Risikobeiträge in ihrer Gesamtheit das Investitionsvolumen um ein Vielfaches übersteigen können. Im Kreditportfolio einer Bank kann es tatsächlich dazu kommen, dass im Rahmen eines Totalausfalls Verluste in Höhe der addierten nominalen Branchenlimite realisiert werden. Diese Möglichkeit besteht im Falle des CDOs jedoch nicht einmal theoretisch, da die Verluste immer auf das Investment begrenzt sind. Die Verknüpfung realer Risikobeiträge aus dem direkt gehaltenen Kreditportfolio mit den sich gegenseitig ausschließenden Beträgen aus dem CDO in den jeweiligen Branchenlimits verringert daher die Aussagekraft des gesamten Limitsystems. Anstatt zu einem genaueren Risikoausweis zu führen, verschlechtert die Einbindung von CDOs in Branchenlimite deren Qualität. Dieses Problem lässt sich dadurch erklären, dass das Risiko in einem Pay-Through-CDO nicht nur auf mehrere Investoren verteilt, sondern auch völlig neu strukturiert wird. Für die Investoren in besicherte Tranchen ist im Gegensatz zu Banken, die ein Kreditportfolio direkt halten, nicht mehr interessant, ob ein bestimmter Titel ausfällt und welchen Risikodimensionen er zugeordnet werden kann, da der Ausfall sie evtl. überhaupt nicht betrifft. Für sie ist vielmehr entscheidend, ob die über die Laufzeit auftretenden Gesamtausfälle, unabhängig davon, wie sie sich zusammensetzen, so groß sind, dass sie das CE ihrer Tranche aufzehren und damit zu Verlusten führen. Im Gegensatz zu einem Direktinvestment bzw. einem PassThrough-CDO partizipieren die Investoren in einer Pay-Through-Struktur nur unter bestimmten Bedingungen und nur bis zu einer bestimmten Höhe an Verlusten, so dass keine Aussagen zu definitiven Branchenexposures bzw. Branchen-VaR gemacht werden können. 34 Während es in einem direkt gehaltenen Kreditportfolio also definitive Branchenexposures gibt, aus denen potentielle Verluste resultieren, sind in Pay-Through-CDOs die Branchenexposures selbst nur potentiell und abhängig von den Ausfallpfaden. Das Risiko aus einer Structured-Finance-Transaktion kann ex-post nicht mehr einzig aus dem Risiko der einzelnen Bestandteile erklärt werden. Wird eine solche Zerlegung dennoch vorgenommen, wie das bei einer Rückführung des Risikos der einzelnen CDO-Tranchen auf die im Forderungspool vertretenen Branchen der Fall ist, kommt es, wie oben gezeigt, zu fragwürdigen oder widersprüchlichen Aussagen, die das tatsächliche Risiko des Investments nur ungenügend beschreiben. Eine mögliche Lösung dieses Problems könnte in der Definition von CDOs als eigenständige Branche liegen. Dies erscheint insbesondere mit Blick auf die Motivation von Branchenlimiten sinnvoll. Mit ihrer Hilfe sollen Konzentrationsrisiken im Portfolio vermieden werden. Einem CDO liegt allerdings in der Regel bereits ein nach Branchen diversifizierter Forderungspool zu Grunde.68 Des Weiteren führt die Strukturierung des Produktes zu einer sehr geringen Ausfallkorrelation zwischen einer Branche und einer besicherten CDO-Tranche, in deren Referenzpool die Branche vorhanden ist. Die Erfassung von CDOs als eigene Branche ergibt sich daher auch aus den in Kap. 3 für die Segmente geforderten Korrelationsstrukturen. Schließlich umgeht eine separate Limitierung von CDOs ein grundsätzliches Dilemma, dem sich die Einbindung dieser Instrumente in Branchenlimite gegenübersieht. In Kap. 4 wurde erläutert, dass die Equity-Tranche extrem sensitiv auf das Branchenrisiko als systematischen Risikofaktor reagiert, so dass dieser Wert einen hohen Erklärungsgehalt für das Tranchenrisiko besitzt. Allerdings würde eine Branchenlimitierung das Risiko aus dem FLP erhöhen, da die dadurch erzwungene Diversifikation zu geringeren Korrelationen führt, die für das FLP ungünstig sind. Für die Equity-Investoren wäre also eine Limitierung der Diversifikation erstrebenswert. Senior-Investoren profitieren hingegen in besonderem Maße von einer starken Diversifikation, so dass die Branchenlimitierung ihr Risiko tatsächlich begrenzt. Allerdings weisen die Verluste der Senior-Tranche nur in verschwindend geringem Maße eine Sensitivität gegenüber dem systematischen Risiko auf. Mit dem Branchenrisiko wird also eine Dimension limitiert, die bzgl. des Risikoprofils der Senior-Tranche kaum aussagekräftig ist. 7. Zusammenfassung Bei der Analyse des branchenspezifischen Risikos in CDOs ergeben sich zunächst zwei wesentliche Probleme. Zum einen muss die zeitliche Reihenfolge der Ausfälle bekannt sein, um Verluste in der investierten Tranche ursächlich auf die Ausfälle in bestimmten Branchen zurückführen zu können. Zum anderen schließen sich die jeweiligen branchenindividuellen Risikobeiträge gegenseitig aus. Es wurde jedoch gezeigt, dass letztlich alleine die Branchenstruktur der Gesamtausfälle für das Branchenrisiko der einzelnen Tranchen relevant ist, was die Konstruktion der zeitlichen Reihenfolge obsolet macht. Das Problem der gegenseitigen Ausschließlichkeit der Risikobeiträge lässt sich durch die Definition von CDOs als eigener Branche im Limitsystem lösen. Auf diesem Weg ist eine konsistente Einbindung der Risiken aus CDOs in die Branchenrisikosteuerung der Bank möglich. 35 Literaturverzeichnis Bär, H. (1997): Asset Securitisation: Die Verbriefung von Finanzaktiven als innovative Finanzierungstechnik und neue Herausforderung für Banken, Paul Haupt, Bern und andere Orte. Chen, N.-F.; Roll, R.; Ross, S. (1986): Economic Forces and the Stock Market, in: Journal of Business, 59. Jg, Nr. 3, S. 383 - 403. BCBS (1999): Credit Risk Modelling: Current Practices and Applications, April 1999. Connor, G. (1995): The Three Types of Factor Models: A Comparison of Their Explanatory Power, in: Financial Analysts Journal, 51. Jg., Heft 3, S. 42 - 46. BCBS (2006a): International Convergence of Capital Measurement and Capital Standards: A Revised Framework, Comprehensive Version, Juni 2006. Crouhy, M.; Galai, D.; Mark, R. (2000): A comparative analysis of current credit risk models, in: Journal of Banking and Finance, 24. Jg., Nr. 1 - 2, S. 59 - 117. BCBS (2006b): Studies on credit risk concentration: An overview of the issues and a synopsis of the results from the research task force project, BCBS Working Paper Nr. 15, November 2006. Deutsch, H.-P. (2004): Derivate und Interne Modelle, 3. überarbeitete und erweiterte Auflage, SchäfferPoeschel, Stuttgart. Bellmann, S. (2002): Asset Backed Securities und ihr Einsatz im Risikomanagement: Lösungsvorschläge zur Diversifizierung der Kreditrisiken auf der Grundlage des Einsatzes von Asset Backed Securities als Anlageinstrument unter besonderer Berücksichtigung der Mortgage Backed Securities, Shaker, Aachen. Benner, W. (1988): Asset Backed Securities: Eine Finanzinnovation mit Wachstumschancen?, in: Betriebswirtschaftliche Forschung und Praxis, 40. Jg., Nr. 5, S. 403 - 417. Bluhm, C. (2003): CDO Modeling: Techniques, Examples and Applications, Working Paper, 10. Dezember 2003. Bluhm, C.; Overbeck, L.; Wagner, C. (2003): An Introduction to Credit Risk Modeling, Chapman & Hall/ CRC, Boca Raton und andere Orte. Braun, H. (2005): Klassifizierung von AssetBacked-Securities, in: J. Gruber/ W. Gruber/ H. Braun (Hrsg.): Praktiker-Handbuch Asset-Backed-Securities und Kreditderivate: Strukturen, Preisbildung, Anwendungsmöglichkeiten, aufsichtliche Behandlung, Schäffer-Poeschel, Stuttgart, S. 61-75. Düllmann, K.; Masschelein, N. (2006): Sector Concentration in Loan Portfolios and Economic Capital, National Bank of Belgium Working Paper Research Nr. 105, November 2006. Duffie, D.; Gârleanu, N. (2001): Risk and Valuation of Collateralised Debt Obligations, in: Financial Analysts Journal, 57. Jg., Nr. 1, S. 41 - 59. Elizalde, A. (2006b): Credit Risk Models IV: Understanding and Pricing CDOs, CEMFI Working Paper Nr. 0608, April 2006. Experteninterview I: Gespräch geführt am 6. November 2007 mit Dr. Frank Altrock (Leiter RisikoControlling Adressenausfallrisiko /OpRisk, Deutsche Apotheker- und Ärztebank) und Christian Tegelkamp (Risiko-Controlling Adressenausfallrisiko /OpRisk, Deutsche Apotherker- und Ärztebank). Experteninterview II: Gespräch geführt am 9. November 2007 mit Thomas Stausberg (Leiter Adressenausfallrisiko & Kreditportfoliosteuerung im Bereich Risikomanagement der NRW.Bank, Düsseldorf). Fender, I.; Kiff, J. (2004): CDO rating methodology: Some thoughts on model risk and its implications, Bank for International Settlements Working Paper Nr. 163, November 2004. Büschgen, H. (1998): Bankbetriebslehre: Bankgeschäfte und Bankmanagement, 5. vollständig überarbeitete und erweiterte Auflage, Gabler, Wiesbaden. Firla-Cuchra, M.; Jenkinson, T. (2006): Why are Securitization Issues Tranched?, Working Paper, Januar 2006 Bund, S. (2000): Asset Securitisation: Anwendbarkeit und Einsatzmöglichkeiten in deutschen Universalkreditinstituten, Fritz Knapp, Frankfurt a.M. Fitch (2004): Default Correlation and Its Effect on Portfolios of Credit Risk, Credit Products: Special Report, 17. Februar 2004. Bundesbank (2004): Monatsbericht, April 2004. Bundesbank (2006): Monatsbericht, Juni 2006. Burghoff, H.-P.; Henke, S.; Rudolph, B. (1998): Kreditderivate als Instrumente eines aktiven Kreditrisiko-managements, in: Zeitschrift für Bankrecht und Bankwirtschaft, 10. Jg, Nr. 5, S. 277 - 356. 36 Fitch (2006a): Global Rating Criteria for Collateralised Debt Obligations, Credit Products: Criteria Report, 04. Oktober 2006. Gibson, M. (2004): Understanding the Risk of Synthetic CDOs, Working Paper, Juli 2004. Goodman, L. (2001): Synthetic CDOs, in: F. Fabozzi/ L. Goodman (Hrsg.): Investing in Collateralized Debt Obligations, John Wiley & Sons, New York, S. 141 155. Gupton, G.; Finger, C.; Bhatia, M. (1997): CreditMetrics™: Technical Document, 02. April 1997. Heidorn, T; König, L (2003): Investitionen in Collateralized Debt Obligations, HFB Working Paper Nr. 44, Mai 2003. Heitfield, E.; Burton, S.; Chomsisengphet, S.: The Effects of Name and Sector Concentrations on the Distribution of Losses for Portfolios of Large Wholesale Credit Exposures (Entwurf), Gemeinsamer Workshop “Concentration Risk in Credit Portfolios” der Deutschen Bundesbank und des BCBS, 18. - 19. November 2005 in Frankfurt/Eltville. Holton, G. (2003): Value-At-Risk: Theory and Practice, Academic Press, Amsterdam und andere Orte. IACPM (2005): Sound Practices in Credit Portfolio Management, November 2005. Iscoe, I.; Kreinin, A. (2007): Valuation of synthetic CDOs, in: Journal of Banking and Finance, 31. Jg., Nr. 11, S. 3.357 - 3.376. Jorion, P. (2001): Value at Risk: The New Benchmark for Managing Financial Risk, 2. Auflage, McGraw-Hill, New York und andere Orte. Papadopoulos, P.; Tan, C. (2007): Credit Risk Analysis of Casfhlow CDO Structures, Working paper, 31. Juli 2007. Paul, S. (1994): Bankenintermediation und Verbriefung: Neue Chancen und Risiken für Kreditinstitute durch Asset Backed Securities?, Gabler, Wiesbaden. Picone, D. (2002): Collateralised Debt Obligations, Working Paper, September 2002. Rudolph, B.; Scholz, J. (2007): Pooling und Tranching im Rahmen von ABS-Transaktionen, in: BankArchiv, 55. Jg., Nr. 7, S. 538 - 548. Schierenbeck, H. (2001): Ertragsorientiertes Bankmanagement, Band 2: Risiko-Controlling und integrierte Rendite-/Risikosteuerung, 7. vollständig überarbeitete und erweiterte Auflage, Gabler, Wiesbaden. Schorin, C.; Weinreich, S. (2001): Introduction to Collateralized Debt Obligations, in: F. Fabozzi/ L. Goodman (Hrsg.): Investing in Collateralized Debt Obligations, John Wiley & Sons, New York, S. 1 - 31. Sidki, M. (2007): Die Verbriefung von Finanzaktiva: Asset Securitisation und weitere Methoden zum Transfer von Bankenrisiken, VDM Verlag Dr. Müller, Saarbrücken. Szegö, G. (2002): Measures of risk, in: Journal of Banking and Finance, 26 Jg., Nr. 7, S. 1.253 - 1.272. Krahnen, J.; Wilde, C. (2006): Risk Transfer with CDOs and Systemic Risk in Banking, Working Paper, 05. Juni 2006. Taylor, J. (2002): A Unified Approach to Credit Limit Setting, in: The RMA Journal, Band 84, Nr. 10, S. 56 - 61. Lando, D. (2004): Credit Risk Modeling: Theory and Applications, Princeton University Press, Princeton und Oxford. Varnholt, B. (1997): Modernes Kreditrisikomanagement, Verlag Neue Zürcher Zeitung, Zürich. Merrill Lynch (2005): Global Cash Flow CDOs and Their Assets, Structured Credit Research, 09. Februar 2005. Merton, R. (1974): On the pricing of corporate debt: The risk structure of interest rates, in: The Journal of Finance, 29. Jg., Nr. 2, S. 449 - 470. Mitchell, J. (2005): Financial Intermediation Theory and Implications for the Sources of Value in Structured Finance Markets, National Bank of Belgium Working Paper Nr. 71, Juli 2005. Nomura (2004): CDOs in plain English: A summer intern’s letter home, Fixed Income Research, 13. September 2004. Ong, M. (1999): Internal Credit Risk Models: Capital Allocation and Performance Measurement, Risk Books, London. Endnoten 1 Die Schätzung des LGDs ist jedoch ein komplexes Problem, da er weder zeitlich konstant noch unabhängig von der PD ist. Vgl. Schuermann (2004), S. 252, Allen/Saunders (2003), S. 17f. und S. 21, und Dermine/Carvallho (2006), S. 1.235 1.238. Der Einfluss der Branchenzugehörigkeit auf den LGD ist unklar. Vgl. Grunert/Weber (2005), S. 31. 2 Der EAD kann sich daher auch während der Laufzeit nicht erhöhen, wie dies z.B. bei Kreditlinien der Fall wäre. Vgl. hierzu Bluhm et al. (2003), S. 24 - 26. 3 Vgl. Fitch (2006a), S. 22. 4 Vgl. Fender/Kiff (2004), S. 3. 37 5 Vgl. auch im Folgenden Merton (1974), S. 452f. 6 Vgl. BCBS (1999), S. 31. Vgl. für die Berechnung von Korrelationen Fitch (2004), S. 2. 7 Vgl. für eine Übersicht über die wichtigsten Kreditportfolio-Modelle Crouhy et al. (2000). 8 Vgl. Taylor (2002), S. 59. 9 Vgl. Gupton et al. (1997), S. 93. 10 Die Schätzung von Aktienrenditen auf Basis beobachtbarer ökonomischer Zeitreihen kann auf Chen, Roll und Ross zurückgeführt werden, die dafür makroökonomische Faktoren betrachteten. Vgl. Chen et al. (1986), S. 384. Es existiert jedoch empirische Evidenz dafür, dass die Branchenzugehörigkeit als einzelner, ökonomisch interpretierbarer Faktor den höchsten Erklärungsgehalt für die Schwankung von Aktienrenditen besitzt, die sich annahmegemäß analog zu V entwickeln. Vgl. dazu Connor (1995), S. 43 - 46. 11 Dabei ergibt sich evtl. das Problem, dass nicht für jede Branche ein geeigneter Index existiert. Vgl. Gupton et al. (1997), S. 94 - 96. 12 Vgl. auch im Folgenden Heitfield et al. (2005), S. 8f. 13 Vgl. Fitch (2007), S. 3. 14 Vgl. Heitfeld et al. (2005), S. 9. 15 Vgl. Jorion (2001), S. 116 sowie auch für weitere Kritikpunkte Szegö (2002), S. 1.260f. 16 Vgl. Crouhy et al. (2000), S. 63. 17 Vgl. Schierenbeck (2001), S. 257. 18 Vgl. Gupton et al. (1997), S. 87f. 19 Vgl. zu diesem Verfahren Deutsch (2004), S. 180 182. 20 Die beschriebene MC-Simulation auf Basis eines Faktorenmodells ist zurzeit auch das Standardverfahren zur Bewertung von CDOs, die im Mittelpunkt dieser Arbeit stehen. Vgl. Iscoe/ Creinin (2007), S. 3.359. 21 Vgl. zur Risikosenkung durch erhöhte Granularität Schierenbeck (2001), S. 304 - 310. 22 Vgl. zu den beiden Konzentrationsdimensionen Bundesbank (2006), S. 35 - 37. 23 Vgl. Bundesbank (2006), S. 36. 24 Vgl. BCBS (2006a), Absatz 770f., sowie BCBS (2006b), S. 3. 25 Vgl. Ong (1999), S. 126. 26 Vgl. Taylor (2002), S. 60, sowie Büschgen (1998), S. 968. 27 Vgl. Varnholt (1997), S. 169. 28 Vgl. Experteninterview I, TZ 1, Experteninterview II, TZ 1, und Taylor (2002), S. 57. 29 Vgl. zu diesem und anderen möglichen Instrumenten zur Steuerung des Konzentrationsrisikos BCBS (2006b), S. 7f. 30 Vgl. zu Nominal- und VaR-Limiten Holton (2003), S. 27 - 29. 38 31 Vgl. Experteninterview I, TZ 2, sowie Experteninterview II, TZ 7. 32 Vgl. Heitfield et al. (2005), S. 10 und S. 27. 33 Vgl. Düllmann/Masschelein (2006), S. 13, sowie Varnholt (1997), S. 170. 34 Vgl. auch im Folgenden BCBS (2006b), S. 24 - 26. 35 Vgl. Taylor (2002), S. 57. 36 Vgl. auch im Folgenden Experteninterview II, TZ 3. 37 Vgl. Experteninterview II, TZ 5. 38 Vgl. Bundesbank (2006), S. 38, sowie IACPM (2005), S. 41. 39 Diese Bezeichnung weist darauf hin, dass der einzige Geschäftszweck in dem Ankauf von Forderungen sowie der Emission von Wertpapieren liegt. Vgl. Paul (1994), S. 119. 40 Vgl. Bellmann (2002), S. 16, sowie Nomura (2004), S.1. Im Rahmen dieser Arbeit wird von einer identischen Laufzeit aller emittierten Wertpapiere ausgegangen. 41 Vgl. Bellmann (2002), S. 22f., sowie Bär (1997), S. 92. 42 Vgl. zu den Rollen von Service-Agenten und Treuhänder Paul (1994), S. 135 - 137 und S. 163f., Bund (2000), S. 30 - 32, und Bär (1997), S. 91 - 94 und S. 96f. 43 Vgl. Duffie/Gârleanu (2001), S. 41. 44 Vgl. Heidorn/König (2003), S. 4, sowie Bundesbank (2004), S. 29. 45 Vgl. Rudolph/Scholz (2007), S. 539, Bär (1997), S. 130, und Benner (1988), S. 407f. 46 Vgl. Bellmann (2002), S. 30f., Sidki (2007), S. 35, und Iscoe/Creinin (2007), S. 3.358. 47 Vgl. Iscoe/Creinin (2007), S. 3.358. 48 Vgl. Firla-Cuchra/Jenkinson (2006), S.1, sowie Merril Lynch (2005), S. 10. 49 Vgl. Paul (1994), S. 141, und Gibson (2004), S. 9. Auf einem vollkommenen Markt kann die Umstrukturierung von Zahlungsströmen nicht zu einem Wertzuwachs führen. Für einen Literaturüberblick zur theoretischen Begründung für die Existenz von tranchierten Produkten siehe Rudolph/Scholz (2007), S. 540 - 547. 50 Vgl. Braun (2005), S. 68, sowie Bundesbank (2004), S. 32. 51 Vgl. Burghoff et al. (1998), S. 279. 52 Vgl. auch im Folgenden Lando (2005), S. 201, sowie Goodman (2001), S. 145f. 53 Vgl. Papadopoulos/Tan (2007), S. 8. 54 Im Rahmen dieser Arbeit wird immer von einem Portfolio aus endfälligen Krediten bzw. Anleihen mit identischen Fälligkeitszeitpunkten ausgegangen. 55 Vgl. Picone (2002), S. 17. 56 Vgl. Mitchell (2005), S. 1, sowie Elizalde (2006b), S. 11. Sparkasse Vest Recklinghausen Wissenschaftspreis 2009 57 Vgl. Bluhm (2003), S. 25 in Verbindung mit Elizalde (2006b), S. 12. 58 Vgl. Krahnen/Wilde (2006), S. 6. 59 Vgl. Sidki (2007), S. 38 - 140. 60 Vgl. im Folgenden Gibson (2004), S. 18, sowie Merril Lynch (2005), S. 25. 61 Vgl. im Folgenden Krahnen/Wilde (2006), S. 14 17, sowie Gibson (2004), S. 23f. 62 Siehe Kapitel 4.2.1. 63 Es müssten lediglich alle Positionen mit einem Drittel ihres jetzigen Wertes angesetzt werden. 64 Wird z.B. eine Genauigkeit von 100.000 Simulationsgängen angestrebt und es sollen zwei Zeitpunkte betrachtet werden, dann müssen für jeden der 100.000 simulierten ersten Zeitpunkte 100.000 neue Szenarien für den zweiten Zeitpunkt simuliert werden. 65 Vgl. Experteninterview I, TZ 8. 66 Vgl. Experteninterview II, TZ 15. 67 Vgl. im Folgenden Experteninterview I, TZ 7. 68 Vgl Fitch (2004), S. ,1 sowie Schorin/Weinreich (2001), S. 1 39 Die Limitierung von Branchenexposures unter besonderer Berücksichtigung der Risikobeiträge aus Collateralized Debt Obligations 40 Jan Benedikt Kleibrink, Bachelor of Arts geboren am 2. Oktober 1985 Die Operationalisierung des Ziels Preisniveaustabilität durch die Europäische Zentralbank – Darstellung und kritische Würdigung Bachelorarbeit, eingereicht im Frühjahr 2008 bei Professor Dr. Wim Kösters Lehrstuhl für Theoretische Volkswirtschaftslehre Ruhr-Universität Bochum Im Mai 2009 erreichte die Inflationsrate mit Null Prozent den niedrigsten Stand seit 22 Jahren. Das Statistische Bundesamt weist aber darauf hin, dass hierfür neben den Lebensmittelpreisen insbesondere die gegenüber dem Vorjahr stark gesunkenen Energiepreise verantwortlich waren. Ohne diese beiden Bereiche hätte die Teuerungsrate bei 1,4 Prozent gelegen. Sollten die Energiepreise nicht weiter nachgeben, wird spätestens ab Ende 2009 damit gerechnet, dass sich der dämpfende Einfluss auf die Inflationsrate wieder verringert. Die vorliegende Arbeit befasst sich mit dem vorrangigen Ziel der Europäischen Zentralbank (EZB), Preisstabilität zu gewährleisten. Der Autor erläutert die politische Vorgabe des Artikels 105 des EG-Vertrages aus ökonomischer Sicht und stellt darauf aufbauend dar, wie die EZB dieses Ziel operationalisiert. Da der EG-Vertrag ausschließlich einen Rahmen festlegt, ist die genauere Konkretisierung der Zielausgestaltung der EZB selbst überlassen. So definierte sie die Preisstabilität als Anstieg des harmonisierten Verbraucherpreisindex für das Euro-Währungsgebiet unter, aber nahe bei 2 Prozent gegenüber dem Vorjahr. Die Arbeit stellt u.a. Möglichkeiten und Grenzen der EZB-Politik dar. Darüber hinaus erfolgt eine kritische Auseinandersetzung mit der EZB-Strategie, die eine Geldpolitik für verschiedene Nationalstaaten definieren muss. So kommt der Autor zu dem Ergebnis, dass es keine eindeutige, empirische Antwort auf die Frage nach der optimalen Inflationsrate gibt und die Zieldefinition weiterhin ein Kritikpunkt an der EZB-Strategie bleiben wird. Die wird u.a. damit begründet, dass sich der Erfolg der EZB-Politik aufgrund der mittelfristigen Orientierung nur ungenau überprüfen lässt. Um politischen Druck von der EZB zu nehmen, könnte des Weiteren eine Bandbreitendefinition als Ziel hilfreich sein, da insbesondere die großen strukturellen Unterschiede der neueren Beitrittsländer im Süden und Osten Europas die Einhaltung der angestrebten Inflationsrate erschweren. Die Operationalisierung des Ziels Preisniveaustabilität durch die Europäische Zentralbank – Darstellung und kritische Würdigung Einleitung Seit dem 1. Januar 1999 liegt die alleinige Verantwortung für die Geldpolitik für den Euroraum bei der Europäischen Zentralbank (EZB). Diese hat die politische Vorgabe, als vorrangiges Ziel, Preisstabilität zu gewährleisten. Die genaue Ausgestaltung dieses Ziels ist allerdings politisch nicht vorgegeben und damit liegt die Aufgabe der Operationalisierung bei der EZB. Ziel dieser Arbeit ist es, Preisstabilität als politische Vorgabe der EU ökonomisch zu erläutern und aufbauend darauf zu erklären, wie die EZB dieses Ziel operationalisiert. Die Analyse wird das Thema sowohl auf der Grundlage der wirtschaftswissenschaftlichen Theorie erklären als auch die praktische Ausgestaltung darstellen und kritisch beleuchten. Zu diesem Zweck werde ich zunächst die politische Vorgabe der Europäischen Gemeinschaft, die im EG-Vertrag festgelegt ist, betrachten. Daran anknüpfend erläutere ich im folgenden Kapitel die Bedeutung von Preisstabilität für eine Volkswirtschaft und vor allem inflations-, wie auch deflationsbedingte Schäden fehlender Preisstabilität. Mit dem Einfluss der Geldpolitik auf reale Variablen, der Notwendigkeit die Geldpolitik auf mehrere Nationalstaaten abzustimmen und der Bedeutung der EZB-Politik für die Weltwirtschaft, komplettieren drei weitere Gründe für die EU-Zielvorgabe die Ausführungen. Im nächsten Kapitel werde ich die Zieloperationalisierung durch die EZB genau analysieren und einzelne Aspekte näher herausstellen. Dann möchte ich die Frage diskutieren, warum die EZB in ihrer Operationalisierung eine positive Preissteigerungsrate anstrebt. Dabei konzentriere ich mich auf vier Hauptargumente, beginnend mit Problemen bei der Inflationsmessung. Strukturelle Unterschiede, die durch die Größe und Struktur des Währungsraums bedingt sind, werden anschließend betrachtet. Die mögliche Gefahr der Handlungsunfähigkeit der EZB, sowie das Problem von Lohn-, und Preisrigiditäten schließen die Argumentation ab. Anschließend werde ich die mittelfristige Ausrichtung der EZB-Politik behandeln und diskutieren. Dabei geht es sowohl um die Gründe der mittelfristigen Orientierung, wie auch um Probleme, die diese Vorgabe mit sich bringt. Eine zusammenfassende kritische Würdigung soll die Diskussion um die quantitative Definition der Zentralbank abrunden. 42 Sparkasse Vest Recklinghausen Wissenschaftspreis 2008 1. Aufgabe der EZB Artikel 8 des EG-Vertrages legt im Rahmen der europäischen Integration fest, dass „ein europäisches System der Zentralbanken (im folgenden als „ESZB“ bezeichnet) und eine europäische Zentralbank (im folgenden als „EZB“ bezeichnet) geschaffen“ (EG-Vertrag, Artikel 8)1 werden. Im folgenden legt der Vertrag fest: „Das ESZB besteht aus der EZB und den nationalen Zentralbanken.“ (EG-Vertrag, Artikel 107, Absatz 1). Der dritte Absatz von Artikel 107 legt fest: „Das ESZB wird von den Beschlussorganen der EZB, nämlich dem EZB-Rat und dem Direktorium, geleitet.“ (EG-Vertrag, Artikel 107, Absatz 3).2 In den folgenden Abschnitten werde ich die politischen Vorgaben, die im EG-Vertrag festgelegt sind, darstellen und ökonomisch begründen. 1.1. Politische Vorgaben Die Ziele und Aufgaben der EZB sind politisch vorgegeben. So heißt es im EG Vertrag, Artikel 105, Absatz 1: „Das vorrangige Ziel der ESZB ist es, die Preisstabilität zu gewährleisten. Soweit dies ohne Beeinträchtigung des Ziels Preisniveaustabilität möglich ist, unterstützt das ESZB die allgemeine Wirtschaftspolitik in der Gemeinschaft, um zur Verwirklichung der in Artikel 2 festgelegten Ziele der Gemeinschaft beizutragen.“ (EG-Vertrag, Artikel 105, Absatz 1). Des Weiteren heißt es: „Das ESZB handelt im Einklang mit dem Grundsatz einer offenen Marktwirtschaft mit freiem Wettbewerb, wodurch ein effizienter Einsatz der Ressourcen gefördert wird, und hält sich dabei an die in Artikel 3a genannten Grundsätze.“ (EG-Vertrag, Artikel 105, Absatz 1). Allerdings ist zu beachten, dass ausschließlich der politische Rahmen durch diesen Artikel festgelegt wird. Eine genauere Konkretisierung der Ausgestaltung des Ziels überlässt der Gesetzgeber der EZB selbst („Die grundlegenden Aufgaben des ESZB bestehen darin, die Geldpolitik der Gemeinschaft festzulegen und auszuführen […].“ (EG-Vertrag, Artikel 105, Absatz 2)). 1 Zitate aus dem EG-Vertrag aus: Europäische Gemeinschaften, 1957, vgl. Literaturverzeichnis. 2 Aufgrund der Tatsache, dass die EZB das eigentliche Handlungsorgan ist, werde ich mich im Zuge dieser Arbeit auf die Tätigkeiten der EZB konzentrieren. Obwohl der EG-Vertrag formal das ESZB mit der Aufgabe der geldpolitischen Verantwortung für den Euroraum betraut hat, werde ich hier die EZB als Handlungsorgan in den Fokus rücken und mich nicht auf das ESZB beziehen. 43 Die Operationalisierung des Ziels Preisniveaustabilität durch die Europäische Zentralbank – Darstellung und kritische Würdigung 2. Ökonomischer Nutzen von Preisniveaustabilität Der ökonomische Nutzen von Preisniveaustabilität lässt sich im Fall der EZB auf fünf verschieden Telbereiche auf gliedern und erläutern. 2.1. Inflation Ich möchte meine Darstellung mit den Schäden einer Inflation, das heißt einer langfristigen, durchschnittlichen Steigerung des Preisniveaus in einer Volkswirtschaft, beginnen. Hier sind zunächst Reallohnverluste der Arbeitnehmer zu nennen. Dadurch sinkt die Kaufkraft, was negative Auswirkungen auf den Lebensstandard der Arbeitnehmer hat (Görgens et al., 2004). Außerdem ist es schwer für die Verbraucher ihren Konsum effizient zu gestalten, da inflationäre Effekte relative Preisänderungen überdecken können. Aber nicht nur die Arbeitnehmer müssen über sinkende Reallöhne unter der unerwarteten Inflation leiden, sondern auch Kreditgeber müssen als große Verlierer einer solchen Inflation gesehen werden (EZB, 2004). Wenn unerwartete Inflation herrscht, wird das Vermögen nach Rückzahlung des Kredites einen geringeren Wert haben, als es zum Zeitpunkt der Kreditgewährung hatte. Das führt langfristig dazu, dass es zu einer Kreditrationierung unter dem Gleichgewicht kommt. Ähnlich problematisch sind ungewollte Einkommensumverteilungseffekte. Diese entstehen vor allem durch Verträge, die langfristig und ohne Indexierung angelegt sind, wenn eine nicht antizipierte Preisänderung eintritt. (Spahn, 2006). Auch die Produzenten müssen bei der Untersuchung der Schäden unerwarteter Inflation betrachtet werden. So kann es hier durch Unsicherheit über die zukünftige Preisentwicklung zum Ausbleiben einer effizienten Ressourcenverteilung kommen (Blanchard, Illing, 2006). Bei einer erwarteten Inflation ist zu betrachten, dass die Transaktionskosten in einer Volkswirtschaft steigen. Zwar ist es für alle Akteure möglich die Preissteigerungsrate richtig vorauszusehen und bei ihren Entscheidungen darauf zu reagieren, allerdings ist das mit hohen Such- und Informationskosten, so genannten menu-costs verbunden. Produzenten müssen ständig neue Preise für ihre Produkte setzen, Konsumenten müssen sich immer wieder über neue Preise informieren (Görgens et al., 2004). Produzenten leiden aber nicht nur unter den Transaktionskosten, sondern auch darunter, dass Scheingewinne versteuert werden müssen. Bei nominal steigenden Preisen steigt auch der nominale Umsatz der Unternehmen, was zur Folge hat, dass diese mehr Steuern zahlen müssen. (Spahn, 2006). Als Gewinner der Inflation kann der Staat durch den Effekt der schleichenden Steuerprogression gesehen werden. Dieser Effekt erklärt, dass die meisten Steuersysteme keinen Inflationsausgleich berücksichtigen. (Blanchard, Illing, 2006). Auch diese Theorie, den Staat als Gewinner einer erwarteten Inflation zu betrachten, ist allerdings nicht eindeutig, denn der Staat tritt in einer Volkswirtschaft auch als Konsument auf und in dieser Funktion hat er mit den gleichen negativen Auswirkungen zu kämpfen, wie private Konsumenten. Eine Inflation kann nämlich als eine Art Steuer auf die Geldhaltung angesehen werden. In einer Volkswirtschaft kann allerdings kaum darauf verzichtet werden, zumindest einen Teil seines Vermögens nicht langfristig in Wertpapieren oder anderen Anlageformen zu binden. Diese können nämlich nicht für Transaktionszwecke genutzt werden und so bleiben nur die Möglichkeiten, trotz der Inflation Transaktionskasse zu halten oder aber für jede Transakti- 44 Sparkasse Vest Recklinghausen Wissenschaftspreis 2009 on aufs neue andere Anlageformen in Transaktionskasse umzuwandeln, was mit positiven Transaktionskosten, so genannten Schuhsohlenkosten, verbunden ist (Spahn, 2006). Nicht vernachlässigt werden darf hier auch ein unerwünschter Verteilungseffekt, weil jedes Wirtschaftsubjekt einen gewissen Teil seines Vermögens immer für Transaktionszwecke verwenden muss (autonome Konsumausgaben), um zumindest seine primären Lebensbedürfnisse zu stillen. Da dieser Teil umso höher ist, je kleiner das Vermögen ist, werden vor allem Wirtschaftssubjekte mit geringen Einkommen negativ beeinflusst (EZB, 2004). Des Weiteren muss man beachten, dass man bei realistischer Betrachtung einer Volkswirtschaft kaum von vollkommen flexiblen Preisen und Löhnen ausgehen kann und selbst wenn man das tut, ein gewisser Anpassungszeitraum betrachtet werden muss (Blanchard, Illing, 2006). Abschließend sollte nicht unerwähnt bleiben, dass die beschriebenen negativen Effekte mit der Höhe der Inflation auch in ihrer Stärke ansteigen. In Extremfällen, so genannten Hyperinflationen, kann es dazu kommen, dass eine Währung durch die extrem hohen Inflationsraten jeglichem Nutzen beraubt wird. (Blanchard, Illing, 2006). 2.2. Deflation Um die Darstellung der ökonomischen Kosten fehlender Preisstabilität zu komplettieren, reicht es aber nicht auf die Inflation einzugehen. Darüber hinaus muss in diesem Zusammenhang auch die Möglichkeit einer Deflation in Betracht gezogen werden. Eine Deflation stellt das genaue Gegenteil einer Inflation dar, nämlich eine Abnahme des gesamtwirtschaftlichen Preisniveaus. Diese scheint, anders als die Zunahme des Preisniveaus bei der Inflation, zunächst einmal positive Folgen für die Konsumenten zu haben, da sie nun mehr Güter für ihr Vermögen konsumieren können. Allerdings sinken aufgrund des fallenden Preisniveaus die Einnahmen der Produzenten, was dazu führt, dass sie ihre Produktion zurückfahren werden und damit die volkswirtschaftliche Gesamtproduktion sinkt. Dieses führt zu einem Auftreten (oder einer Verschlimmerung) von unfreiwilliger Arbeitslosigkeit, da nun weniger Arbeitskräfte für die verringerte Produktion benötigt werden (Blanchard, Illing, 2006). Dieses ist aber nicht der einzige Faktor durch den Produzenten in einer Deflation belastet werden können. Ebenfalls zu betrachten ist hier das Problem ihrer Lohnkosten. Durch ein sinkendes Preisniveau steigt der Reallohn der Arbeitnehmer und die relativen Kosten der Arbeitgeber steigen. Dadurch werden Nominallohnsenkungen nötig, um die realen Effekte der Deflation zu verhindern. Allerdings wird hier das Problem bedeutend, dass nominale Löhne als nach unten hin fest gelten (Gali et al., 2004). Außerdem besteht die Möglichkeit, dass die Wirtschaftssubjekte auch für die Zukunft mit einem fallenden Preisniveau rechnen. Das hat zur Folge, dass der gegenwärtige Konsum zurückgefahren und Konsumausgaben eher für die Zukunft geplant werden (Blanchard, Illing, 2006). Nicht unerwähnt bleiben sollte hier, dass der beschriebene Prozess auch auf den Geldund Finanzmarkt durchschlagen kann, wenn nämlich Produzenten durch den Rückgang ihres Umsatzes aufgenommene Kredite nicht mehr zurückzahlen können. Der Finanzmarkt wird bei einer Deflation aber auch noch durch einen zweiten Aspekt beeinflusst, nämlich die relative Mehrbelastung der Kreditnehmer durch Kredite mit nominal vereinbarten Zinsen (Gali et al., 2004). Eine weitere Gefahr der Deflation, die betrachtet werden sollte, ist die Möglichkeit, dass sich eine Deflationsspirale einstellt. Wenn die Zentralbank, die der Deflation mit einem Senken des Nominalzinses begegnet um Preisstabilität wiederherzustellen, bei einem Nomi45 Die Operationalisierung des Ziels Preisniveaustabilität durch die Europäische Zentralbank – Darstellung und kritische Würdigung nalzins von 0 %, dem so genannten zero bound angekommen ist, ist es nicht mehr möglich die Zinsen weiter zu senken. Das hätte de facto eine geldpolitische Handlungsunfähigkeit der Zentralbank zur Folge, die nun nicht mehr in der Lage wäre, Preisstabilität zu gewährleisten (Issing, 2003, Görgens, et al., 2004). 2.3. Geldpolitik und reale Variablen Als zweite Begründung ist hier die Tatsache zu betrachten, dass die Diskussion um die Rolle von Geld und Geldpolitik für eine Volkswirtschaft nicht eindeutig beantwortet ist.3 So gibt es zwar einen weitgehenden theoretischen wie empirischen Konsens darüber, dass in der langen Frist das Preisniveau vom Wachstum der Geldmenge abhängt, welche unter der Kontrolle der Zentralbank steht (Issing et al., 2001). So ist hier unter anderem die Diskussion um die Philipskurve zu betrachten. Die Philipskurve besagt, zusammenfassend und vereinfacht ausgedrückt, dass es einen tradeoff zwischen Inflation und Arbeitslosigkeit gibt. Das bedeutet, dass eine Zentralbank, die ja die Inflationsrate kontrollieren kann, durch eine Steigerung dieser Rate die Arbeitslosenquote senken kann (Blanchard, Illing, 2006). Allerdings ist die langfristige Existenz dieses Zusammenhangs sehr umstritten und wird in der heutigen Diskussion häufig als nicht bewiesen gesehen (Blanchard, Illing, 2006, Issing et al., 2001). 2.4. Eine Geldpolitik für viele Nationalstaaten Drittens ist die Tatsache zu erwähnen, dass die EZB im Gegensatz zur Fed und anderen Zentralbanken, nicht nur die Geldpolitik für einen Nationalstaat, sondern für eine ganze Region, die aus verschiedenen Nationalstaaten besteht, macht. Obwohl die Staaten, die Teil der Eurozone sind, sich in ihren volkswirtschaftlichen Vorraussetzungen ähneln und aufgrund der Teilnahme an einem gemeinsamen Binnenmarkt zu vermuten ist, dass es zu einer immer stärkeren Konvergenz der einzelnen Volkswirtschaften kommt, bestehen doch noch Unterschiede (Issing et al., 2001),(Kaltenthaler, 2006).4 2.5. Einfluss auf die Weltwirtschaft Abschließend sollte hier die Größe und das damit verbundene ökonomische Gewicht des Euroraums als gemeinschaftlicher Wirtschaftsraum genannt werden. Der Euroraum ist mit einem Anteil am weltweiten BIP, welcher dem der USA nahe kommt und einem gleichzeitig sehr großen Offenheitsgrad ein Wirtschaftsraum, dessen Einfluss auf die weltweiten Wechselkurse zu beachten ist (Issing et al., 2001). 3 Da die Diskussion um die Frage, welche Funktionen Geldpolitik erfüllen kann und welche nicht, extrem umfassend ist und somit den Rahmen dieser Arbeit deutlich übersteigen würde, möchte ich mich bei der Erklärung auf eine kurze Einführung konzentrieren, um die EG-Vorgabe transparenter zu machen. 4 Die von Frankreich und Italien angestoßene Diskussion um eine EU-Wirtschaftsregierung als Gegengewicht zur EZB, mit deren Politik sie nicht zufrieden sind, zeigt, dass politischer Druck einzelner Nationalregierungen hier von Bedeutung sein kann. 46 Sparkasse Vest Recklinghausen Wissenschaftspreis 2009 3. Die Strategie der EZB 3.1. Quantitative Definition des Ziels Preisniveaustabilität durch die EZB Wie ist zu erkennen, ob das vorrangige Ziel erreicht ist, sprich: Was bedeutet Preisstabilität? Da die gesetzlichen Vorgaben keinerlei nähere Angaben enthalten, was unter Preisstabilität zu verstehen ist und damit, wann dieses Ziel als erfüllt angesehen werden kann, ist es Aufgabe der EZB selbst, die Vorgabe inhaltlich zu füllen. Im Zuge dessen hat sie sich dazu entschieden eine quantitative Definition von Preisstabilität zu veröffentlichen, welche als offizielle Zielvorgabe ihrer Geldpolitik fungiert. Diese quantitative Definition wurde im Jahr 1998 von der EZB gegeben und lautete: „Preisstabilität wird definiert als Anstieg des harmonisierten Verbraucherpreisindex (HVPI) für das Euro-Währungsgebiet von unter 2 % gegenüber dem Vorjahr. Preisstabilität muss mittelfristig gewährleistet sein.“ (EZB-Rat, 1998)5. Nach einer Prüfung seiner geldpolitischen Strategie gab der EZB-Rat im Jahr 2003 dann eine leicht veränderte Definition, indem er „unter, aber nahe bei 2%“ als angestrebte Preissteigerungsrate angab (EZB-Rat, 2003). Diese Definition wirft eine Reihe von Fragen auf, welche ich in den folgenden Abschnitten zu beantworten versuche. 3.2. Öffentliche Bekanntgabe der Definition Die EZB hat sich entschieden, ihre Definition öffentlich zu machen. Hierfür werden vor allem vier Gründe ins Feld geführt. Erstens erhöht die Bekanntgabe der quantitativen Definition die Transparenz der Geldpolitik. Die Öffentlichkeit kann sich also besser auf das einstellen und beurteilen, was die EZB geldpolitisch tut (Issing et al., 2001). Zweitens wird eine objektive Überprüfung des Erfolgs der Geldpolitik möglich gemacht, da sich die tatsächliche Inflationsrate leicht mit der angestrebten Rate vergleichen lässt (Issing, 2003). Drittens wird den Wirtschaftssubjekten eine Erwartungshilfe geboten, wenn sie sich darauf einstellen können, welche genaue Preissteigerungsrate für die Zukunft angestrebt wird. Das kann die gesamtwirtschaftliche Lage verbessern, da Unsicherheit abgebaut wird (EZB, 2004). Während diese Gründe sich auf jede Zentralbank anwenden lassen, muss im speziellen Fall der EZB aber auch noch ein vierter Grund berücksichtigt werden, nämlich, dass sie als neu geschaffene Institution keinen track record vorweisen konnte. (Issing, 2003). 3.3. Der HVPI Um die quantitative Definition von Inflation überhaupt möglich zu machen, ist es nötig über ein Instrumentarium zu verfügen, welches es erlaubt das Preisniveau zu beurteilen und damit Preisniveauänderungen zu messen. Die EZB bedient sich hier dem harmonisierten Verbraucherpreisindex (HVPI). Der HVPI setzt sich dabei aus den nationalen Verbraucherpreisindizes der Eurostaaten zusammen. 5 Zitate des EZB-Rates aus: EZB (Scheller), 2006, vgl. Literaturverzeichnis. 47 Die Operationalisierung des Ziels Preisniveaustabilität durch die Europäische Zentralbank – Darstellung und kritische Würdigung 3.3.1. Messung In jedem Land der Eurozone wird der Verbraucherpreisindex gemessen. Um die Ergebnisse besser vergleichbar zu machen, wurde der HVPI eingeführt. Er beinhaltet eine Reihe von Kriterien, welche für alle Länder standardisiert sind, damit es bei der Berechnung nicht zu systematischen Messfehlern kommt. Der HVPI ist ein LasPeyres-Index. Zur Messung eines LasPeyres-Index wird für eine Region ein Warenkorb zusammengestellt, der den durchschnittlichen Konsum eines Wirtschaftssubjekts in dieser Volkswirtschaft abbilden soll (Europäische Gemeinschaften, 2004). Es ist hier allerdings zu betonen, dass ein LasPeyres-Index aufgrund der Art der Berechnung zu einer zu hohen Inflationsrate tendiert. 3.4. Eine Inflationsrate von unter, aber nahe bei 2 % Das nächste Thema mit dem ich mich im Rahmen der Erläuterung der Preisstabilität beschäftigen möchte, ist, dass die EZB keine Inflationsrate von 0 %, sondern eine „von unter, aber nahe bei 2%“ (EZB Rat, 2003) als Ziel ausgegeben hat. Während man zunächst eher vermutet, dass ein vollkommen festes Preisniveau optimal wäre, lässt sich bei genauerer Untersuchung eine Reihe von Gründen finden, aus denen die Zieldefinition der EZB sinnvoll ist. 3.4.1. Die Ungenauigkeit des HVPI Die Ungenauigkeit des HVPI, vor allem die Überschätzung der tatsächlichen Inflation, ist einer der Gründe dafür, dass keine 0 % Inflation angestrebt wird. Zeigt der HVPI nämlich eine positive, aber kleine Preissteigerung an, kann das bedeuten, dass real eine Deflation herrscht. Um eine Sicherheit gegen die Gefahr einer Deflation zu haben, wird von der EZB keine 0 % Inflation angestrebt. 3.4.2. Eine Inflationsrate für den gesamten Euroraum – Der Balassa-Samuelson-Effekt Das Problem, dass die Inflationsmessung mit Hilfe eines LasPeyres-Index dazu neigt, die Inflation etwas zu überschätzen und damit eine Sicherheitsmarge nötig ist, um eine reale Deflation zu vermeiden, ist nicht der einzige Grund, aus welchem es nicht wünschenswert ist die Inflationsrate auf 0 % zu drücken. Ein weiterer Grund ist, dass die EZB ihre Geldpolitik nicht individuell auf einzelne Nationalstaaten abstimmen kann, wie es bei nationalen Zentralbanken, die nur für die Geldpolitik eines Landes verantwortlich sind der Fall ist, sondern sie muss eine einheitliche Geldpolitik für das gesamte Eurogebiet machen. Da es allerdings, gerade im Zuge der neueren Beitrittsländer im Süden und Osten Europas zu großen strukturellen Unterschieden innerhalb der Eurozone gekommen ist und bei weiteren Beitritten kommen wird, muss auch das berücksichtigt werden. Die ursprünglichen EU-Mitgliedsstaaten, vor allem in Mittel- und Westeuropa, sind ökonomisch weiterentwickelt, als es die neueren Mitgliedsstaaten in Süd- und Osteuropa sind. Da eine wirtschaftliche Konvergenz innerhalb der EU angestrebt wird, ist es politisch wünschenswert die ökonomische Lage der schwächeren Staaten zu verbessern. Allerdings lassen sich Inflationen in Volkswirtschaften, die sich in einem starken Wachstumsprozess befinden, nur schwer vermeiden. Hierfür lässt sich der Balassa-Samuelson-Effekt als Begründung anführen (Issing, 2003). Wenn nun eine Inflationsrate von 0 % für das gesamte Eurogebiet angestrebt würde, müsste diese Inflation in den neueren Mitgliedsstaaten durch ein sinkendes Preisniveau in den übrigen Regionen ausgeglichen werden (Issing, 2003). 48 Sparkasse Vest Recklinghausen Wissenschaftspreis 2009 3.4.3 Mögliche Handlungsunfähigkeit der EZB Als dritter Grund, den die EZB für eine Tolerierung einer leichten Steigerung des Preisniveaus berücksichtigt, muss die Gefahr genannt werden, dass die EZB ihre Handlungsmöglichkeiten verlieren könnte, wenn es zu einer Deflation kommt. Dies liegt daran, dass es für eine Zentralbank nicht möglich ist, den Nominalzins auf ein Niveau unter 0 % zu senken, da die Wirtschaftssubjekte dann nur noch Geld halten würden, um Zinsverluste zu vermeiden(Issing et al., 2001). 3.4.4. Lohn- und Preisrigiditäten Zuletzt sollte hier auch die Möglichkeit angesprochen werden, dass es nominale Rigiditäten von Löhnen und Preisen nach unten geben kann. Wenn man von der Annahme ausgeht, dass sowohl nominale Preis-, wie auch Lohnsenkungen nur schwer, wenn überhaupt, durchzusetzen sind, obwohl dieses im Fall einer Rezession nötig wird, macht es Sinn eine positive Inflationsrate anzustreben. 3.5. Die mittelfristige Ausrichtung des Ziels Preisniveaustabilität Wie die quantitative Definition ihres geldpolitischen Ziels durch die EZB besagt, wird die Erreichung des Ziels Preisstabilität mittelfristig angestrebt. Die Erklärung dafür, dass die mittlere Frist hier als entscheidend angegeben wird, lässt sich vor allem durch zwei Gründe erläutern. Zunächst ist die Verzögerung zu berücksichtigen, mit der monetäre Entwicklungen Einfluss auf eine Volkswirtschaft nehmen können (Görgens et al., 2004). Außerdem muss berücksichtigt werden, dass Volkswirtschaften von ganz unterschiedlichen exogenen Schocks getroffen werden können (EZB, 2004). Kritik an der mittelfristigen Zieldefinition wird vor allem dahingehend geäußert, dass diese Definition eine kritische Überprüfung des Erfolgs der EZB erschwert, da nicht klar zu beurteilen ist, wann genau das Ziel erreicht sein soll (Gali et al., 2004). 4. Die quantitative Definition von Preisstabilität – Abschließende, kritische Würdigung Zusammenfassend lässt sich sagen, dass die wichtigsten Merkmale der quantitativen Definition der Preisstabilität durch die EZB eine gewünschte Inflationsrate knapp unter 2 % und eine mittelfristige Orientierung bei der Erreichung dieses Ziels sind. Allerdings gilt es abschließend kritisch anzumerken, dass die Definition auch Schwächen aufweist. So ist es schwer möglich die 2 % Inflation, die in etwa zugelassen werden, als die optimale Marke zu erklären. Die Diskussionen über eine wohlfahrtsoptimale Inflationsrate reichen dabei von der Forderung nach einer milden Deflation, über 0 % Inflation, bis hin zu verschieden hohen Raten gewünschter Preissteigerungen (Issing et al., 2001). Da die Diskussionen um die optimale Inflationsrate weiter anhalten und es keine eindeutige, empirische Antwort auf die Frage gibt, wird die Zieldefinition weiterhin ein Kritikpunkt an der EZB-Strategie bleiben (ECB-Observer, 2003). Als zweiter Grund muss hier die Schwierigkeit genannt werden, den Erfolg der EZB-Politik zu beurteilen. Zum einen hat sich die EZB dazu entschieden eine quantitative Definition von Preisstabilität auszuarbeiten und auch zu veröffentlichen, wodurch sie, im Gegensatz zu einigen anderen Zentralbanken, allen voran der amerikanischen Fed, eine Marke geschaffen hat, an der sich die Öffentlichkeit orientieren und die Geldpolitik objektiv überprüfen kann. 49 Die Operationalisierung des Ziels Preisniveaustabilität durch die Europäische Zentralbank – Darstellung und kritische Würdigung Allerdings ist im Gegensatz zum Ziel, „knapp unter, aber nahe bei 2%“ (EZB-Rat, 2003), dass sich genau überprüfen lässt, der Zeithorizont, wie bereits erwähnt, mit mittelfristig nicht genauso deutlich festgelegt. Außerdem wird die Frage, ob es sinnvoll ist die 2 % als Punktwert anzugeben, Gegenstand von Diskussionen bleiben. Hier ist zu beurteilen, ob es nicht politischen Druck von der EZB nehmen würde eine Bandbreite als Ziel der Geldpolitik anzugeben (Gali et al., 2004). In eine ähnliche Richtung geht auch die Kritik, ob das Inflationsziel, welches sich die EZB selbst gesetzt hat, nicht als zu ehrgeizig gesehen werden muss. Denn gerade in einem noch wachsenden und sich im Konvergenzprozess befindlichen Währungsraum, könnte die angestrebte Inflationsrate nur sehr schwer eingehalten werden (Görgens et al., 2004). Die Probleme der Definition über den HVPI sind bereits ausgiebig erläutert worden und müssen bei der kritischen Hinterfragung der quantitativen Definition der EZB ebenfalls betrachtet werden. 50 Sparkasse Vest Recklinghausen Wissenschaftspreis 2009 Literaturverzeichnis Blanchard, O., Illing, G. (2006): Makroökonomie – 4., aktualisierte und erweiterte Auflage, Pearson Education Deutschland GmbH, München. Blinder, A., Reis, R. (2005): Understanding the Greenspan Standard – CEPS Working Paper No 114 (September 2005), http://www.princeton.edu/~ceps/ workingpapers/114blinderreis.pdf (27.3.2008). Deutsche Bundesbank (2004): Kerninflationsraten als Hilfsmittel der Preisanalyse, aus dem Monatsbericht April 2000, S. 49-63, http:// www.bundesbank.de/download/volkswirtschaft/ mba/2000/200004mba_kerninflaraten.pdf (27.3.2008). ECB-Observer (Belke, A., Kösters, W., Leschke, M., Polleit, T.) (2003): Die EZB-Strategie auf dem Prüfstand – Empfehlungen für das zinspolitische Handeln, http://www.ecb-observer.com/downloads/ Press-Statement_2003-03-17_ECBOBSERVER.pdf (19.3.2008). Europäische Gemeinschaften (1957): Vertrag zur Gründung der Europäischen Gemeinschaft, aus: Europa-Recht – 22. neubearbeitete Auflage 2007 (2007), Verlag C.H. Beck, München, herausgegeben: Deutscher Taschenbuch Verlag GmbH & Co.KG, München. (S.41, 72-73). Europäische Gemeinschaften (2004): Harmonisierte Verbraucherpreisindizes (HVPI): Ein kurzer Leitfaden für Datennutzer, Luxemburg, : http:// epp.eurostat.ec.europa.eu/cache/ITY_OFFPUB/KSBE-04-001/DE/KS-BE-04-001-DE.PDF (28.3.2008). (S.7). EZB (2004): Die Geldpolitik der EZB, http:// www.ecb.int/pub/pdf/other/geldpolitik2004de.pdf (12.3.2008). EZB, (Scheller, H.) (2006): Die Europäische Zentralbank: Geschichte, Rolle und Aufgaben – 2. überarbeitete Auflage, http://www.ecb.int/pub/ pdf/other/ecbhistoryrolefunctions2006de.pdf (12.3.2008). (S.86). Issing, O. (2003): Geldpolitik für den Euroraum – Rede zur Jahrestagung des Vereins für Socialpolitik, Zürich, 1.10.2003, http://www.ecb.int/press/key/ date/2003/html/sp031001.de.html (19.3.2008). Issing, O., Gaspar, V., Angeloni, I., Oreste, T. (2001): Monetary Policy in the Euro Area: Strategy and Decision-Making at the European Central Bank, Cambridge University Press, Cambridge. Kaltenthaler, K. (2006): Policymaking in the European Central Bank: The Masters of Europe’s Money, Rownan & Littlefield Publishers Inc., Plymouth. Papademos, L. (2006): Intervention as Panellist in Session 1 on Monetary Policy at a Conference on “ Central Banks in the 21st Century”, Madrid, 8.6.2006, http://www.ecb.int/press/key/date/2006/ html/sp060608.en.html (27.3.2008). Spahn, H. (2006): Geldpolitik: Finanzmärkte, neue Makroökonomie und zinspolitische Strategien, Verlag Franz Vahlen GmbH, München. Statistisches Bundesamt Deutschland (2008): Harmonisierter Verbraucherpreisindex, http://www. destatis.de/jetspeed/portal/cms/Sites/destatis/Internet/DE/Presse/abisz/HVPI,templateId=renderPrint. psml (28.3.2008). Weber, A. (2006): Unabhängige Geldpolitik in Europa – Festvortrag anlässlich des 80. Geburtstages von Professor Kloten, Tübingen, 14.3.2006, http://www.bundesbank.de/download/presse/ reden/2006/20060314weber_tuebingen.pdf (27.3.2008). Woodford, M. (2003): Inflation Targeting and Optimal Monetary Policy, http://www.columbia. edu/%7Emw2230/StLFed.pdf (25.3.2008). Zeitler, F. (2007): Acht Jahre Währungsunion – Erfahrungen und aktuelle Aspekte, Rede zum Neujahrsempfang der Hauptverwaltung Hamburg, Hamburg, 25.1.2007, http://www.bundesbank.de/ download/presse/reden/2007/20070125.zeitler.pdf (27.3.2008). Gali, J., Gerlach, S., Rotemberg, J., Uhlig, H., Woodford, M. (2004): The Monetary Policy Strategy of the ECB Reconsidered: Monitoring the European Central Bank 5, Centre for Economic Policy Research, London. Görgens, E., Ruckriegel, K., Seitz, F. (2004): Europäische Geldpolitik – 4. Auflage, Lucius & Lucius Verlagsgesellschaft mbH, Stuttgart. 51 Die Operationalisierung des Ziels Preisniveaustabilität durch die Europäische Zentralbank – Darstellung und kritische Würdigung 52 Dipl.-Ökonom Tim Glittenberg geboren am 28. November 1984 Determinanten der räumlichen Verteilung von Gesundheitswirtschaft in Deutschland Diplomarbeit, eingereicht im Frühjahr 2009 bei Professor Dr. Helmut Karl Lehrstuhl für Wirtschaftspolitik Ruhr-Universität Bochum Die Gesundheitswirtschaft ist die größte und innovativste Branche Deutschlands mit einem Wachstum in den nächsten zehn Jahren von mehr als 800.000 neuen Arbeitsplätzen, so der Autor. Diese Perspektive führt zu einem regelrechten Wettbewerb der Regionen um die Ansiedlung von Unternehmen der Gesundheitswirtschaft. Die Aktualität dieses Themas wird auch am Beispiel um die Ansiedlung des neuen Gesundheitscampus in Bochum deutlich. Neben einer neuen Fachhochschule für Gesundheitsberufe mit bis zu 1.000 Studienplätzen sollen hier Einrichtungen der Gesundheitswirtschaft gebündelt, vernetzt und weiterentwickelt werden. NRWGesundheitsminister Laumann bezeichnet dies als eine der bedeutendsten Standortentscheidungen der letzten Jahre für das Ruhrgebiet. Im Fokus der vorliegenden Diplomarbeit steht die Analyse regionaler Standortfaktoren und deren Wirkung auf die Standortwahl von bereits agierenden Unternehmen, sowie auf Unternehmen, die ihren Einstieg planen. Jeweils separat werden die vier größten Segmente der Gesundheitswirtschaft analysiert: Krankenhäuser, Pflegeheime, Apotheken und niedergelassene Ärzte. Darauf aufbauend erfolgt für jedes Segment ein eigenes Fazit. Der Autor verdeutlicht, dass die Determinanten Infrastruktur, Wettbewerb und der Arbeitsmarkt nahezu die gleiche Relevanz für die analysierten Segmente aufweisen, während sich bei den weiteren Faktoren ein differenzierteres Bild zeigt. So hat z.B. der Absatzmarkt großen Einfluss auf die Standortwahl bei Pflegeheimen und Apotheken, während er für Arztpraxen lediglich über eine durchschnittliche und für Krankenhäuser über eine nahezu untergeordnete Bedeutung verfügt. Des Weiteren wird herausgestellt, dass die vier untersuchten Bereiche bezüglich des Wachstumstrends sowie der Agglomeration in Deutschland ein deutliches Ost-West-Gefälle erkennen lassen. Exemplarisch fallen hier Brandenburg mit sehr niedrigen Werten und Schleswig-Holstein mit nahezu den höchsten Werten auf. Determinanten der räumlichen Verteilung von Gesundheitswirtschaft in Deutschland 1. Einleitung Ein deutlich verändertes Gesundheitsbewusstsein, die zunehmende Bereitschaft seitens der Bevölkerung Ausgaben für Dienstleistungen im Bereich der Gesundheitswirtschaft auszuweiten, sowie vor allem der demographische Wandel in der Bundesrepublik Deutschland haben dazu geführt, dass die Gesundheitswirtschaft heutzutage die größte und innovativste Branche in der BRD ist. Ihr Ruf als „Zukunftsbranche in Deutschland“, sowie ein konstantes und robustes Wachstum der Branche werden dazu führen, dass in den nächsten zehn Jahren mehr als 800.000 neue Arbeitsplätze entstehen. Diese hervorragenden Zukunftsperspektiven führen dazu, dass gegenwärtig unter den Standorten ein regelrechter Wettbewerb um die Ansiedlung von Unternehmen der Gesundheitswirtschaft herrscht. Die einzelnen Regionen versuchen mittels geeigneter Standortpolitik die Unternehmen für ihren Standort zu gewinnen. Es stellt sich die Frage, welche Standortfaktoren eine Region aufweisen muss, damit die Ansiedlung solcher Unternehmen positiv beeinflusst wird. Um dies beantworten zu können, beruht der Fokus dieser Arbeit auf die Analyse von regionalen Standortfaktoren und deren Wirkung auf die Standortwahl von bereits in der Gesundheitswirtschaft agierenden Unternehmen, sowie auf Unternehmen, die den Einstieg in diese Branche planen. Diese Arbeit analysiert speziell die vier größten Bereiche der Gesundheitswirtschaft: Krankenhäuser, Pflegeheime, Apotheken und niedergelassene Ärzte. Zu Beginn erfolgt eine Definition des Begriffes Gesundheitswirtschaft, bevor in einem nächsten Schritt ein Überblick über die Entwicklung und die Verteilung in Deutschland für jeden der Bereiche erfolgt. Nachdem anschließend die einzelnen Standortfaktoren beschrieben worden sind, bildet daran den Kern dieser Arbeit die Analyse der Wirkung der einzelnen allgemeinen Standortfaktoren auf die vier Segmente. Wichtig dabei ist, die einzelnen Bereiche separat zu betrachten, da die Geschäftstätigkeiten – vergleicht man z.B. ein Krankenhaus mit einer Apotheke – sehr unterschiedlich ausfallen und somit in den meisten Fällen andere Voraussetzungen hinsichtlich der Standortfaktoren gegeben sein müssen. Nach der Analyse der allgemeinen Faktoren, werden die speziellen Standortfaktoren und deren Wirkung auf die Ansiedlung untersucht. Von einer separaten Betrachtung kann hier abgesehen werden, da die Faktoren für die untersuchten Bereiche von gleicher Bedeutung und Wirkung sind. Abschließend werden die aus der Analyse gewonnen Erkenntnisse für jeden Bereich zusammengefasst und anhand von Schaubildern werden die unterschiedlich starken Einflüsse der einzelnen Standortfaktoren auf die Verteilung von Krankenhäusern, Pflegeheimen, Apotheken und niedergelassenen Ärzten weiter verdeutlicht. 2. Gesundheitswirtschaft in Deutschland Der Begriff der Gesundheitswirtschaft wird vom Bundesministerium für Wirtschaft und Technik in den so genannten „ersten“ und „zweiten“ Gesundheitsmarkt unterteilt. Der erste Markt beinhaltet die klassische Gesundheitsversorgung und umfasst den Kernbereich, zu dem sowohl ambulante und stationäre Versorgung als auch die Pflege und Apotheken zählen, sowie die Vor- und Zuliefererbereiche wie etwa die Medizintechnik. Im zweiten Markt lassen sich vor allem privat-finanzierte Dienstleistungen und Angebote finden. Hierzu zählen Fitnessstudios, Wellnessangebote und Ernährungsberatungen. Die vier untersuchten Bereiche zeigen bezüglich des Wachstumstrends deutlich Unterschiede. Während die Anzahl der Krankenhäuser, sowie die Zahl der in diesen Einrichtungen aufgestellten Betten in den letzten Jahren kontinuierlich abgenommen hat, nahm sowohl 54 Sparkasse Vest Recklinghausen Wissenschaftspreis 2008 die Ärzte- als auch die Pflegeheimanzahl deutlich zu. Die Entwicklung im Bereich der Apotheken kann als nahezu konstant angesehen werden. Auffällig ist in diesem Segment nur, dass im Jahr 2007 mit 351 Schließungen von Apotheken die Zahl um 80 Apotheken höher lag als dies noch in 2006 der Fall war. Auch die Verteilung der einzelnen Bereiche in Deutschland fällt unterschiedlich aus. Diese Arbeit konnte zeigen, dass gemessen am Verhältnis Anzahl Einrichtungen/Bevölkerungszahl eines Bundeslandes in allen vier Segmenten ein Ost-West-Gefälle zu beobachten ist. Die neuen Bundesländer sind in allen vier Bereichen in dem untersten Grenzbereich mit der niedrigsten Dichte vorzufinden. Weiter ist auffällig, dass das Bundesland Brandenburg sowohl bei der Krankenhausdichte als auch bei der Ärzte- und Apothekendichte zu den drei Bundesländern mit den niedrigsten Werten zählt. Das Bundesland Schleswig-Holstein steht hierzu in einem deutlichen Gegensatz. In den Bereichen Krankenhaus- und Pflegeheimdichte weist es die höchsten Werte auf und auch in den anderen zwei Bereichen gehört es zum oberen Mittelfeld. Anhand dieses Beispiels lassen sich am besten die Unterschiede in der Verteilung zwischen den Bundesländern verdeutlichen. 3. Analyse der Determinanten Den Kernteil der Arbeit beinhaltet die Analyse der Determinanten/Standortfaktoren die auf die Verteilung der Gesundheitswirtschaft in Deutschland Einfluss nehmen. Standortfaktoren sind in der heutigen Wirtschaft von großer Bedeutung. Sie bestimmen in erster Linie die Standortwahl und den Unternehmenserfolg. Der Begriff „Standortfaktor“ ist darauf zurückzuführen, dass die Faktoren von Raum zu Raum unterschiedliche Eigenschaften aufweisen und hinsichtlich ihrer Existenz und Qualität variieren. Im Segment der Gesundheitswirtschaft umfassen die Standortfaktoren alle standortabhängigen Kosten und Leistungsarten, da Unternehmen dieser Branche frei über die Standortwahl entscheiden können. Der Standort, der dem Unternehmen nach einer Analyse aller Vor- und Nachteile am günstigsten erscheint, wird letztendlich ausgewählt. Gerade in der Gesundheitswirtschaft sollte zwischen den allgemeinen - in der Literatur überwiegend gebräuchlichen - und den speziellen Standortfaktoren, die gerade für Unternehmen dieser Branche ausschlaggebend sein können, unterschieden werden. Im Rahmen dieser Arbeit wurden folgende allgemeine Faktoren: Infrastruktur, Arbeitsmarkt, Absatzmarkt, Wettbewerb und politische Regelungen/Leistungen und folgende spezielle Faktoren: Bevölkerungsbild einer Region und Synergieeffekte der Branche untersucht. Das Bevölkerungsbild setzt sich aus der demographischen und der gesundheitlichen Lage, sowie der Bevölkerungsentwicklung zusammen. 4. Darstellung der Forschungsergebnisse Eine für jeden der Bereiche separate Betrachtung der Ergebnisse sowie die Darstellung der Einflussnahme der verschiedenen Standortfaktoren durch Pfeildiagramme soll hier zum besseren Verständnis beitragen. Schwarz eingefärbte Faktoren besitzen einen sehr starken Einfluss auf die Verteilung, während die dunkelgraue Färbung einen starken bis mittelmäßigen und die hellgraue/weiße Färbung einen geringen bis keinen Einfluss darstellt. 55 Determinanten der räumlichen Verteilung von Gesundheitswirtschaft in Deutschland 4.1. Einflussnahme im Bereich Krankenhäuser Für Krankenhäuser zeigt die Untersuchung, dass sich die einzelnen Determinanten bzgl. ihrer Wirkung auf die räumliche Verteilung unterscheiden. In diesem Segment der Gesundheitswirtschaft sind die allgemeinen Faktoren Infrastruktur, Wettbewerb und staatliche Regelungen, sowie die speziellen Faktoren Bevölkerungsbild und Branchensynergien stark an den Standort gebunden. Bestehende Nachteile hinsichtlich dieser Faktoren können nicht oder nur schwer behoben werden. Teile des Arbeits- und Absatzmarktes sind hingegen standortunabhängig, da hier Nachteile in der Faktorenausstattung durch überregionale Tätigkeiten kompensiert werden können. Aus dieser Gliederung geht hervor welche Standortfaktoren von besonderer Bedeutung sind, da im Bereich der Krankenhäuser der Einfluss der standortabhängigen Faktoren größer sein wird. Abb. 1: Einflüsse auf die Verteilung von Krankenhäusern Für die Verteilung der Krankenhäuser spielen insbesondere die Infrastruktur und der Wettbewerb als allgemeine Faktoren und das Bevölkerungsbild einer Region als spezieller Standortfaktor eine entscheidende Rolle. Sowohl die geographische Auswertung als auch die Internetrecherche konnte den Stellenwert der Infrastruktur für Kliniken zeigen. In Zeiten, in denen zunehmend auch ausländische Patienten behandelt werden, kommt es neben den regionalen Verkehrsanbindungen auch auf eine gute überregionale Infrastruktur an. Es verwundert nicht, dass jedes der untersuchten Krankenhäuser mit dem ÖPNV gut erreichbar ist, mehr als die Hälfte der Einrichtungen sich in direkter Nähe eines internationalen Flughafens befindet und alle Häuser direkt an Autobahnen oder großen Bundesstraßen liegen. Zudem konnte die Bedeutung der 56 Sparkasse Vest Recklinghausen Wissenschaftspreis 2009 Infrastruktur durch die Auswertung der Internetseiten der Krankenhäuser bestärkt werden. Jede der Seiten informiert ausführlich über Verkehrsanbindungen und Anfahrtswege. In gleicher Weise beeinflusst der Wettbewerb die räumliche Verteilung. Dieser wurde durch die verbindliche Einführung der DRG erheblich verschärft. Für Krankenhäuser ist es somit notwendig, wirtschaftlich zu agieren. Hierzu muss insbesondere die eigene Wettbewerbsfähigkeit eingeschätzt werden. Der Wettbewerb als Standortfaktor wird zudem durch eine stark zunehmende Markttransparenz verschärft. Hierzu leistet besonders das Internet seinen Beitrag. Krankenhäuser müssen heute eine geeignete Strategie entwickeln, um sich gegenüber der standortabhängigen Konkurrenz zu behaupten. Die Bedeutung des Wettbewerbs wird durch die Umfrage ‚Krankenhausbarometer 2007’ weiter gestärkt. In den deutschen Krankenhäusern besitzen qualitätsorientierte Ziele oberste Priorität, da der Wettbewerb unter den Krankenhäusern über die Qualität ausgetragen wird. Neben diesen beiden Determinanten kommt dem Bevölkerungsbild einer Region hinsichtlich der Verteilung die gleiche Bedeutung zu. Hier muss besonders die demographische Lage betrachtet werden. Für Krankenhäuser in Regionen mit einem überdurchschnittlichen Anteil älterer Menschen erhöht sich die Chance, Auslastungen zu generieren, die es erlauben betriebswirtschaftlich zu handeln. In einer Zeit, in der gegenwärtig viele Einrichtungen um die Existenz bangen müssen, haben entsprechend jene Krankenhäuser einen Vorteil, die in diesen Regionen angesiedelt sind. Umgekehrt könnte dies bedeuten, dass Krankenhäuser in Gebieten, in denen viele junge Menschen leben, eher von einer Schließung bedroht sein könnten. Die Differenzen in der Altersstruktur der Menschen in den verschiedenen Bundesländern konnte anhand von Alterspyramiden nachgewiesen werden. Daneben zeigten sich auch Unterschiede in der Fallzahl einiger Krankheiten. Für die Verteilung von Krankenhäusern könnte dies bedeuten, dass sich jene Kliniken, die auf bestimmte Krankheiten spezialisiert sind, in solchen Regionen befinden, in denen stark erhöhte Fallzahlen vorliegen. Die staatlichen Regelungen besitzen ebenfalls einen Einfluss auf die Verteilung. Allerdings kann dieser schwächer bewertet werden, als bei den drei bereits aufgezählten Faktoren. Wie die Arbeit zeigen konnte, vernachlässigen die Bundesländer ihre Pflicht, Investitionen der Krankenhäuser zu finanzieren. Aktuell wird von einem sogenannten Investitionsstau gesprochen. Die Analyse der Fördermittel ergab, dass zwischen den Bundesländern gewaltige Unterschiede hinsichtlich der Höhe der Mittel bestehen. Folglich werden Krankenhäuser in Regionen, in denen die Politik der Finanzierung nachkommt, zum einen besser mit medizinischen Geräten ausgestattet sein und zum anderen verringert sich durch Zuschüsse die Gefahr der Insolvenz. Im Endeffekt bedeutet dies nichts anderes als das die Schließungsquote von Krankenhäusern insgesamt in Regionen mit hohen Fördermitteln niedriger sein und somit die Verteilung beeinflusst werden wird. Branchensynergien sind für Krankenhäuser wichtig, werden aber die Verteilung weniger stark beeinflussen. Die Neigung von Krankenhäusern auf die Einweisungsempfehlungen des Arztes mittels Kopfgeld und Bestechung Einfluss zu nehmen ist anscheinend groß. Da jedoch anzunehmen ist, dass sich einzelne Regionen hinsichtlich dieser Situation nicht unterscheiden, kann man dies nicht als spezifischen Vorteil einer Region deklarieren. Die Bedingungen werden in jeder Region gleich sein. Auch die Auslagerung von Vor- und Nachversorgungen auf niedergelassene Ärzte, als ein weiterer Synergieeffekt, wird zwischen den Regionen nur bedingt zu divergierenden Vorteilen beitragen. Die Standortfaktoren regionaler Arbeits- und Absatzmarkt sind im Bereich der Krankenhäuser nur teilweise an den Standort gebunden und üben somit den geringsten Einfluss auf die Verteilung aus. 57 Determinanten der räumlichen Verteilung von Gesundheitswirtschaft in Deutschland In einem Krankenhaus ist eine große Anzahl an Arbeitskräften beschäftigt, die zum Großteil aus Pflegekräften und Ärzten besteht. Sicherlich ist es vorteilhaft, wenn der regionale Arbeitsmarkt einen ausreichend qualifizierten Arbeitskräftepool aufweist, wodurch bei der Einstellung von Arbeitskräften Kosten in Form von Rekrutierungs- und Verhandlungskosten eingespart werden können. Differenzen zwischen den Bundesländern konnten auch hier hinsichtlich der Bildungsstruktur der Bevölkerung nachgewiesen werden. Das Hauptargument für einen geringen Einfluss des Arbeitsmarkts ist die Kompensierung von mangelnden qualifizierten Arbeitskräften durch die Mobilität des Faktors Arbeit. Dies ermöglicht Krankenhäusern ihre Nachfrage nach Arbeitskräften überregional auszuweiten um mittels attraktiver Angebote, Ärzte und Pfleger – die gegenwärtig ohnehin schon in großem Maße über schlechte Arbeitsbedingungen klagen – anzuziehen. Der Absatzmarkt ist gerade in diesem Segment der Gesundheitswirtschaft durch einen breiten Kundenkreis charakterisiert. Vielfach werden die Krankenhausleistungen von Patienten aus anderen Regionen nachgefragt. Patienten aus dem Ausland gehören heute zur Tagesordnung. Hinsichtlich der Kaufkraft konnte gezeigt werden, dass die Leistungen der Krankenhäuser von den Krankenkassen bezahlt werden und somit die Kaufkraft der Bevölkerung einer Region nicht betrachtet werden muss. Die Untersuchung des Kundenpotentials verdeutlichte weiter, dass die Behandlung von Privatpatienten dem Krankenhaus finanzielle Vorteile schafft. Trotz einer unterschiedlichen Konzentration dieser Patienten in den Bundesländern wird die Verteilung von Krankenhäusern im Bundesgebiet nicht beeinflusst, da lediglich 10 Prozent der Deutschen in 2007 privatversichert waren. Bayern wies den höchsten Anteil mit 16,6 Prozent auf, was im Vergleich zu gesetzlich Versicherten immer noch sehr gering ist. Dies zeigt, dass der Absatzmarkt am Standort aufgrund breiter Kundenkreise und der untergeordneten Rolle der Kaufkraft kaum eine Rolle spielt. 4.2. Pflegeheime Anders als im Bereich der Krankenhäuser, müssen hier bei allen Standortfaktoren nur die regionalen Begebenheiten analysiert werden. Zugleich bedeutet dies, dass keine Unterteilung in standortabhängige und standortunabhängige Faktoren erfolgt, da mögliche Nachteile eines Standortes nicht oder nur unter sehr großen Anstrengungen beseitigt werden können. Dieser Sachverhalt soll jedoch nicht dazu verleiten lassen, dass alle Faktoren in gleichem Maße Einfluss auf die Verteilung ausüben. Auch im Bereich der Pflegeheime beeinflussen einige Determinanten die Verteilung stärker als andere. In erster Linie wird die Verteilung hier durch den Absatzmarkt und das Bevölkerungsbild eines Standortes determiniert, wobei aber auch der Infrastruktur sowie dem Wettbewerb hierbei eine hohe Bedeutung zukommt. 58 Sparkasse Vest Recklinghausen Wissenschaftspreis 2009 Abb. 21: Einflüsse auf die Verteilung von Pflegeheimen Der Absatzmarkt ist durch eine preissensitive Nachfrage gekennzeichnet, da Patienten eine hohe Eigenbeteiligung an den Kosten für eine Heimunterkunft tragen müssen. Daraus folgt, dass Standorte mit einem hohen Kundenpotential, hier definiert über die Kaufkraft, unter ansonsten gleichen Standortbedingungen anderen Orten vorgezogen werden. In diesem Fall erhöht sich die Chance, dass mehr Menschen zu potentiellen Kunden werden und die Leistungen eines Heimes nachfragen. Weiter zeigte die Untersuchung, dass nicht nur die Kaufkraft der Pflegebedürftigen, sondern auch die der Angehörigen häufig eine Rolle spielt, da diese in vielen Fällen die Kosten der Versorgung tragen. Eine ausgewogene Kaufkraft bildet demnach die Basis für die Nachfrage von Leistungen der Heime in einer Region. Es muss dabei beachtet werden, dass Pflegeheime sich überwiegend auf den regionalen Absatzmarkt konzentrieren müssen, da viele Menschen die Heime in ihrer Wohnumgebung auswählen und somit in den seltensten Fällen eine überregionale Nachfrage besteht. Im gleichen Sinne beeinflusst die demographische Situation als Komponente des Bevölkerungsbildes die Verteilung. Der Anteil pflegebedürftiger, alter Menschen in einer Region beeinflusst stark die Nachfrage nach Heimplätzen. Die Nachfrage liegt dabei höher, je größer die Konzentration von älteren Menschen an einem Ort ist. Folglich bildet die ältere Generation den zweiten Bestandteil der Basis der Nachfrage. Die Verteilung wird ebenfalls deutlich durch die Infrastruktur, den Wettbewerb und den regionalen Arbeitsmarkt beeinflusst. Der Standortfaktor Infrastruktur zielt hier insbesondere auf die regionalen Begebenheiten ab, da wie schon angesprochen, die Nachfrager ihr Wohnumfeld nur selten für einen Heimplatz verlassen werden. Besonders wichtig ist hier eine gute Erreichbarkeit, sowohl für Heimbewohner als auch für Besucher, Angehörige und Ärzte. Zur Infrastruktur müssen im Bereich der Heime auch Übernachtungsmöglichkeiten in Betracht gezogen werden. Die Ergebnisse der Untersuchung können durch die Publikation „Auf der Suche nach einem 59 Determinanten der räumlichen Verteilung von Gesundheitswirtschaft in Deutschland Heim“ belegt werden. Den Menschen wird bei der Wahl eines Pflegeheims ausdrücklich geraten, auf die infrastrukturellen Begebenheiten zu achten. Gleichzeitig bedeutet dies für Heime, eine gute Infrastruktur aufweisen zu müssen, damit potentielle Kunden sich für ihr Heim entscheiden. Daher verwundert es nicht, dass auf den Internetseiten der Heime besonders die Lage und die Anbindungen deutlich hervorgehoben werden. Gleichbedeutend mit der Infrastruktur ist die Wirkung des Wettbewerbs. Anders als im Bereich der Krankenhäuser besteht hier ein Qualitäts- sowie Preiswettbewerb. Aufgrund gestiegener Markttransparenz und der Einführung von Qualitätsprüfungen werden Heime langfristig nur dann am Markt bestehen können, wenn sie dem Kunden ein gutes Preis-Leistungs-Verhältnis anbieten. Folglich muss die Konkurrenz am Standort analysiert werden. Aus diesem Grund sind Standorte bevorzugt, bei denen sicher gestellt ist, dass die Konkurrenz keinen negativen Einfluss ausüben kann. Der schlechte Ruf des Berufes der Pflegekraft und hohe Belastungen bei vergleichsweise schlechter Bezahlung lassen es an qualifizierten Nachwuchs mangeln, während die Anzahl von Pflegekräften aufgrund der demographischen Entwicklung abnehmen wird. Einem gut qualifizierten regionalen Arbeitskräfteangebot kommt demnach im Bereich der Heime eine hohe Bedeutung zu, die sich auch dadurch zeigt, dass gegenwärtig die Bundesländer beginnen neue Ausbildungsplätze in der Pflege zu schaffen und zu fördern, um so den personellen Notstand zu verhindern. Die Wahl der Niederlassung eines Heimes kann so stark beeinflusst werden und somit insgesamt auch die Verteilung in Deutschland. Eine weniger große Bedeutung bei der Verteilung kommt den Branchensynergien zu. Zwar beeinflussen Ärzte neben anderen Elementen ebenfalls die Wahl des richtigen Heimes, allerdings trifft dies nur für 18 Prozent der Bevölkerung zu. Der Einfluss von politischen Regelungen konnte im Rahmen dieser Arbeit lediglich angerissen werden. Da jedes Bundesland sein eigenes Pflegegesetz besitzt, wäre hier eine sehr umfangreiche Behandlung nötig, die den Rahmen dieser Arbeit überschreiten würde. Allerdings konnte im Großen und Ganzen gezeigt werden, dass den einzelnen Ländern ein Spielraum hinsichtlich der Ausgestaltung ihres Aufgabenbereichs überlassen wird der dazu führt, dass größere Differenzen zwischen den Landesförderprogrammen bestehen. Es kann davon ausgegangen werden, dass Heime in Regionen mit guter Förderung gegenüber Heimen in anderen Regionen Vorteile besitzen. 4.3. Niedergelassene Ärzte Ärzte, die ihre eigenen Praxen führen, müssen in erster Linie mit den Attributen Vorlieb nehmen, die im Umfeld des Standortes vorzufinden sind. Auch hier sind überregionale Sachverhalte nicht von Belang. Aus der Untersuchung geht deutlich hervor, dass die Verteilung niedergelassener Ärzte eindeutig durch den Standortfaktor politische Regelungen geprägt wird. 60 Sparkasse Vest Recklinghausen Wissenschaftspreis 2009 Abb. 22: Einflüsse auf die Verteilung niedergelassener Ärzte. Quelle: eigene Darstellung basierend auf den Untersuchungsergebnissen Die Politik steuert über die Regelung der Bedarfsplanung aktiv die Verteilung von Arztpraxen in der BRD um eine Unter- bzw. Überversorgung eines Planungsbereiches zu vermeiden. Den Ärzten stehen lediglich die Gebiete für eine Niederlassung zur Verfügung, die nach den politischen Regelungen als offen gelten. Für Fachärzte herrscht gegenwärtig eine faktische Niederlassungssperre, da viele Bereiche geschlossen sind. Anders sieht es bei Hausärzten aus, die sich derzeitig eher an einer Niederlassungsfreiheit erfreuen, da hier mehr als die Hälfte der Bereiche als offen ausgewiesen sind. Die Bedarfsplanung wird in Zukunft dazu führen, dass sich vermehrt Ärzte in ländlichen Regionen und im Osten Deutschlands niederlassen, denn hier herrscht zumeist eine Unterversorgung. Für Ärzte ist es daher sinnvoll, die Bedeutung der anderen Standortfaktoren erst dann zu analysieren, wenn die offenen Bereiche bekannt sind. Bei dieser Analyse muss besonders der Infrastruktur, dem Wettbewerb und dem Bevölkerungsbild, als die Faktoren mit dem größten Einfluss auf die Verteilung, Aufmerksamkeit geschenkt werden. Aber auch der Absatzmarkt nimmt immer mehr an Bedeutung zu, während der regionale Arbeitsmarkt für Ärzte keine hohen Ansprüche erfüllen muss. Effekte durch Branchensynergien sind in Bezug auf ihre Wirkung auf die Verteilung in zwei Sachverhalte zu gliedern. Die Untersuchung der Infrastruktur ergab, dass sowohl Patienten, als auch Ärzte selbst bei Hausbesuchen auf eine verkehrsgünstige Lage angewiesen sind. Der Einfluss der Infrastruktur auf die Verteilung niedergelassener Ärzte führt dazu, dass viele ländliche Gegenden als unterversorgt gelten, während große Städte wie etwa München deutlich über dem Soll liegen. Dies ist damit zu begründen, dass in urbanisierten Gebieten die Infrastruktur deutlich besser angesehen werden kann als auf dem Land. Ebenfalls sind die Wege, die zurückgelegt werden müssen, in Städten meist geringer. Der Einfluss der Infrastruktur auf die Verteilung muss damit als hoch angesehen werden. 61 Determinanten der räumlichen Verteilung von Gesundheitswirtschaft in Deutschland Neben der Infrastruktur beeinflusst ebenso der Faktor Wettbewerb die Verteilung. Hier zeigte die Analyse, dass sich die Konkurrenzsituation mit Inkrafttreten des Modernisierungsgesetztes verschärft hat. Es muss zwischen direkten und indirekten Konkurrenten unterschieden werden. Zudem treten Krankenhäuser sowie Medizinische Versorgungszentren (MVZ) als neue Konkurrenten in den Markt. Die neue Konkurrenz führte dazu, dass sich bereits im Jahr 2006 31,8 Prozent der Ärzte einem starken Wettbewerb ausgesetzt sahen. Ein Indiz dafür, dass niedergelassene Ärzte sich bevorzugt in Gebieten niederlassen werden, in denen sie gegenüber der Konkurrenz hinsichtlich der Qualität und Preise bestehen können. Wie schon in den anderen beiden Bereichen muss dem Bevölkerungsbild ebenfalls ein hoher Einfluss auf die Verteilung zugesprochen werden. Die demographische Struktur der Bevölkerung am Standort ist für alle Ärzte unterschiedlicher Fachrichtung von Bedeutung. Kinderärzte werden zwangsläufig wirtschaftlich besser agieren wenn sie in Gebieten mit einer hohen Kinderdichte niedergelassen sind. Für Hausärzte hingegen lohnt es sich eher in Gegenden anzusiedeln, in denen viele ältere Menschen leben, da diese den größten Anteil der Patienten bilden. Auf die Verteilung der Fachärzte wird so über die demographische Lage einer Region großen Einfluss ausgeübt. Mit zunehmender Bedeutung der „IGeL- Leistungen“ verstärkt sich gleichzeitig der Einfluss des Absatzmarktes auf die Verteilung. Besonders der Kaufkraft muss jetzt eine hohe Aufmerksamkeit zukommen, da die vom Arzt angebotenen IGeL- Leistungen vom Patienten selbst bezahlt werden müssen. Neben der Kaufkraft spielt auch der Anteil der Privatpatienten hinsichtlich des Absatzmarktes eine Rolle, da diese besonders für Ärzte eine sehr lukrative Einnahmequelle darstellen. Der Standortfaktor Absatzmarkt beeinflusst die Verteilung in dem Maße, dass Regionen mit hoher Kaufkraft und einem hohen Anteil privat Versicherter für die wirtschaftliche Lage einer Praxis deutlich vorteilhafter sind. Der Faktor Arbeitsmarkt übt wie schon erwähnt keinen großen Einfluss aus, während im Bereich der Synergieeffekte zwischen zwei Konstellationen unterschieden werden muss. Der regionale Arbeitsmarkt wird von niedergelassenen Ärzten sondiert, um geeignete, qualifizierte Arzthelfer zu suchen, die gerade zu Beginn für Einzelpraxen enorm wichtig sind. Allerdings kann der Einfluss als eher gering angesehen werden, da die Qualität der geleisteten Arbeit in erster Linie von der Qualifikation des Arztes abhängig ist. Der Arzt repräsentiert somit selbst die wichtigste Arbeitskraft einer Arztpraxis. Damit kommt die Untersuchung zu der Erkenntnis, dass der regionale Arbeitsmarkt keinen großen Einfluss auf die Verteilung von Ärzten in der BRD ausübt. Der Standortfaktor Synergieeffekte der Branche muss differenziert betrachtet werden, je nachdem ob Ärzte ihre eigene unabhängige Praxis eröffnen möchten oder beabsichtigen sich einem MVZ anzuschließen. Im ersten Fall ist der Einfluss auf die Verteilung sehr gering. Für den zweiten Fall kann sich der Einfluss schlagartig ändern, da sich mit dem Anschluss an ein MVZ viele Vorteile hinsichtlich Kosten und Patientenzulauf verbinden. Besonders die Reduktion der Kosten im Gegensatz zu einer selbständig geführten Praxis bieten Anreize sich einem MVZ anzuschließen. Im Endeffekt zeigt die Analyse also, dass MVZ die Wahl des Niederlassungsstandortes sehr wohl beeinflussen können. 62 Sparkasse Vest Recklinghausen Wissenschaftspreis 2009 4.4. Apotheken Die Verteilung der Apotheken in der BRD hängt von mehreren standortabhängigen Faktoren ab. Wie die Untersuchung zeigt, wird der Einfluss auf die Verteilung vorwiegend durch die Infrastruktur und den Absatzmarkt eines Standortes determiniert. Der Wettbewerb und die Effekte der Branchensynergien repräsentieren dahinter die zweitgrößte Einflusskraft, während der Arbeitsmarkt für die Verteilung an Bedeutung zunimmt. Die Verteilung wird dagegen von politischen Regelungen und dem Bevölkerungsbild einer Region nicht tangiert. Abb. 23: Einflüsse auf die Verteilung von Apotheken Für Apotheken kann belegt werden, dass diese bevorzugt in Gegenden mit einer guten Infrastruktur gelegen sind. Es verwundert daher nicht, dass 44,07 Prozent aller Apotheken in einer Großstadt ansässig sind. Weiter wurde gezeigt, dass Einrichtungen, die sich in Lauflagen befinden, über stark erhöhte Kundenfrequenzen verfügen und damit auch überdurchschnittliche Gesamtumsätze erwarten können. Die Erreichbarkeit für Fußgänger steht damit ganz deutlich im Mittelpunkt der infrastrukturellen Auswertung. Gerade die Möglichkeit Gesamtumsätze zu generieren, die 29,4 Prozent über dem Durchschnitt liegen, begünstigt die Verteilung von Apotheken zu Gunsten der Städte. Dem Absatzmarkt kommt eine gleichbedeutende Wirkung zu. Die Analyse dieses Faktors zeigt, dass hier insbesondere die Kaufkraft der Bevölkerung am Standort aufgrund zweierlei Sachverhalte von Bedeutung ist. Zum einen besteht in der deutschen Bevölkerung ein Trend zur Selbstmedikation und zum anderen muss die Selbstbeteiligungsregelung hinsichtlich verschreibungspflichtiger Medikamente beachtet werden. Für die Nachfrage nach verschrei- 63 Determinanten der räumlichen Verteilung von Gesundheitswirtschaft in Deutschland bungspflichtigen und frei verkäuflichen Arzneimitteln bildet die Kaufkraft die enorm wichtige Basis. Demnach wird ein Apotheker einen Standort mit hoher Kaufkraft unter ansonsten gleichen Bedingungen eindeutig vorziehen. Einem nicht wesentlich geringeren Einfluss kommt dem Wettbewerb und den Synergieeffekten zu. Während in der Vergangenheit die Konkurrenz lediglich aus niedergelassenen Apotheken bestand, so muss diese heute um Versandapotheken und Drogeriemärkte erweitert werden. Tatsächlich spielt für die Verteilung allerdings nur die am Standort niedergelassene Konkurrenz eine Rolle, da Versandapotheken überregional agieren und somit jeder Standort in der BRD gleichermaßen betroffen ist. Apotheker werden versuchen die Standorte zu meiden, die bereits hohe Apothekendichten aufweisen. Ferner hat die Untersuchung des Apothekenmarkts gezeigt, dass der Erfolg einer Apotheke von den Synergieeffekten der Branche abhängt. Die Effekte werden hier vor allem über die niedergelassenen Ärzte generiert. Es konnte gezeigt werden, dass Apotheken in der Nähe von Arztpraxen sowie Ärztehäusern deutlich erfolgreicher wirtschaften als an anderen Standorten. Der Grund hierfür ist eine erhöhte Verschreibungsdichte und eine größere Anzahl an Kassenrezepten. Die Nähe zu Arztpraxen und eine hohe Anzahl niedergelassener Ärzte spielen demnach eine Rolle bei der Standortwahl und nehmen so Einfluss auf die Verteilung. Der Einfluss des Arbeitsmarktes ist in der letzten Zeit angewachsen, da der Trend zu mehr Personal mit höherer Qualifikation neigt. Der wachsenden Bedeutung wird heute dadurch Rechnung getragen, dass in jedem Bundesland - ausgenommen Bremen - Pharmazie als Studiengang angeboten wird. Die Standortfaktoren politische Regelungen und das Bevölkerungsbild einer Region nehmen hier keinen Einfluss auf die Verteilung. Im Rahmen dieser Arbeit konnte kein Bezug zwischen politischen Regelungen und dem Apothekenmarkt bezüglich der Verteilung ausgemacht werden. Grundsätzlich besteht für Apotheken eine Niederlassungsfreiheit. Hinsichtlich des Bevölkerungsbildes einer Region zeigt die Analyse, dass für Apotheken gerade ein Mix an jüngeren und älteren Kunden von Vorteil ist, da ältere Menschen zwar häufiger Medikamente nachfragen, die jüngeren Kunden hingegen häufiger auf die Selbstmedikation zurückgreifen. Wichtigste Literatur: ABDA Bundesvereinigung Deutscher Apothekenverbände: Jahresbericht 07/08, Eschborn o.J. Breyer, Friedrich; Zweifel, Peter; Kifmann Mathias: Gesundheitsökonomie, 5. Auflage, Heidelberg 2005 Bundesministerium für Wirtschaft und Technologie: Schlaglichter der Wirtschaftspolitik – Sonderheft der Gesundheitswirtschaft, Berlin August 2008 Grönemeyer, Dietrich: Gesundheitswirtschaft –Die Zukunft für Deutschland, Berlin 2005 Lohmann, Heinz; Kehrein, Ines: Vision Gesundheit – Innovationsfaktor Gesundheitswirtschaft: Die Branche mit Zukunft, Band 5 RWI Essen: Pflegeheim Rating Report 2007 – Wachstum und Restrukturierung, Heft 39 Statistisches Bundesamt: Die Bundesländer – Strukturen und Entwicklung, Ausgabe 2008, Wiesbaden März 2008 64 Kathrin Koziel, Bachelor of Laws geboren am 7. Oktober 1982 Bewertung eines nicht-börsennotierten Unternehmens am praktischen Beispiel einer Private Equity Beteiligung Bachelorarbeit, eingereicht im Sommer 2008 bei Professor Dr. Thomas Heide Fachbereich Wirtschaftsrecht Fachhochschule Gelsenkirchen, Abt. Recklinghausen In Deutschland wurden 2008 über 1.100 Projekte vom Start-up bis zum Großunternehmen durch Beteiligungskapital in Höhe von rd. 8,4 Mrd. € finanziert. Diese vom Bundesverband deutscher Kapitalbeteiligungsgesellschaften veröffentlichten Zahlen verdeutlichen die Aktualität der vorliegenden Bachelorarbeit, auch wenn der Private Equity-Markt im ersten Quartal 2009 angesichts der Finanz- und Wirtschaftskrise bereits eine deutliche Korrektur erlebte. Dieser Hintergrund veranschaulicht sehr deutlich, dass das Thema der Unternehmensbewertung hohe praktische Relevanz besitzt. So stellt insbesondere in den ersten Jahren die Anschlussbewertung eines Private Equity Unternehmens eine große Herausforderung auch für die finanzierenden Banken dar. Die vorliegende Arbeit analysiert anhand der Discounted Cashflow Analyse und der Multiplikatoranalyse eine nicht-börsennotierte Gesellschaft, die im Rahmen eines Leveraged Buyouts übernommen wurde. Die Autorin zeigt Anwendungsprobleme und Anpassungserfordernisse sowie mögliche Lösungsansätze hierzu auf. In Ihrem Fazit weist die Autorin insbesondere auf die mannigfaltigen Probleme bei der korrekten Evaluation einer Private Equity Beteiligung hin. So werden tiefgreifende Einblicke in die Prozesse und Strukturen des Unternehmens, sowie der Zugang zu Planzahlen und Entwicklungsplänen zwingend für erforderlich erachtet. Eine Bewertung mit Hilfe des Discounted Cashflow Verfahrens mit WACC könne im Vergleich als genauer und zuverlässiger betrachtet werden, jedoch werde in der Praxis häufig das Multiplikatorverfahren als Plausibilisierung hinzugezogen. Abschließend wird resümiert, dass eine Fair Value Bewertung eines nicht-börsennotierten Unternehmens in der Praxis stets eine Herausforderung darstellt, aber insbesondere nach gründlicher Auseinandersetzung mit dem Unternehmen und den einzelnen Bewertungsmethoden möglich sein sollte. Bewertung eines nicht-börsennotierten Unternehmens am praktischen Beispiel einer Private Equity Beteiligung 1. Einleitung in das Thema der Bachelorarbeit Die Finanzkrise beherrscht seit geraumer Zeit die Nachrichten wie kaum ein anderes Thema. Das Ausmaß der Krise und all ihre Folgen sind immer noch nicht in vollem Umfang zu erkennen. Insbesondere zum Jahresende 2008 wurde deutlich, dass diese Krise maßgebliche Auswirkungen auch auf die Unternehmensbewertung – in der Bankenlandschaft – hat. Das Thema der Unternehmensbewertung von nicht-börsennotierten Unternehmen ist von hoher praktischer Relevanz, da Private Equity Beteiligungen in den vergangenen Jahrzehnten mehr und mehr an Bedeutung gewonnen haben. Nach einer Investitionsentscheidung in ein Private Equity Unternehmen, stellt insbesondere die Anschlussbewertung einer solchen Beteiligung eine Herausforderung dar. Diese besteht insbesondere in den ersten Jahren nach Übernahme des Unternehmens durch Investoren, da in dieser Zeit durch hohe Fremdkapitalanteile und laufende Umstrukturierungen meist negative Ergebnisse erzielt werden. Eine Bewertung solcher Beteiligungen zum Fair Value ist jedoch zwingend notwendig für Unternehmen, die nach den International Financial Reporting Standards (IFRS) bilanzieren.1 Der Ansatz zu fortgeführten Anschaffungskosten ist gemäß IAS 39 nur in Ausnahmefällen gestattet. Dieser wird den Unternehmen nur dann zugestanden, falls der Fair Value nicht zuverlässig bestimmt werden kann. Von einem Finanzinstitut wird jedoch erwartet, dass ein Fair Value ermittelt werden kann. In der Bankpraxis muss eine solche Bewertung im Rahmen der Zwischen-berichtserstattung zumindest einmal im Quartal vorgenommen werden. Die Bestimmung des Fair Value einer Private Equity Beteiligung gestaltet sich in der Praxis jedoch äußerst schwierig und hat im Rahmen der gegebenen Ermessensspielräume einen erheblichen Einfluss auf die Bilanz und die Gewinn- und Verlustrechnung des Investors. Daher werden innerhalb der Banken meist eigenständige Teams mit Spezialexpertise gebildet. Bei der der vorliegenden Arbeit zugrunde liegenden Beteiligung handelt es sich um eine nicht-börsennotierte Gesellschaft, die im Rahmen eines Leveraged Buyouts (LBO) übernommen wurde. Besonders charakteristisch für solche Transaktionstypen ist die Finanzierung des Kaufpreises überwiegend durch Fremdkapital, insbesondere vorrangig besicherte Bankdarlehen (so genannte Senior Loans). Das Eigenkapital wird zumeist von den Private Equity Gesellschaftern bereitgestellt. Für den praktischen Teil der Arbeit wurde eine Private Equity Beteiligung der Bank AG ausgesucht, die einen 1%igen Anteil am Eigenkapital der „The Orange Company B.V.“ („Orange“) hält2. Orange ist ein Unternehmen, welches hauptsächlich in der Informations- und Medienbranche agiert. Hauptsitz der Gesellschaft sind die Niederlande. Im Jahre 2006 wurde das Unternehmen von der Black Acquisition B.V. („Black“), einer Akquisitionsgesellschaft, die von mehreren Investmentfonds zum Zwecke der Akquisition gegründet wurde, übernommen und ist seitdem in Privateigentum. Orange ist im Bereich Information Services und Market Research tätig. Im Rahmen dieser Arbeit wird die Bewertung anhand der in der Praxis am häufigsten angewandte Verfahren der Discounted Cashflow Analyse und der Multiplikatoranalyse vorgenommen. Die Kapitalmarktorientierung dieser Verfahren führt aber zu Anwendungsproblemen bei der Bewertung von Private Equity Beteiligungen. Aus diesem Grund können diese Verfahren nicht ohne Anpassungen für ein im Rahmen eines LBO’s übernommenen 1 Gemäß Art. 4 der Verordnung (EG) Nr. 1606/2002 des Europäischen Parlaments und des Rates vom 19.7.2002 müssen alle Unternehmen, deren Wertpapiere in einem beliebigen EU-Mitgliedsstaat zum Handel in einem geregelten Markt zugelassen sind, für ab dem 1.1.2005 beginnende Wirtschaftsjahre verpflichtend die IFRS anwenden. 2 Aus Vertraulichkeitsgründen ist der Name der Bank und der zu bewertenden Gesellschaft und allen verbundenen Unternehmen von der Verfasserin geändert worden. Dies gilt auch für den im Literaturverzeichnis angegebenen Jahresabschluss. 66 Sparkasse Vest Recklinghausen Wissenschaftspreis 2008 Private Equity Unternehmen angewandt werden. Die zugrunde gelegten Parameter zur Berechnung des Unternehmenswertes sind für eine solche Beteiligung auf Grund ihrer besonderen Struktur schwierig zu ermitteln. Die Besonderheiten, die bei einer solchen Bewertung auftreten, werden in der vorliegenden Arbeit hervorgehoben und mögliche Lösungsansätze kritisch diskutiert. Die Anwendung von mehreren Verfahren empfiehlt sich insbesondere vor dem Hintergrund der Plausibilisierung der Ergebnisse. Ausgangspunkt für eine Bewertung sind stets die veröffentlichten Abschlüsse der Gesellschaft und deren Anlagen. Die Anforderungen an die veröffentlichten Abschlüsse der Unternehmen können besonders im Private Equity Bereich sehr unterschiedlich sein. Nicht alle benötigten Informationen sind daher leicht zugänglich oder überhaupt verfügbar. Die Grundlage für eine Bewertung muss daher durch genaue Analysen aller zugänglichen Informationen und vor allem eigene Annahmen erweitert werden. Um die zugrunde liegenden Parameter der Bewertung zu berechnen müssen folglich die Bilanz, sowie die Gewinn- und Verlustrechnung der vergangenen Jahre ausgewertet werden. 2. Die Bilanz und Gewinn- und Verlustrechnung der Orange Company Mit Hilfe des veröffentlichten Jahresabschlusses der Orange Company kann in einem ersten Schritt eine genaue Analyse der Einnahmen getätigt werden. Diese wird im Detail für die Geschäftsbereiche und Regionen vorgenommen. Demnach erwirtschaftet Orange im Bereich Information Services 56% der Einnahmen. Rund 66% der Einnahmen werden zudem in der Region Americas erwirtschaftet, wobei 56% zu den USA zu allokieren sind.3 Zum Bilanzstichtag 31. Dezember 2007 verfügte Orange über eine Bilanzsumme von rund $16 Mrd. (siehe Abbildung 1). Der aktivierte Goodwill machte knapp 48% der gesamten Vermögenswerte aus. Dies ist ein enorm hoher Wert, der im Rahmen der vorzunehmenden Bewertung berücksichtigt werden muss. Der aktivierte Goodwill entsteht dann, wenn die Anschaffungskosten einer Beteiligung höher als die Differenz aus Vermögensgegenständen und Schulden sind. Die akquirierende Gesellschaft, erwartet folglich einen höheren Nutzenzufluss. Mit 33% der Bilanzsumme sind weitere immaterielle Vermögenswerte auf der Aktivseite bilanziert. Demnach fallen allein 81% der Vermögenswerte auf den Goodwill und die anderen immateriellen Vermögenswerte.4 Abb. 1: Die Bilanz und Gewinn- und Verlustrechnung der Orange Company Datenquelle: The Orange Company: Annual Report 2007 pursuant to section 13 or 15(d) of the securities exchange act of 1934, S.73 3 Vgl. The Orange Company: Annual Report 2007 pursuant to section 13 or 15(d) of the securities exchange act of 1934, S.128 4 Vgl. Ebenda, S.89 67 Bewertung eines nicht-börsennotierten Unternehmens am praktischen Beispiel einer Private Equity Beteiligung Den größten Posten der Passivseite machen die langfristigen Verbindlichkeiten des Unternehmens mit rund $10 Mrd. aus. Das Eigenkapital beträgt knapp $4 Mrd. und macht somit lediglich 24% der Bilanzsumme aus. Dies ist eine typische Finanzierungsstruktur für ein LBO. Ungefähr 66% des langfristig aufgenommenen Fremdkapitals sind durch so genannte Senior Secured Credit Facilities abgedeckt. Dem Jahresabschluss der Orange Company ist der Fair Value des langfristigen Fremdkapitals zu entnehmen und ist im Rahmen der Bewertung der Orange Company als solcher anzusehen. Ebenfalls angegeben ist die durchschnittliche Verzinsung der Senior Secured Credit Facilities und der Debenture Loans und des gesamten langfristigen Fremdkapitals. Letzteres wird mit durchschnittlich 8,24% verzinst. Das langfristige Fremdkapital wurde überwiegend in USD aufgenommen.5 Bezüglich der für die DCF mit Weighted Average Cost of Capital benötigten Zielkapitalstruktur lassen sich dem Jahresabschluss nur beschränkt Informationen entnehmen. Demnach sind aber in den nächsten vier bis fünf Jahre keine gravierenden Änderungen zu erwarten. Dies geht in erster Linie aus der Fälligkeitsstruktur der langfristigen Verbindlichkeiten hervor. Grundsätzlich ist aber auch bei diesem LBO ein Initial Public Offering (IPO) in fünf bis acht Jahren geplant.6 Besonders interessant ist im Rahmen einer Bewertung der Ausblick auf das Ertragspotenzial des Unternehmens in den nächsten Jahren. Anmerkungen hierzu finden sich ebenfalls in den Jahresabschlusskommentierungen. Diese beziehen sich insbesondere auf den „Veronis Suhler Stevenson Industry Forecast 2007“7. Demnach geht man im Bereich Fernsehwerbung zwischen 2007 und 2011 von einem durchschnittlichen jährlichen Wachstum (compound annual growth rate oder „CAGR“) von 4% aus.8 Unter Berücksichtigung der Kosteneinsparungsprogramme, die vom Management auf den Weg gebracht wurden, ergibt sich für die zukünftigen Geschäftsaussichten ein durchaus positives Bild. Orange verfügt über einen Kundenstamm, der bereits seit Jahrzehnten Geschäftsbeziehungen zum Unternehmen Aufrecht erhält. Diese Tatsache ist insbesondere auf die zu erwartende steigende Nachfrage in den verschiedenen Segmenten positiv zu bewerten. 3. Bewertung anhand der Discounted Cashflow Methode (FCF to Entity) 3.1. Prognostizierung der Free Cashflows Für eine Bewertung anhand der DCF Methode sind sehr viele Informationen nötig, folglich ist ein solches Bewertungsverfahren bei nicht-börsennotierten Unternehmen unter Umständen schwierig. Denn es sind meist nicht nur extern veröffentlichte Finanzaufstellungen und Unternehmensinformationen erforderlich, sondern vielmehr auch Planzahlen und zukünftige Entwicklungsstrategien. Diese werden im Normalfall während der Due Diligence Phase bereits eingeholt. Je höher/niedriger der Anteil der Bank an dem zu bewertenden Unternehmen ist, desto auskunftsfreudiger/weniger auskunftsfreudig ist das Unternehmen. 5 Vgl. The Orange Company: Annual Report 2007 pursuant to section 13 or 15(d) of the securities exchange act of 1934, S.89 6 Vgl Bank AG interne Quelle, 2006, S.2 7 Der VSS Industry Forecast wird auf jährlicher Basis erstellt und gilt insbesondere für die Medienbranche als wichtiger Indikator für die zukünftigen Entwicklungspotenziale. Im Rahmen dieser Arbeit liegt der VSS Industry Forecast 2007 leider aus Kostengründen nicht vor. Aus diesem Grund wird auf die im Jahresabschluss enthaltenen Anmerkungen zum VSS Industry Forecast 2007 zurückgegriffen. 8 Vgl. The Orange Company: Annual Report 2007 pursuant to section 13 or 15(d) of the securities exchange act of 1934, S.6f. 68 Sparkasse Vest Recklinghausen Wissenschaftspreis 2009 Für eine Bewertung mittels der Discounted-Cashflow-Methode sind einige Parameter zwingend erforderlich. Hierzu gehören unter anderem die prognostizierten Cashflows des zu bewertenden Unternehmens. Aus diesem Grund muss die Cashflowentwicklung der letzten Jahre genau analysiert werden und auch die Planzahlen sollten kritisch hinterfragt werden. Auch im Rahmen dieser Arbeit standen Prognosen zum Ertragspotenzial zur Verfügung. Diese wurden im Jahr 2006 erstellt und basieren unter anderem auf den von Orange zur Verfügung gestellten Planzahlen. Darin werden für das Jahr 2008 Einnahmen von ca. $5 Mrd. prognostiziert, die Steigerungsraten in den darauf folgenden Jahren liegen bei ca. 5%. Das adjusted EBITDA wird für das Jahr 2008 auf $1.189 Mio. geschätzt und unterliegt in den darauf folgenden Jahren ebenfalls Steigerungsraten von 5%. Unter einem adjusted EBITDA versteht man i.d.R. die von Sondereffekten bereinigte, unabhängig von der Finanzierungstätigkeit ermittelte Ertragskraft des operativen Geschäfts. Die Capital Expenditures (CapEx oder auch Investitionsausgaben) bewegen sich im Zeitraum von 2008 bis 2011 der Schätzung nach zwischen $198 Mio. und $223 Mio. Der angegebene Free Cashflow wird für das Jahr 2008 auf $310 Mio. prognostiziert. Dieser Cashflow muss demnach ein Cashflow to Equity darstellen, da ansonsten der Zinsaufwand, der im Jahr 2007 bei $648 Mio. lag und bei dem für die zukünftigen Jahre kein signifikanter Rückgang erwartet werden kann, den Free Cashflow übersteigen würde. Dabei dient der Cashflow wie bereits erörtert der Rückzahlung des Fremdkapitals. Um von den Free Cashflows to Equity zu den Free Cashflows to Entity zu gelangen wird aus Vereinfachungsgründen der um die Steuerersparnis verminderte, jährliche Fremdkapitalaufwand hinzugerechnet (InterestExpsenseLessTaxShield= 648x(1-255)). Daraus ergeben sich dann folgende Free Cashflows to Entity: Abb. 2: Free Cashflow Estimates (adjusted) Um diese Berechnungen zu plausibilisieren, kann der aktuelle Free Cashflow des Geschäftsjahres 2007 hinzugezogen werden. Aus der Plausibilisierungsanalyse bestätigt sich die Korrektheit der vorgenommenen Anpassung. 69 Bewertung eines nicht-börsennotierten Unternehmens am praktischen Beispiel einer Private Equity Beteiligung 3.2. Der Diskontierungszinssatz WACC Der Diskontierungszinssatz WACC ergibt aus folgendem Zusammenhang: Fremdkapitalgeber; s: Unternehmenssteuersatz; FK: Fremdkapital; EK: Eigenkapital. Für die Bestimmung der WACC werden lediglich die dem Finanzierungsbereich zuzuordnenden Teile des Fremdkapitals (also das verzinsliche Fremdkapital) einbezogen. Hierzu wurden die Angaben der veröffentlichten Jahresabschlüsse analysiert. Vor allem bei den kurzfristigen Teilen des verzinslichen Fremdkapitals erscheint der Ansatz von Buchwerten unproblematisch, denn Buch- und Marktwerte dürften aufgrund der Kurzfristigkeit nah beieinander liegen. Die unter dem Fremdkapital ebenso aufgeführten Steuerverbindlichkeiten hingegen sollten nicht zum Marktwert des Fremdkapitals gezählt werden. Im Grunde dienen diese Verbindlichkeiten keinerlei Finanzierung des Unternehmens, und zum Zwecke der Bewertung ist es sinnvoll diese für die Ermittlung der WACC auszublenden. Die Steuerverbindlichkeiten haben für das aktuelle Jahr den Cashflow theoretisch erhöht, denn sie wurden lediglich als Verbindlichkeit in die Bilanz aufgenommen ohne jedoch den Cashflow reduziert zu haben. Des Weiteren müssen die kurzfristig fälligen Anteile des langfristigen Fremdkapitals berücksichtigt werden. Für diese werden im Rahmen der Analyse aus Vereinfachungsgründen die Buchwerte angesetzt. Fraglich ist, zu welchem Fremdkapitalzins diese $8.504 Mio. verzinst werden. Dem Jahresabschluss der Orange Company sind diesbezüglich weitere Angaben zu entnehmen. Mit $7.696 Mio. machen die langfristigen Fremdkapitalposten den größten Teil des Marktwertes aus. Diese haben einen durchschnittlichen Fremdkapitalzinssatz von 8,24%. Dieser Zinssatz bezieht sich jedoch auf die Buchwerte des Fremdkapitals. Da jedoch die Buchwerte von den Marktwerten des langfristigen Fremdkapitals nur geringfügig abweichen, wird dieser Umstand zum Zwecke der Bewertung vernachlässigt. Aus diesem Grund soll in der nachfolgenden Analyse von einer Fremdkapitalverzinsung in Höhe von 8,24% ausgegangen werden. Für die Berechnung der WACC ist zudem die Eigenkapitalrendite zu berechnen. Im Rahmen der DCF Methode bedient man sich in der Praxis des CAPMs. Beim vorliegenden Praxisbeispiel wird schnell deutlich, dass die Anwendung eines kapitalmarktorientierten Verfahrens, wie dem CAPM, nicht problemlos auf die nicht-börsennotierte Orange Company angewandt werden kann. Zum besseren Verständnis soll hier noch mal die Berechnungsmethode der Eigenkapitalrendite mit Hilfe des CAPMs aufgezeigt werden:, mit rEK : Renditeforderung der Eigenkapitalgeber; iR: Rendite der risikolosen Anlage; : Beta; : erwartete Rendite des Marktportfolios; iR : Rendite der risikolosen Anlage. Demnach wird im ersten Schritt ein adäquater risikoloser Zinssatz festgelegt. Im vorliegenden Anwendungsbeispiel bietet sich eine US Treasury Note mit einer Laufzeit von zehn Jahren an. Bei der Auswahl der risikolosen Anlagemöglichkeit sollte darauf geachtet werden, dass diese konsistent mit den Cashflows behandelt wird. Da die Cashflows der Orange Company in USD angegeben werden, ist das Zurückgreifen auf US Treasury Bonds durchaus angebracht. Diese Bonds werden derzeit mit 3,85%9 verzinst. Die Wahl einer US Treasury 9 Verzinsung zum Stichtag 23.5.2008. Quelle: http://www.federalreserve.gov/releases/h15/data/Business_day/ H15_TCMN OM_Y10.txt, letzter Abruf 30.6.2008 70 Sparkasse Vest Recklinghausen Wissenschaftspreis 2009 Note ist außerdem sinnvoll, weil Orange mehr als die Hälfte ihrer Erträge in den USA erwirtschaftet und sich die restlichen Erträge über zahlreiche weitere Regionen aufteilen. Für die Ermittlung der Marktrisikoprämie wird von der erwarteten Rendite des Marktportfolios der durchschnittliche risikolose Zinssatz eines festgelegten vergangenen Betrachtungszeitraums subtrahiert. Für die Bewertung der Orange Company ist fraglich, welche Rendite des Marktes erwartet werden kann und welcher Markt überhaupt als relevant bezeichnet werden kann. In Frage kämen hier beispielsweise der S&P 500 oder empirisch bestimmte Marktrisikoprämien zahlreicher Studien. Im vorliegenden Fall ist kritisch zu hinterfragen, ob der S&P 500 ein adäquater Index ist. Der S&P 500 ist ein Index, der 500 der größten, börsennotierten US-amerikanischen Unternehmen enthält. Rein geographisch ist der Index demnach plausibel anzuwenden. Allerdings ist kritisch zu bewerten, dass der Index lediglich börsennotierte Unternehmen enthält, Orange derzeit jedoch nicht börsennotiert ist. Die Größenverhältnisse der im Index enthaltenen Unternehmen stimmen ebenfalls nicht mit denen der Orange Company überein. Grundsätzlich kann aber durchaus auf den US Markt zurückgegriffen werden, denn dieser ist für die Orange Company von herausragender Bedeutung. Aus diesem Grund wird für die Bestimmung der Marktrisikoprämie im Praxisbeispiel auf die erwartete Marktrendite für den US-amerikanischen Markt zurückgegriffen. Diese beträgt derzeit 10,69%10. Für die Ermittlung der Marktrisikoprämie wird des Weiteren auf den durchschnittlichen risikolosen Zinssatz der US Treasury Bonds der vergangenen fünf Jahre zurückgegriffen. Dieser liegt bei 4,34%11. Als Marktrisikoprämie ergibt sich somit ein Zinssatz von 6,35% (= 10,69% - 4,34%). An dieser Stelle ist durchaus diskussionswürdig, welcher Zeitraum für die Ermittlung des durchschnittlichen risikolosen Zinssatzes für die Berechnung der Marktrisikoprämie verwendet werden sollte. Im erläuterten Beispiel handelt es sich um einen Zeitraum von fünf Jahren. Es könnte jedoch durchaus in Betracht gezogen werden, an dieser Stelle die Durchschnittsverzinsung der zehnjährigen US Treasury Bonds der letzten 20 Jahre zu verwenden. 12 Dafür spricht die Tatsache, dass mit Hilfe der Durchschnittbildung kurzfristige Marktschwankungen und Schätzfehler geglättet werden können. Dennoch wird im vorliegenden Beispiel auf einen Zeitraum von fünf Jahren zurückgegriffen, da somit die Marktrisikoprämie tendenziell höher ausgewiesen wird. Die Zinsen sind in den vergangen Jahren gesunken und durch die Anwendung einer geringeren Verzinsung wird die Marktrisikoprämie höher. Für den amerikanischen Markt erscheint eine höhere Risikoprämie unter Berücksichtigung der aktuellen Entwicklungen angebrachter. Durch diese Annahme steigt auch die geforderte Eigenkapitalrendite. Da es sich im vorliegenden Beispiel um ein risikoreicheres Investment im Private Equity Bereich handelt, ist die Anwendung einer höheren geforderten Eigenkapitalrendite durchaus zu befürworten. Für die weitere Berechnung der Eigenkapitalrendite benötigt man das , also den Maßstab für das systematische Risiko. Das wird durch eine Regressionsanalyse einer bestimmten Aktie zum entsprechenden Markt errechnet. Bei der Bewertung einer nicht-börsennotierten Gesellschaft wie der Orange Company, ergibt sich an dieser Stelle ein Problem: Es gibt keine Aktie des Unternehmens, die in einem bestimmten Index notiert ist. Eine derartige Regressionsanalyse ist aus diesem Grund nicht möglich. Diese Schwierigkeit kann in der Praxis dadurch gelöst werden, dass man für die Ermittlung des systematischen 10 Quelle: Bloomberg, letzter Abruf 26.5.2008 11 Mittelwert der Zinssätze der letzten fünf Jahre der US Treasury Bonds mit einer Laufzeit von 10 Jahren. Quelle: http://www.federalreserve.gov/releases/h15/data/Business_day/H15_TCMN OM_Y10.txt, letzter Abruf 30.6.2008 12 Vgl. Obermaier, R., Basiszinssatz, 2006, S.475 71 Bewertung eines nicht-börsennotierten Unternehmens am praktischen Beispiel einer Private Equity Beteiligung Risikos die Betas einer Peer Group heranzieht und dann Rückschlüsse auf das der zu bewertenden Gesellschaft zieht. Eine zweite Möglichkeit besteht darin Industry Betas zu verwenden. In diesem Fall erscheint jedoch eine Ermittlung des Betas durch eine Peer Group zielführender. Diese Berechnung kann für die zwei Haupttätigkeitsfelder der Orange Company vorgenommen werden. Für die Ermittlung einer adäquaten Peer Group sollte als erster Ansatzpunkt die richtige Branchenzugehörigkeit sichergestellt sein. Diese bietet empirischen Untersuchungen zufolge eine relativ hohe Effektivität. Aus der Analyse der Geschäftsfelder haben sich zwei Hauptschwerpunktbranchen ergeben: der Bereich Market Research (erwirtschaftet 44% der Einnahmen) und die Sparte Information Services (erwirtschaftet 56% der Einnahmen). In diesen beiden Branchen müssen die Peer Unternehmen demnach tätig sein und diese müssen auch getrennt betrachtet werden. Des Weiteren wäre es vorteilhaft, wenn die Unternehmen der Peer Group bezüglich Größe, Alter und Cashflow Entwicklungen dem zu bewertenden Unternehmen ähnlich wären. Jedoch ist hier zu beachten, dass dies keine zwingende Voraussetzung für die Auswahl der Peer Group ist. Bei besonderen Finanzierungsstrukturen dürften diese Vergleiche mit börsennotierten Unternehmen mitunter schwierig sein. In der Analyse ist zu beachten, dass das jeweilige systematische Risiko der Peer Unternehmen in Form des Betas von der Finanzierungsstruktur des jeweiligen Unternehmens bereinigt werden muss. Besonders im vorliegenden Beispiel wird die Problematik einer unbedachten Anwendung eines Peer Betas deutlich, denn die Finanzierungsstruktur eines von Private Equity Gesellschaften übernommenen Unternehmens unterscheidet sich i.d.R. deutlich von der Finanzierungsstruktur an der Börse notierter Unternehmen. Aus diesem Grund müssen die Betas der einzelnen Peer Group Unternehmen in einem ersten Schritt „unleveraged“ werden, d.h. um die Finanzierungsstruktur bereinigt werden. In einem zweiten Schritt wird dann die Finanzierungsstruktur des zu bewertenden Unternehmens auf das „unleveraged“ Beta angewandt, die Betas werden demnach „releveraged“. Um das „unleveraged“ Beta zu ermitteln, wird auf folgende Berechnungsmethode zurückgegriffen: : unleveraged Beta; : leveraged Beta; s: Unternehmenssteuersatz; FK: Marktwert des Fremdkapitals; EK: Marktwert des Eigenkapitals. Das „releveraged“ Beta lässt sich dann durch die Umstellung der oben aufgeführten Formel berechnen. Für die oben aufgeführten Peer Unternehmen lassen sich die Betas, sowie die Verschuldungsgrade und der Unternehmenssteuersatz mit Hilfe von Bloomberg abfragen. Die der Berechnung zugrunde gelegten „leveraged“ Betas der Unternehmen stellen wöchentliche raw Betas für einen Zeitraum zwischen dem 02.06.2006 und dem 25.05.2008 dar. Raw Betas basieren lediglich auf Vergangenheitsdaten und enthalten keinerlei Zukunftsprognosen. Um zukünftige Beta Prognosen in die Kalkulation mit einfließen zu lassen, könnte man auf so genannte adjusted Betas zurückgreifen. Diese sind ebenfalls in Bloomberg abrufbar. Das adjusted Beta geht von der Annahme aus, dass Unternehmen im Laufe der Zeit diversifizieren und sich ihre Beta-Werte daher immer mehr in Richtung Eins, also in die Nähe des Marktportfoliowerts, bewegen. In der Praxis wird aber wegen der sehr pauschalen Berechnung (=2/3 x raw Beta+1/3 x 1)13 des adjusted Betas, lediglich das 13 Vgl. Dörschell, A.; Franken, L.; u.a., Kapitalkosten, 2006, S.6 72 Sparkasse Vest Recklinghausen Wissenschaftspreis 2009 raw Beta verwendet. Die pauschale Berechnung ist insbesondere insofern fragwürdig, als dass Unternehmen in sehr unterschiedlichem Maße diversifizieren dürften.14 Die für beide Sparten errechneten Mediane werden wie bereits erläutert mit 56% und 44% gewichtet. Somit ergibt sich ein Beta von 1,08. Somit liegt das Beta der Orange Company nah am Beta des Marktportfolios, welches ein Beta von eins vorweist. Ein Beta von 1,08 erscheint für die Orange Company plausibel, weil sie stark vom Gesamtmarkt abhängig ist. Aus den ermittelten Daten lässt sich die geforderte Eigenkapitalrendite für die Orange Company ausrechnen.: Abb. 3: Die Ermittlung der Eigenkapitalkosten Mit den errechneten Daten kann an dieser Stelle eine DCF Bewertung vorgenommen werden. Hierzu soll in einem ersten Schritt die Bewertung anhand der Free Cashflows to Entity erfolgen, da dies das in der Praxis am häufigsten angewandte Verfahren ist. Abb. 4: Bewertungsergebnis der DCF mit WACC (Teil 1) In der Abbildung 4 ist die Diskontierung der Flows to Entity dargestellt. Für die Bewertung sind die Cashflows in zwei Zeitfenster geteilt. Der erste Planungszeitraum beträgt vier Jahre von 2008 bis 2011. Für den darauf folgenden Zeitraum wird ein Fortführungswert berechnet. In der Bewertung der Orange Company wird vom Cashflow des Jahres 2011 ausgegangen. Diese Annahme beruht auf der Unterstellung eines Gleichgewichtszustandes in dem die Cashflows des letzten Detailprognosezeitraums als „ewig“ erzielbar gelten. In einem solchen Fall müssen die Abschreibungen den Investitionen gleichen und Sondereffekte des letzten Detailprognosezeitraums eliminiert worden sein. 14 Vgl. Geginat, J.; Morath, B.; u.a., Entscheidungskriterium, 2006, S.20 73 Bewertung eines nicht-börsennotierten Unternehmens am praktischen Beispiel einer Private Equity Beteiligung Für die Ermittlung des Unternehmenswertes der Orange Company wird von einer Wachstumsrate von 0% ausgegangen. Diese Annahme beruht zum einen auf der Tatsache, dass die Wachstumsrate einen enorm hohen Einfluss auf den Unternehmenswert hat. Dieser wird durch die Annahme einer kontinuierlichen Steigerung der Free Cashflows unter Umständen künstlich aufgebläht. Das Ergebnis der Bewertung kann so maßgeblich beeinflusst und somit verfälscht werden. Um den Barwert der Free Cashflows zu errechnen, werden die Free Cashflows mit dem Diskontierungsfaktor abgezinst Aus der Addition der Barwerte der Free Cashflows und dem Fortführungswert ergibt sich der Unternehmenswert. Demnach ist die Orange Company zum Zeitpunkt der Bewertung $11.760 Mio. wert. In diesem Wert ist bereits der Liquidationswert des nicht betriebsnotwendigen Vermögens in Höhe von $399 Mio. enthalten. Diese Position ergibt sich ausschließlich aus den liquiden Mitteln der Orange Company. Abb. 5: Bewertungsergebnis der DCF mit WACC (Teil 2) Im Rahmen dieser Arbeit ist der Fair Value des von der Bank AG gehaltenen Anteils an der Orange Company zu ermitteln. Da die Bank AG ein Equity Investment an der Orange Company hält, muss im nächsten Schritt vom Gesamtwert des Unternehmens der Marktwert des verzinslichen Fremdkapitals abgezogen werden. Dieser beträgt wie bereits diskutiert $8.504 Mio. Daraus resultiert ein Marktwert des Eigenkapitals in Höhe von $3.256 Mio. Eine 1%ige Beteiligung entspricht demnach $32,56 Mio. Des Weiteren wird ein Abschlag in Höhe von 20% für Nicht-Handelbarkeit vom Beteiligungswert abgezogen. Dieser Abzug rechtfertigt sich insbesondere durch die Tatsache, dass es sich bei dem Investment in die Orange Company um ein risikoreiches Private Equity Geschäft handelt, dessen von der Bank erworbener Anteil nicht jederzeit an der Börse veräußert werden kann. Im Falle eines vorzeitigen Veräußerungswunsches seitens der Bank muss zuerst ein Erwerber gefunden werden. In einem solchen Fall ist ebenfalls mit dem Verkauf zu einem niedrigeren Wert auszugehen. 4. Bewertung anhand der Discounted Cashflow Methode (FCF to Equity) Bei der Bewertung der Flows to Equity ist zu beachten, dass diese nicht mit den WACC diskontiert werden können, sondern lediglich mit der Eigenkapitalrendite abgezinst werden. Für die Berechnung der WACC wurde die Eigenkapitalrendite jedoch bereits ermittelt und kann für die vorliegende Bewertungsmethode erneut herangezogen werden. Demnach kann - wie in der folgenden Abbildung dargestellt - von einem Diskontierungszinssatz in Höhe von 10,68% ausgegangen werden. 74 Sparkasse Vest Recklinghausen Wissenschaftspreis 2009 Abb. 6: Inputparameter Übersicht für die DCF mit Flow to Equity In der nächsten Abbildung ist die DCF Bewertung der Free Cashflows to Equity dargestellt. Abb. 7: Bewertungsergebnis der DCF mit Flow to Equity Auch bei der Anwendung der DCF Methode mit Free Cashflows to Equity wird von einer Wachstumsrate in Höhe von 0% ausgegangen. Bei dieser Methode wird nicht der Gesamtunternehmenswert ermittelt, sondern nur der Marktwert des Eigenkapitals. Insofern kann direkt vom Ergebnis der Wert der 1%igen Beteiligung der Bank AG errechnet werden. Dieser liegt nach Abzug eines 20%igen Abschlags bei $29,86 Mio. Dieses Ergebnis dient der Plausibilisierung der DCF Analyse mit Hilfe der Free Cashflows to Entity. Für sich allein gesehen, ist die Berechnung des Unternehmenswertes mit dieser Methode nicht sehr aussagekräftig, da die gesamte Finanzierungsstruktur der Orange Company außer Acht gelassen wird. Jedoch unterstreicht das Ergebnis dieser Bewertung die Annahme, dass die vorgegebenen Free Cashflows lediglich Free Cashflows to Equity darstellten und einer Anpassung zwingend bedurften. Zur weiteren Plausibilisierung des Ergebnisses sollte jedoch eine Multiplikatoranalyse herangezogen werden. 5. Bewertung anhand des Multiplikatorverfahrens Bereits bei der Berechnung des Betas der Orange Company wurde auf die Peer Group des Unternehmens zurückgegriffen. In der folgenden Abbildung sind unter anderem die am häufigsten angewandten Multiplikatoren Enterprise Value/EBIT(DA) dargestellt. Diese werden sowohl für die letzten zwölf Monate als auch für die Jahre 2008 und 2009 berechnet. Bei letzteren wird hier jedoch auf geschätzte Werte aus den Analysen Bloombergs zurückgegriffen. 75 Bewertung eines nicht-börsennotierten Unternehmens am praktischen Beispiel einer Private Equity Beteiligung Abb. 8: Multiplikatoren Übersicht der Peer Group Die geschätzten adjusted EBITDA Werte der Orange Company können nun zur Bewertung der Orange Company hinzugezogen werden. Daraus ergibt sich folgendes Ergebnis: Abb. 9: Ergebnis der Bewertung mit Hilfe des Multiplikatorverfahrens Durch das Multiplikatorverfahren wird ein Unternehmenswert in Höhe von $11.797 Mio. festgestellt. Dieser beinhaltet ebenfalls den Liquidationswert des nicht betriebsnotwendigen Vermögens in Höhe von $399 Mio. Wie auch bei der DCF Bewertung mit FCF to Entity muss hier das verzinsliche Fremdkapital in Höhe von $8.504 Mio. abgezogen werden, um zum Equity Value zu gelangen. Dieser liegt nach der vorliegenden Berechnung bei $3.293 Mio. Von diesem Wert wird ebenfalls ein Abschlag für Nicht-Handelbarkeit in Höhe von 20% abgezogen. Der Bank AG Anteil an der Orange Company ist folglich $26,34 Mio. wert. 6. Fazit Im Rahmen der Ausarbeitung wurde deutlich, dass sich an vielen Stellen der Bewertung einer Private Equity Beteiligung Probleme ergeben. Für die Bewertung mit Hilfe des Discounted Cashflow Verfahrens wurde bewusst sowohl auf die Diskontierung mit den Weighted Average Cost of Capital als auch auf die Diskontierung mit den Cost of Equity eingegangen. Hierbei gestaltet sich die Prognose der zukünftigen Cashflows bei der Bewertung eines nicht-börsennotierten Unternehmens sehr schwierig und erfordert gute Einblicke in die Prozesse und Strukturen des Unternehmens, sowie 76 Sparkasse Vest Recklinghausen Wissenschaftspreis 2009 Zugang zu Planzahlen und Entwicklungsplänen. Die Recherche gestaltet sich häufig äußerst schwierig. So wurde zwar eine Prognose der zukünftigen Cashflows für die Bewertung zur Verfügung gestellt, jedoch gab es keinen Zugang zu den dahinter stehenden Annahmen und Planzahlen. Für die Bewertung der Orange Company erwies sich die Plausibilisierung dieser Zahlen demnach als sehr aufwendig. Weitergehende Informationen konnten nur über öffentlich zugängliche Quellen beschafft werden. Im Rahmen der DCF Bewertung mit WACC mussten die Cashflows aus den erläuterten Gründen angepasst werden. Es haben sich allerdings neben der Bestimmung der Cashflows noch weitere Probleme ergeben, welche vornehmlich in der richtigen Bestimmung der WACC zu sehen sind. Im Rahmen einer Bewertung eines nicht-börsennotierten Unternehmens bereitet die Anwendung des CAPM’s Schwierigkeiten. Denn an dieser Stelle ist fraglich, ob eine kapitalmarktorientierte Ermittlung der Kapitalkosten überhaupt angebracht ist und inwieweit das Ergebnis zutreffend ist. Um die Eigenkapitalkosten zu ermitteln, wurde für die Bewertung der Orange Company auf die historischen Betas der Peer Group zurückgegriffen. Eine solche Vorgehensweise erscheint durchaus plausibel, jedoch muss klar sein, dass bereits an dieser Stelle mehrere Unsicherheitsfaktoren auftreten. Zum einen muss eine geeignete Peer Group gefunden werden, zum anderen werden lediglich historische Betaentwicklungen berücksichtigt, dabei ist es doch gerade der zukünftige Ausblick, der die Bewertung mit Hilfe einer DCF Analyse bestimmt. Das Ergebnis der Discounted Cashflow Bewertung unter Anwendung der Cost of Equity und der Free Cashflows to Equity lag höher als die Ergebnisse der beiden anderen Bewertungsmethoden. An dieser Stelle kann aber festgehalten werden, dass diese Bewertungsmethode lediglich einen groben Richtwert ermitteln kann und für die Bewertung einer Private Equity Beteiligung an einem nichtbörsennotierten Unternehmen zu ungenau erscheint. Dies wird besonders deutlich, wenn man sich bewusst macht, dass die Finanzierungsstruktur der zu bewertenden Gesellschaft komplett ausgeblendet wird. Eine derartige Vorgehensweise kann für Unternehmen mit einem so hohen Fremdkapitalanteil jedoch nicht adäquat sein. Das Bewertungsergebnis wurde außerdem durch die Anwendung des Multiplikatorverfahrens plausibilisiert. Hierbei wurde nur auf Entity Multiplikatoren zurückgegriffen, die als ergebnisorientierte Multiplikatoren in der Praxis am häufigsten Anwendung finden. Eine Bewertung allein mit dieser Methode ist jedoch abzulehnen, vielmehr sollte diese Methode als Plausibilisierung der DCF Bewertungsergebnisse dienen. Die Bewertung mit Hilfe der WACC kann im Vergleich als genauer und zuverlässiger betrachtet werden. Bestätigt wird dies insbesondere durch die Tatsache, dass das Multiplikatorverfahren zum ungefähr selben Ergebnis kommt. Bei allen drei Bewertungsverfahren wurde jeweils ein Abschlag für die Nicht-Handelbarkeit der Anteile der Orange Company berücksichtigt. Dieser liegt in der Praxis zwischen 20% und 40%. Im Rahmen dieses Praxisbeispiels wurde dieser in Höhe von 20% angesetzt. Ein solcher Abschlag rechtfertigt sich dadurch, dass im Falle eines Veräußerungswunsches der Anteil nicht einfach und schnell über die Börse veräußert werden kann, sondern zuerst ein Käufer gefunden werden muss, der diesen Anteil für einen angemessenen Preis erwerben möchte. Zusammenfassend betrachtet zeigt die vorliegende Arbeit, dass sich die Bewertung der Orange Company aufgrund der spärlichen Informationslage schwierig gestaltet, nichts desto trotz verdeutlicht das vorliegende Beispiel allerdings auch, dass eine Bewertung nach gründlicher Auseinandersetzung mit dem jeweiligen Unternehmen und den einzelnen Bewertungsmethoden durchaus möglich ist. Generell ist eine Fair Value Bewertung von nicht-börsennotierten Unternehmen zwingend notwendig, stellt jedoch in der Praxis eine Herausforderung für die Beteiligungsbewertung dar. 77 Bewertung eines nicht-börsennotierten Unternehmens am praktischen Beispiel einer Private Equity Beteiligung Literaturverzeichnis Bücher und Sammelbände Baetge, Jörg; Niemeyer, Kai; u.a. [Discounted Cashflow Verfahren, 2004]: Darstellung der Discounted-Casflow-Verfahren (DCF-Verfahren) mit Beispiel, in: Peemöller, Volker H., (Hrsg.), Praxishandbuch der Unternehmensbewertung, nwb Verlag Neue Wirtschaftsbriefe, Nürnberg 2004, S. 265-376 Ballwieser, Wolfgang [Unternehmensbewertung, 2007]: Unternehmensbewertung – Prozess, Methoden und Probleme, Schäffer-Poeschel Verlag, 2. Auflage, Stuttgart 2007 Dinstuhl, Volkmar [Konzernbezogene Unternehmensbewertung, 2003]: Konzernbezogene Unternehmensbewertung, Deutscher Universitäts-Verlag, 1. Auflage, Wiesbaden 2003 Drukarczyk, Jochen, Schüler, Andreas [Unternehmensbewertung, 2006]: Unternehmensbewertung, Verlag Franz Vahlen München, München 2006 Eckstaller, Claudia; Huber Jahn, Ingrid; u.a. [Private Equity, 2006]: Private Equity and Venture Capital – Begriff – Grundlagen – Perspektiven, Verlag Wissenschaft und Praxis, Sternenfels 2006 Franke, Günter; Hax, Herbert [Finanzwirtschaft, 2003]: Finanzwirtschaft des Unternehmens und Kapitalmarkt, Springer, 5. Auflage, Berlin 2003 Johnen, Raffael; Schacht, Ullrich [Leveraged Buyouts, 2005]: Bewertung eines Leveraged Buyouts, in: Schacht, Ulrich; Fackler, Matthias (Hrsg.) Praxishandbuch der Unternehmensbewertung – Grundlagen, Methoden, Fallbeispiele, Betriebswirtschaftlicher Verlag Dr. Th. Gabler, 1. Auflage, Wiesbaden 2005 Krolle, Sigrid; Schmitt, Günter; u.a. [Multiplikatorverfahren, 2005]: Multiplikatorverfahren in der Unternehmensbewertung, Schäffer-Poeschel Verlag, Stuttgart 2005 Mandl, Gerwald; Rabel, Klaus [Grundlagen der Unternehmensbewertung, 2004]: Grundlagen der Unternehmensbewertung – Teil D: Methoden der Unternehmensbewertung (Überblick), in Peemöller, Volker H., (Hrsg.) Praxishandbuch der Unternehmensbewertung, nwb Verlag Neue Wirtschaftsbriefe, Nürnberg 2004, S. 47-88 Mandl, Gerwald; Rabel, Klaus [Unternehmensbewertung, 1997]: Unternehmensbewertung – Eine praxisorientierte Einführung, Ueberreuter, Wien 1997 Peemöller, Volker H., (Hrsg.) [Praxishandbuch, 2004]: Praxishandbuch der Unternehmensbewertung, nwb Verlag Neue Wirtschaftsbriefe, Nürnberg 2004 78 Peemöller, Volker H. [Grundlagen, 2004]: Grundlagen der Unternehmensbewertung - Teil A: Wert und Werttheorien, in: Peemöller, Volker H., (Hrsg.) Praxishandbuch der Unternehmensbewertung, nwb Verlag Neue Wirtschaftsbriefe, 3. Auflage, Nürnberg 2004, S. 3-25 Peemöller, Volker H.; Kunowski, Stefan [Ertragswertverfahren, 2004]: Ertragswertverfahren nach IDW, in: Peemöller, Volker H., (Hrsg), Praxishandbuch der Unternehmensbewertung, nwb Verlag Neue Wirtschaftsbriefe, 3. Auflage, Nürnberg 2004, S. 201-264 Schäfer, Henry [Unternehmensinvestitionen, 2005]: Unternehmensinvestitionen – Grundzüge in Theorie und Management, Physica-Verlag, 2. Auflage, Heidelberg 2005 Seppelfricke, Peter [Handbuch, 2007]: Handbuch Aktien- und Unternehmensbewertung – Bewertungsverfahren, Unternehmensanalyse, Erfolgsprognose, Schäffer-Poeschel Verlag Stuttgart, 3. Auflage, Stuttgart 2007 Spremann, Klaus [Valuation, 2004]: Valuation – Grundlagen moderner Unternehmensbewertung, R. Oldenbourg Verlag München, Wien 2004 Artikel aus Zeitschriften Berner, Christian; Rojahn, Joachim; u.a. [Berücksichtigung, 2005]: Die Berücksichtigung des unternehmensindividuellen Risikos in der Unternehmensbewertung – Eine empirisch gestützte Untersuchung des Beta-Faktors, in: Finanz Betrieb, Heft 11, 2005, S. 711-718 Borowicz, Frank [Methoden der Unternehmensbewertung, 2005]: Methoden der Unternehmensbewertung - Ertragswertmethode, Discounted Cash Flow and Economic Value Added, in: Wirtschaftswissenschaftliches Studium, Heft 7, 2005, S. 368-373 Dörschell, Andreas; Franken, Lars; u.a. [Kapitalkosten, 2006]: Praktische Probleme bei der Ermittlung der Kapitalkosten bei Unternehmensbewertungen, in: BewertungsPraktiker, Heft 3, 2006 Obermeier, Robert [Basiszinssatz, 2006]: Marktzinsorientierte Bestimmung des Basiszinssatzes in der Unternehmensbewertung, in: Finanz Betrieb, Heft 7, 2006, S. 472-479 Schöning, Stephan; Gatzka, Markus: [Private Equity und Venture Capital, 2006]: Private Equity und Venture Capital: Heuschrecken oder Rettung des deutschen Mittelstands, in: WISU, Heft 11, 2006, S. 1399 – 1404 Sparkasse Vest Recklinghausen Wissenschaftspreis 2009 Weizsäcker von, Robert K.; Krempel, Katja [Risikoadäquate Bewertung, 2004]: Risikoadäquate Bewertung nicht-börsennotierter Unternehmen – Ein alternatives Konzept, in: Finanz Betrieb, Heft 12, 2004, S. 808-814 Verordnung (EG) Nr. 1606/2002 des Europäischen Parlaments und des Rates vom 19. Juli 2002 betreffend die Anwendung internationaler Rechnungslegungsstandards Bank AG interne Quellen Internetpublikationen Bank AG interne Quelle, 2006 Geginat, Joost; Morath, Beatrix; u.a., [Entscheidungskriterium, 2006]: Kapitalkosten als strategisches Entscheidungskriterium, Roland Berger Strategy Consultants, 2006, http://www.swissamba. ch/fileadmin/user_upload/Dateien/ Cost_of_Capital_as_a_Stragetic_Decision_Criterion.pdf ,letzter Abruf 17.6.2008 Bank AG interne Quelle,(1Q-2008)_Orange, 2008 PriceWaterHouseCoopers [Private Equity Trend Report 2008]: Private Equity Trend Report 2008 - Germany – still the golden opportunity for international investors?, http://www.pwc.com/ extweb/pwcpublications.nsf/docid/8B5BAB669CA C9ABA8025744F0034F736/$file/PwC_Private_Equity_Trend_Report_Germany_2008.pdf, letzter Abruf 17.6.2008 Sonstige Publikationen ECB [Monthly Bulletin, 2007]: Leveraged Buyouts and Financial Stability, Monthly Bulletin August 2007 Durschnittverzinsung US Treasury Bonds, http:// www.federalreserve.gov/releases/h15/data/Business_ day/H15 _TCMNOM_Y10.txt, letzter Abruf 30.6.2008 Handelsgesetzbuch [HGB]: Deutscher Taschenbuch Verlag, 41., überarbeitete Auflage, München 2004 IFRS/IAS [IAS]: http://www.ifrs-portal.com/Texte_ deutsch/Standards/Standards _aktuell.html, letzter Abruf 7.8.2008 Institut der Wirtschaftsprüfer [IDW S 1, 1983]: IDW Standard Grundsätze zur Durchführung von Unternehmensbewertung (IDW S 1), 1983 Historische Kurse DAX, http://de.finance.yahoo. com/q/hp?s=%5EGDAXI, letzter Abruf 28.4.2008 The Orange Company Annual Report 2007 pursuant to section 13 or 15(d) of the securities exchange act of 1934, 15 15 Aus Vertraulichkeitsgründen ist der Name der zu bewertenden Gesellschaft und allen verbundenen Unternehmen von der Verfasserin geändert worden. Dies gilt auch für den im Literaturverzeichnis angegebenen Jahresabschluss 79 Bewertung eines nicht-börsennotierten Unternehmens am praktischen Beispiel einer Private Equity Beteiligung 80 Die Preisträger der Wissenschaftspreise 1997 bis 2008 Die Preisträger des Wissenschaftspreises 2008 Von links nach rechts: Esther Uhe, Jan Matysik, Kathrin Koziel, Jan Benedikt Kleibrink, Dr. Michael Schulte (Sparkasse Vest Recklinghausen), 82 Die Preisträger der Wissenschaftspreise 1997 bis 2007 Tülin Aynur...................................... 1999 Tim Lange....................................... 2000 Minh Banh....................................... 2003 Dr. Stefan Lilischkis....................... 2000 Angelika Barann............................. 2006 Christian Loose.............................. 2002 Dr. Joachim Bonn........................... 1998 Christian Mehrens......................... 2004 Dr. Jürgen Born............................. 2007 Kaj Ulrich Meys.............................. 1998 Arkadiusz Brand............................. 2005 Diana Mikulec................................. 1998 Heiko Ciesinski............................... 2000 Dr. Jochen Nachtwey..................... 1997 Axel Dewitz..................................... 2003 Pascal Nevries................................ 2000 Timm Dolezych............................... 2002 Frank Osterhoff.............................. 1999 Verena Dvorak................................ 2003 Dr. Jens Udo Prager....................... 2002 Christian Egtved............................. 2004 Christoff Rössel.............................. 1997 Jennifer Ellerbrock........................ 2001 Hauke Schinkel............................... 2001 Dr. Peter Fehr.................................. 1999 Dr. Harald Schoelen....................... 2003 Stefan Feuerstein........................... 2004 Stephanie Schreiber...................... 2002 Martin Gräbe.................................. 1997 Klaus Segbers................................ 1999 Tobias Grapentin............................ 2007 Martina Simon................................ 1999 Holger Hausmann.......................... 2003 Jan Philipp Soennecken............... 2002 Dr. Martin Hebler............................ 2001 Dr. Karl-Heinz Storchmann........... 1998 Michael Hegemann........................ 2005 Falk Strotebeck............................... 2007 Arne Helfer...................................... 1997 Karsten Thielmann........................ 1998 Dr. Andreas Horsch........................ 2006 André Vesper.................................. 2000 Carsten Hubensack........................ 2006 Raphael Weller............................... 2005 Anne Kampmann........................... 2004 Daniel Wissing............................... 2005 Dr. Laura Kästner........................... 2007 Monika Wittenberg........................ 2007 Dr. Michael Kersting...................... 2001 Volker Maximilian Wladarz........... 2006 Birgit Krchov................................... 2001 Dr. Tobias Zimmermann................ 2006 Volker Kruse................................... 1997 Die Preisträger der Wissenschaftspreise 1997 bis 2007 Die Preisträger der Wissenschaftspreise 2007 Preisverleihung vom 6. Juni 2008 Dr. Jürgen Born geboren am 29. Mai 1971 Monitoring public debt management in the European Monetary Union - An external benchmark approach Doktorarbeit, eingereicht im Herbst 2006 bei Professor Dr. Wim Kösters Lehrstuhl für Theoretische Volkswirtschaftslehre Ruhr-Universität Bochum Tobias Grapentin geboren am 17. August 1976 Stakeholder-Management von Sparkassen im Spiegel der Geschäftsberichte - Systematische Bestandsaufnahme und kritische Bewertung Diplomarbeit, eingereicht im Winter 2006 bei Professor Dr. Andreas Pfingsten Institut für Kreditwesen Westfälische Wilhelms-Universität Münster Dr. Laura Kästner geboren am 30. Juni 1979 Performance von Banken und Bankensystemen und ihre Einflussfaktoren - Eine theoretische und empirische Analyse für Europa Doktorarbeit, eingereicht im Frühjahr 2008 bei Professor Dr. Stephan Paul Lehrstuhl für Finanzierung und Kreditwirtschaft Ruhr-Universität Bochum Falk Strotebeck geboren am 6. Januar 1981 Regionale Innovationsnetzwerke - Beispiel Ruhrgebiet Diplomarbeit, eingereicht im Frühjahr 2006 bei Professor Dr. Helmut Karl Lehrstuhl für Wirtschaftspolitik Ruhr-Universität Bochum Monika Wittenberg geboren am 19. Januar 1978 Schutz der Verbraucher vor Werbung für Finanzdienstleistungen Diplomarbeit, eingereicht im Sommer 2007 bei Professor Dr. Bernhard Bergmans Fachbereich Wirtschaftsrecht Fachhochschule Gelsenkirchen, Abteilung Recklinghausen 84 Sparkasse Vest Recklinghausen Wissenschaftspreis 2009 Die Preisträger der Wissenschaftspreise 2006 Preisverleihung vom 22. Juni 2007 Angelika Barann geboren am 12. April 1983 Entgeltregulierung nach dem neuen EnWG unter besonderer Berücksichtigung der Anreizregulierung Diplomarbeit, eingereicht im Herbst 2006 bei Professor Dr. Peter Oligmüller Fachbereich Wirtschaftsrecht Fachhochschule Gelsenkirchen, Abteilung Recklinghausen Dr. Andreas Horsch geboren am 7. Mai 1966 Rating und Regulierung - Eine ökonomische Analyse von Entwicklungsprozessen rating-basierter und rating-gerichteter Regulierung Habilitationsschrift, eingereicht im Dezember 2006 in der Fakultät für Wirtschaftswissenschaft der Ruhr-Universität Bochum Casten Hubensack geboren am 3. Mai 1979 Die Höhe des ökonomischen Kapitals für Adressrisiken bei Verwendung von Kreditportfoliomodellen anstelle des Baseler IRB-Ansatzes - Ein empirischer Vergleich Diplomarbeit, eingereicht im Sommer 2006 bei Professor Dr. Andreas Pfingsten Institut für Kreditwesen Westfälische Wilhelms-Universität Münster Volker Maximilian Wladarz geboren am 17. April 1980 Regionale Innovationssysteme - Theoretische Grundlagen und Anwendungen auf das Ruhrgebiet Diplomarbeit, eingereicht im Sommer 2006 bei Professor Dr. Helmut Karl Lehrstuhl für Wirtschaftspolitik Ruhr-Universität Bochum Dr. Tobias Zimmermann geboren am 29. September 1976 Reale Konjunkturzyklen, Effizienzlöhne und die Rolle von Ölpreisschocks - Eine theoretische und empirische Analyse für die Bundesrepublik Deutschland Doktorarbeit, eingereicht im Sommer 2006 bei Professor Dr. Wim Kösters Lehrstuhl für Theoretische Volkswirtschaftslehre Ruhr-Universität Bochum 85 Die Preisträger der Wissenschaftspreise 1997 bis 2007 Die Preisträger der Wissenschaftspreise 2005 Preisverleihung vom 4. August 2006 Arkadiusz Brand geboren am 5. Februar 1980 Regionale Innovationsdynamik - Theoretische Grundlagen und empirische Fallstudie in den Bundesländern Nordrhein-Westfalen und Baden-Württemberg Diplomarbeit, eingereicht im Sommer 2005 bei Professor Dr. Helmut Karl Lehrstuhl für Wirtschafts- und Finanzpolitik Ruhr-Universität Bochum Michael Hegemann geboren am 1. Mai 1980 Vermögenspreisentwicklung und Geldpolitik Diplomarbeit, eingereicht im Sommer 2005 bei Professor Dr. Wim Kösters Lehrstuhl für Theoretische Volkswirtschaftslehre Ruhr-Universität Bochum Raphael Weller geboren am 4. März 1978 Das Exit-Verhalten institutioneller Private-Equity-Geber in Deutschland - Eine empirische Analyse von Secondary Purchases Diplomarbeit, eingereicht im Sommer 2005 bei Professor Dr. Stephan Paul Lehrstuhl für Finanzierung und Kreditwirtschaft Ruhr-Universität Bochum Daniel Wissing geboren am 20. Februar 1978 Strategien zur Ausrichtung der Sparkassen-Finanzgruppe im Konsumentenkreditgeschäft - Eine kritische Analyse Diplomarbeit, eingereicht im Winter 2004/05 bei Professor Dr. Andreas Pfingsten Institut für Kreditwesen Westfälische Wilhelms-Universität Münster 86 Sparkasse Vest Recklinghausen Wissenschaftspreis 2009 Die Preisträger der Wissenschaftspreise 2004 Preisverleihung vom 1. Juli 2005 Christian Egtved geboren am 12. Juni 1976 Die Entgelte der Kreditinstitute - Eine Untersuchung anhand einiger Grundsatzurteile des Bundesgerichtshofes Diplomarbeit, eingereicht im Sommer 2004 bei Professor Dr. Ralf-Michael Marquardt Fachbereich Wirtschaftsrecht Fachhochschule Gelsenkirchen, Abteilung Recklinghausen Stefan Feuerstein geboren am 10. Oktober 1978 Aufbau Ostdeutschland - Eine Bilanz aus regionalökonomischer Sicht Diplomarbeit, eingereicht im Sommer 2004 bei Professor Dr. Helmut Karl Lehrstuhl für Wirtschafts- und Finanzpolitik Ruhr-Universität Bochum Anne Kampmann geboren am 14. Februar 1978 Stellt die Bestellung eines konservativen Zentralbankpräsidenten eine wirksame Lösung des Problems der Zeitinkonsistenz der Geldpolitik dar? Diplomarbeit, eingereicht im Sommer 2004 bei Professor Dr. Wim Kösters Lehrstuhl für Theoretische Volkswirtschaftslehre Ruhr-Universität Bochum Christian Mehrens geboren am 8. November 1976 Institutsübergreifende Bankenfusion - Eine kritische Analyse unter besonderer Berücksichtigung der Informationsökonomik Diplomarbeit, eingereicht im Winter 2003/04 bei Professor Dr. Andreas Pfingsten Institut für Kreditwesen Westfälische Wilhelms-Universität Münster 87 Die Preisträger der Wissenschaftspreise 1997 bis 2007 Die Preisträger der Wissenschaftspreise 2003 Preisverleihung vom 28. Mai 2004 Minh Banh geboren am 20. Februar 1979 Die Bemessung der Eigenkapitalunterlegung von Kreditrisiken des Retail-Portfolios nach Basel II - Eine empirische Analyse am Beispiel einer Privatkundenbank Diplomarbeit, eingereicht im Winter 2003/04 bei Professor Dr. Stephan Paul Lehrstuhl für Finanzierung und Kreditwirtschaft Ruhr-Universität Bochum Axel Dewitz geboren am 23. April 1976 Die Sanierung von Kreditgenossenschaften - Eine agencytheoretische Untersuchung Diplomarbeit, eingereicht im November 2002 bei Professor Dr. Andreas Pfingsten Institut für Kreditwesen Westfälische Wilhelms-Universität Münster Verena Dvorak geboren am 27. August 1978 US-Lease - Chancen und Risiken eines Finanzierungsinstrumentes des kommunalen Haushalts Diplomarbeit, eingereicht im Winter 2003/2004 bei Professor Dr. Ralf-Michael Marquardt Lehrstuhl für internationales Wirtschaftsrecht und Rechtsvergleichung Fachhochschule Gelsenkirchen, Abteilung Recklinghausen Holger Hausmann geboren am 28. Februar 1978 Sovereign Credit Ratings und die Finanzkrise in Südostasien 1997/98 Diplomarbeit, eingereicht im Sommer 2003 bei Professor Dr. Wim Kösters Lehrstuhl für Theoretische Volkswirtschaftslehre Ruhr-Universität Bochum Dr. Harald Schoelen geboren am 9. Februar 1967 Arbeits- und Bildungspendler in der Region Niederrhein - Eine empirische Analyse der Pendlerverflechtungen und der grenzüberschreitenden Arbeitsmobilität in die Niederlande Doktorarbeit, veröffentlicht im Dezember 2003 bei Professor Dr. Helmut Karl Lehrstuhl Wirtschaftspolitik Ruhr-Universität Bochum & Ruhr-Forschungsinstitut für Innovations- und Strukturpolitik 88 Sparkasse Vest Recklinghausen Wissenschaftspreis 2009 Die Preisträger der Wissenschaftspreise 2002 Preisverleihung vom 27. Mai 2003 Timm Dolezych geboren am 25. Januar 1976 Ansätze zur Berücksichtigung längerfristigen Wachstums in der Unternehmensbewertung Diplomarbeit, eingereicht im Winter 2001/02 bei Professor Dr. Stephan Paul Lehrstuhl für Finanzierung und Kreditwirtschaft Ruhr-Universität Bochum Christian Loose geboren am 11. Oktober 1975 Auswirkungen der Entwicklung der aufsichtsrechtlichen Behandlung von Mortgage Backed Securities auf deren Vorteilhaftigkeit - Eine Analyse von Theorie und Praxis Diplomarbeit, eingereicht im Sommer 2002 bei Professor Dr. Andreas Pfingsten Institut für Kreditwesen Westfälische Wilhelms-Universität Münster Dr. Jens Udo Prager geboren am 17. Februar 1971 Nachhaltige Umgestaltung der kommunalen Abwasserentsorgung - Eine ökonomische Analyse innovativer Entsorgungskonzepte Doktorarbeit, eingereicht im Winter 2001/02 bei Professor Dr. Helmut Karl Lehrstuhl für Wirtschafts- und Finanzpolitik Ruhr-Universität Bochum Stephanie Schreiber geboren am 3. Januar 1976 Öffentliche Förderung kleiner und mittlerer Unternehmen - Dargestellt und kritisch beleuchtet an einem Förderverfahren zur Existenzgründung eines Technologieunternehmens Diplomarbeit, eingereicht im Sommer 2002 bei Professor Dr. Rolf Hermes Fachbereich Wirtschaftsrecht Fachhochschule Gelsenkirchen, Abteilung Recklinghausen Jan Philipp Soennecken geboren am 30. März 1977 Die Aufenthaltsdauer von Migranten im Gastland - Eine Analyse am Beispiel der EU-Osterweiterung Diplomarbeit, eingereicht im Frühjahr 2003 bei Professor Dr. Wim Kösters Lehrstuhl für Theoretische Volkswirtschaftslehre Ruhr-Universität Bochum 89 Die Preisträger der Wissenschaftspreise 1997 bis 2007 Die Preisträger der Wissenschaftspreise 2001 Preisverleihung vom 8. Mai 2002 Jennifer Ellerbrock geboren am 1. Februar 1976 Preisstrategien im Private Banking - Vergleich und kritische Würdigung Diplomarbeit, eingereicht im Sommer 2001 bei Professor Dr. Stephan Paul Lehrstuhl für Finanzierung und Kreditwirtschaft Ruhr-Universität Bochum Dr. Martin Hebler geboren am 11. Februar 1969 Arbeitsmarkteffekte der EU-Osterweiterung - Zur Wirkung von Integration, Migration und institutionellem Wandel auf dem Arbeitsmarkt Doktorarbeit, eingereicht im Herbst 2001 bei Professor Dr. Wim Kösters Lehrstuhl für Theoretische Volkswirtschaftslehre Ruhr-Universität Bochum Dr. Michael Kersting geboren am 24. Juni 1965 Subterrestrische Gütertransporte in Ballungsgebieten - Ökonomische Rahmenbedingungen und Potentiale Doktorarbeit, eingereicht im Winter 2001/2002 bei Professor Dr. Paul Klemmer Lehrstuhl für Wirtschafts- und Finanzpolitik Ruhr-Universität Bochum Birgit Krchov geboren am 28. März 1974 Rechtliche und organisatorische Rahmenbedingungen elektronischer Archivierungssysteme in der Auftragsabwicklung Diplomarbeit, eingereicht im Winter 2000/01 bei Professor Dr. Achim Müglich Lehrstuhl für Internationales Wirtschaftsrecht und Rechtsvergleichung Fachhochschule Gelsenkirchen, Abteilung Recklinghausen Hauke Schinkel geboren am 5. Februar 1975 Alternative Ansätze der Preisfindung für Erstemissionen innovativer Unternehmen - Eine kritische Analyse aus Sicht einer Bank Diplomarbeit, eingereicht im Sommer 2001 bei Professor Dr. Andreas Pfingsten Institut für Kreditwesen Westfälische Wilhelms-Universität Münster 90 Sparkasse Vest Recklinghausen Wissenschaftspreis 2009 Die Preisträger der Wissenschaftspreise 2000 Preisverleihung vom 4. Mai 2001 Heiko T. Ciesinski geboren am 5. Mai 1969 Wertpapierhandel im Internet - Rechtliche Rahmenbedingungen für den Vertrieb von Investmentanteilen und Aktien im Internet Diplomarbeit, eingereicht im Sommer 2000 bei Professor Dr. Andreas Müglich Lehrstuhl für Internationales Wirtschaftsrecht und Rechtsvergleichung Fachhochschule Gelsenkirchen, Abteilung Recklinghausen Tim Lange geboren am 3. Juni 1976 Spezifische Probleme des Börsengangs von Vereinen der Fußballbundesliga Diplomarbeit, eingereicht im Sommer 2000 bei Professor Dr. Stephan Paul Lehrstuhl für Finanzierung und Kreditwirtschaft Ruhr-Universität Bochum Dr. Stefan Lilischkis geboren am 4. April 1966 Hemmnisse und Förderung von Unternehmensgründungen aus der Ruhr-Universität Bochum und der University of Washington (Seattle) Doktorarbeit, eingereicht im Winter 2000/2001 bei Professor Dr. Paul Klemmer Lehrstuhl für Wirtschafts- und Finanzpolitik Ruhr-Universität Bochum Pascal Nevries geboren am 16. Juli 1975 Die kurzfristige Performance von Initial Public Offerings unter besonderer Berücksichtigung der Risikoadjustierung Diplomarbeit, eingereicht im Herbst 1999 bei Professor Dr. Andreas Pfingsten Institut für Kreditwesen Westfälische Wilhelms-Universität Münster André Vesper geboren am 22. Juli 1973 Das „Zwei-Säulen-Konzept“ der geldpolitischen Strategie der Europäischen Zentralbank - Darstellung und kritische Würdigung Diplomarbeit, eingereicht im Frühjahr 2000 bei Professor Dr. Wim Kösters Lehrstuhl für Theoretische Volkswirtschaftslehre Ruhr-Universität Bochum 91 Die Preisträger der Wissenschaftspreise 1997 bis 2007 Die Preisträger der Wissenschaftspreise 1999 Preisverleihung vom 5. Mai 2000 Tülin Aynur geboren am 10. März 1969 Hat die EWU Auswirkungen auf den Zentralisierungsgrad von Lohnverhandlungen und dadurch auf die Höhe der Beschäftigung? Diplomarbeit, eingereicht im Frühjahr 1999 bei Professor Dr. Wim Kösters Lehrstuhl für Theoretische Volkswirtschaftslehre Ruhr-Universität Bochum Dr. Peter Fehr geboren am 18. Oktober 1967 Wohnbegleitende Dienstleistungen - Gestaltungsempfehlungen auf Basis einer theoretischen und empirischen Analyse von Angebot und Nachfrage in Bezug auf Sekundärleistungen der unternehmerischen Wohnungswirtschaft Doktorarbeit, eingereicht im Winter 1999/2000 bei Professor Dr. Joachim Süchting Lehrstuhl für Finanzierung und Kreditwirtschaft Ruhr-Universität Bochum Frank Osterhoff geboren am 23. Februar 1966 Innovations- und Technologiepolitik als Aufgabe der kommunalen Wirtschaftsförderung - Das Beispiel Essen Diplomarbeit, eingereicht im Frühjahr 1998 bei Professor Dr. Paul Klemmer Lehrstuhl für Wirtschafts- und Finanzpolitik Ruhr-Universität Bochum Klaus Segbers geboren am 11. Januar 1974 Berücksichtigung des Risikos in der Entlohnungsfunktion von Portfolio-Managern Diplomarbeit, eingereicht im Frühjahr 1999 bei Professor Dr. Andreas Pfingsten Institut für Kreditwesen Westfälische Wilhelms-Universität Münster Martina Simon geboren am 2. April 1969 Vertragsgestaltung in DV-optimierten Geschäftsprozessen - Eine Untersuchung unter besonderer Berücksichtigung des Einsatzes von UN/EDIFACT beim elektronischen Zahlungsverkehr Diplomarbeit, eingereicht im Sommer 1999 bei Professor Dr. Andreas Müglich Lehrstuhl für Internationales Wirtschaftsrecht und Rechtsvergleichung Fachhochschule Gelsenkirchen, Abteilung Recklinghausen 92 Sparkasse Vest Recklinghausen Wissenschaftspreis 2009 Die Preisträger der Wissenschaftspreise 1998 Preisverleihung vom 28. April 1999 Dr. Joachim K. Bonn geboren am 31. März 1967 Bankenkrisen und Bankenregulierung Doktorarbeit, eingereicht im Winter 1997/98 bei Professor Dr. Joachim Süchting Lehrstuhl für Finanzierung und Kreditwirtschaft Ruhr-Universität Bochum Kaj Ulrich Meys geboren am 17. September 1971 Interessenkonflikte und Anreizprobleme der Bankenaufsicht Diplomarbeit, eingereicht im Frühjahr 1998 bei Professor Dr. Andreas Pfingsten Institut für Kreditwesen Westfälische Wilhelms-Universität Münster Diana Mikulec geboren am 24. Oktober 1974 Die Konkurrenz zwischen dem Euro und dem US-Dollar als dominante internationale Währungen - Eine Analyse der Rolle der Finanzmärkte unter Berücksichtigung von Transaktionskosten und Netzwerkexternalitäten Diplomarbeit, eingereicht im Herbst 1998 bei Professor Dr. Wim Kösters Lehrstuhl für Theoretische Volkswirtschaftslehre Ruhr-Universität Bochum Dr. Karl-Heinz Storchmann geboren am 11. November 1961 Auswirkungen von Mineralölsteuererhöhungen auf den öffentlichen Personennahverkehr Doktorarbeit, eingereicht im Frühjahr 1998 bei Professor Dr. Paul Klemmer Lehrstuhl für Wirtschafts- und Finanzpolitik Ruhr-Universität Bochum Karsten Thielmann geboren im Dezember 1973 Providerhaftung im Internet Diplomarbeit, eingereicht im Sommer 1998 bei Professor Dr. Andreas Müglich Lehrstuhl für Internationales Wirtschaftsrecht und Rechtsvergleichung Fachhochschule Gelsenkirchen, Abteilung Recklinghausen 93 Die Preisträger der Wissenschaftspreise 1997 bis 2007 Die Preisträger der Wissenschaftspreise 1997 Preisverleihung vom 17. April 1998 Martin Gräbe geboren am 2. September 1969 Investor Relations bei Börseneinführungen - Zur potentiellen Verdrängung fundamentaler Informationen durch Prinzipien der Konsumgüterüberwachung im Falle des 1996er Börsenganges der Deutschen Telekom AG Diplomarbeit, eingereicht im Frühjahr 1997 bei Professor Dr. Joachim Süchting Lehrstuhl für Finanzierung und Kreditwirtschaft Ruhr-Universität Bochum Arne Helfer geboren am 15. Juni 1972 Auswirkungen der EWU auf die Arbeitslosigkeit Diplomarbeit, eingereicht im Herbst 1997 bei Professor Dr. Wim Kösters Lehrstuhl für Theoretische Volkswirtschaftslehre Ruhr-Universität Bochum Volker Kruse geboren am 4. Juli 1970 Die Rolle der staatlichen Einlagenversicherung in der amerikanischen Savings & Loan Krise Diplomarbeit, eingereicht im Frühjahr 1997 bei Professor Dr. Andreas Pfingsten Institut für Kreditwesen Westfälische Wilhelms-Universität Münster Dr. Jochen Nachtwey geboren am 19. August 1967 Institutionelle Strukturen als Auslöser persistenter Arbeitslosigkeit - Eine ökonomische Analyse für das Ruhrgebiet Doktorarbeit, eingereicht im Herbst 1997 bei Professor Dr. Paul Klemmer Lehrstuhl für Wirtschafts- und Finanzpolitik Ruhr-Universität Bochum Christoff Rössel geboren am 28. Mai 1971 Cyber Money - Rahmenbedingungen für Wirtschaft und Verbraucher Diplomarbeit, eingereicht im Herbst 1997 bei Professor Dr. Achim Albrecht Lehrstuhl für Internationales Privatrecht Fachhochschule Gelsenkirchen, Abteilung Recklinghausen 94 Die Kooperation mit der Wissenschaft hat für die Sparkasse Vest Recklinghausen traditionell eine große Bedeutung. So bestehen seit vielen Jahren enge Kontakte zu den bankwissenschaftlichen Lehrstühlen an den Universitäten in Bochum und Münster sowie dem Fachbereich Wirtschaftsrecht der Fachhochschulabteilung Recklinghausen. Neben der Gewinnung leistungsfähiger wissenschaftlicher Nachwuchskräfte steht dabei auch der unmittelbare Know-how-Transfer zur Lösung von Problemen in der Praxis im Mittelpunkt des Interesses. Planerische Entscheidungen werden künftig im Hinblick auf die immer komplexer werdenden Fragestellungen durch Globalisierung und technologiebetriebenen Innovationen vermehrt auf wissenschaftliche Lösungsbeiträge angewiesen sein. Hinzu kommt, dass die Förderung von Wissenschaft, Kunst und Kultur auch allgemein zu den wichtigen gesellschaftspolitischen Anliegen der deutschen Sparkassenorganisation gehört. Mit der Dotierung von fünf Förderpreisen trägt die Sparkasse Vest Recklinghausen diesen Zielsetzungen aktiv Rechnung. Gefördert werden sollen sehr gute bzw. gute Diplom- oder Doktorarbeiten, die sich mit bank- und bzw. sparkassenspezifischen Themenstellungen beschäftigen und in besonderer Weise eine Verbindung zwischen Theorie und Praxis darstellen. Die Nominierung der geförderten Arbeiten erfolgt durch ausgewählte wissenschaftliche Lehrstühle, zu denen inhaltliche oder besondere regionale Anknüpfungspunkte bestehen. Durch die Auswahl der Lehrstühle soll gleichzeitig eine gewisse Breite der Themenstellungen erreicht werden, um so auch einem möglichst großen Leserkreis eine interessante und anregende Lektüre zu bieten. Kurzfassungen der Arbeiten werden im Rahmen der vorliegenden Broschüre einer breiten Öffentlichkeit zugänglich gemacht.