Magazin WISU - Neue Lernwelten
Transcription
Magazin WISU - Neue Lernwelten
das wirtschaftsstudium Zeitschrift für Ausbildung, Prüfung, Berufseinstieg und Fortbildung 42. Jahrgang Heft 1 Januar 2013 WISU-MAGAZIN Europas Konjunktur: Das Nord-Süd-Gefälle Thema aktuell: Der Motor der Energiewende Die Zukunft: Überraschungen gehören dazu Ranking-Rausch zum Jahresende Japan: Die nächste Schuldenkrise? Südkorea: Die besseren Japaner Qatar: Stinkreich und selbstbewusst USA: Das Imperium schlägt zurück Der Plastik-Wahnsinn Big Profit mit Big Data? Apple 2.0: Es geht auch ohne Jobs China: Xi sagt Korruption den Kampf an CO2-Recycling: Neue Hoffnung für den Klimaschutz Australien: Mehr Bergbau, weniger Touristen Irland: Zwischen Tradition und Moderne Professoren-Profile: Gerald Willmann 5 9 12 13 16 20 22 24 27 28 30 34 34 35 35 39 WISU-KARRIERE Berufsbild: Tourismusmanager Studieren im Ausland: Auf nach Holland! Alumni-Clubs: Dabei bleiben ist alles SEO: Herr über das Suchergebnis Business School News 45 46 48 50 54 WISU-KOMPAKT Dipl.-Kffr. Linda Amalou/Prof. Dr. Stefan Süß, Düsseldorf Personalcontrolling Prof. Dr. Heinrich Seidlmeier, Rosenheim Prozesse in der Wirtschaftsinformatik Prof. Dr. Eckart Bomsdorf, Köln Armutsgrenze Dr. Thieß Petersen, Gütersloh Leistungsbilanzungleichgewichte und Mechanismen des Zahlungsbilanzausgleichs Prof. Dr. Dietrich von der Oelsnitz Walt Disney Prof. Dr. Lothar Funk, Düsseldorf Prüfungstipps im Winter 2012/13 Dipl.-Volksw. Gerald D. Müller, Wiesbaden Preiselastizität der Nachfrage Ökonomik interaktiv: Niveauproduktionsfunktion und Skalenertrag Check-up: Plankostenrechnung 57 60 61 64 66 68 69 59 73 BETRIEBSWIRTSCHAFTSLEHRE Prof. Dr. Frank Schuhmacher/Dr. Benjamin R. Auer, Leipzig Zeitwert des Geldes Prof. Dr. Jens Kümmel/Prof. Dr. Elke Kottmann/Dipl.-Betrw. (FH) Henny Höfer, Lemgo Risikomanagement bei Projektfinanzierungen Prof. Dr. Edeltraud Günther, Dresden Grüne Logistik Prof. Dr. Thorsten Jöhnk, Cottbus Die Fallstudie 75 82 87 92 WIRTSCHAFTSINFORMATIK Prof. Dr. Rainer Thome/Dipl.-Kfm. Ludwig Habersetzer, Würzburg Klassifikation digitaler Medien durch Metadaten Prof. Dr. Ronald Maier/Vanessa Borntrager, B.Sc./Mag. Dipl.-Ing. Daniel Bachlechner/Dr. Stefan Thalmann, Innsbruck Die Fallstudie 95 100 VOLKSWIRTSCHAFTSLEHRE Prof. Dr. Joachim Weeber, Elmshorn Orientierungsgrößen der Geldpolitik Prof. Dr. Werner Sesselmeier, Landau/Marlene Haupt, MA, München Alterssicherung und Verhaltensökonomik Prof. Dr. Udo Broll Die Klausur 104 108 113 WIRTSCHAFTSMATHEMATIK/WIRTSCHAFTSSTATISTIK Prof. Dr. Veith Tiemann, Hamburg Unterstützung beim Vertrieb von Suchmaschinenwerbung 117 WISU-REPETITORIUM Betriebswirtschaftslehre, Wirtschaftsinformatik, Volkswirtschaftslehre, Wirtschaftsmathematik/Wirtschaftsstatistik 121 WISU-STUDIENBLATT Prof. Dr. Viktor Lüpertz, Oberried Europäischer Stabilitätsmechanismus (ESM) Beilage WISU 1/13 1 Das Januar-Heft wisu das wirtschaftsstudium Zeitschrift für Ausbildung, Prüfung, Berufseinstieg und Fortbildung hat bereits Fahrt aufgenommen. DenDas neue Jahr noch fragen sich noch viele, was es bringen wird. Dabei fallen einem gleich einige Fragen ein: Wie wird sich die Konjunktur entwickeln? Ist die Euro-Krise bald vorbei? Wie kommen die südlichen Euro-Länder mit dem Wirtschaftseinbruch zurecht? Insbesondere die Jugend, hat die Arbeitslosigkeit dort doch inzwischen eine dramatische Höhe erreicht. Und es gibt auch viele weit in die Zukunft reichende Fragen: Wie schlimm wird der Klimawandel? Warum versagt die Politik hier so grauenhaft? Zu welchen geopolitischen Veränderungen kommt es durch China? Wie verändert das Internet unser Leben? Sie zu beantworten, würde etliche Bücher füllen, abgesehen davon, dass es kaum jemand könnte. Mehr ab S. 5, 6 und 12. Zum Jahreswechsel werden immer herausragende Persönlichkeiten und besonders erfolgreiche Manager geehrt (s. S. 13). So schaffte es der SteveJobs-Nachfolger und Apple-Chef Tim Cook gleich zweimal aufs Podest: Bei der „Time“, die jedes Jahr die „Person of the Year“ sucht, kam er auf Platz 3, und bei „Fortune“, die die weltweit besten Manager auszeichnet, schaffte er es auf Platz 2. Das Lob ist verdient, denn Apple ist auch nach Jobs Tod eine extrem erfolgreiche Firma. Mehr ab S. 30. Durch die Fracking-Technik kommt man heute an Öl- und Erdgasvorkommen heran, die früher nicht zugänglich waren. Damit stehen jetzt mehr fossile Brennstoffe zur Verfügung, als man bislang dachte. Das wird insbesondere die Abhängigkeit der USA von ausländischem Öl und Gas beenden und der dortigen Wirtschaft Auftrieb geben. Und es wird den Preis von Öl und Erdgas senken, was Ländern wie Russland und den Golfstaaten, die von deren Export abhängen, gar nicht schmeckt. Und Fracking belastet auch die Umwelt. Mehr dazu ab S. 24. Während es bei Leistungsbilanzungleichgewichte und Mechanismen des Zahlungsbilanzausgleichs von Thieß Petersen (S. 64) und Preiselastizität der Nachfrage von Gerald Müller (S. 69) um grundlegendes Lehrbuchwissen geht, greift Prof. Lothar Funk in der Rubrik Prüfungstipps (S. 68) Themen auf, die etwas tiefere Kenntnisse der VWL erfordern. Dabei geht es um die Unterschiede zwischen der wirtschaftlichen Entwicklung Frankreichs und Deutschlands, außerdem wird diskutiert, ob sich die Kritik an der expansiven Geldpolitik aus Sicht der österreichischen Schule aufrechterhalten lässt. Die Frage, ob man hundert Euro lieber heute als in zehn Jahren möchte, ist leicht zu beantworten. Auszurechnen, wie viel man nach diesem Zeitraum mehr bekommen müsste, um dann ebenso gut dazustehen wie heute, ist schon komplizierter. Prof. Frank Schuhmacher und Benjamin Auer zeigen, wie sich der Zeitwert des Geldes errechnen lässt (S. 75). Mit einer Digitalkamera lassen sich viele Fotos machen, denn Speicherplatz kostet kaum noch etwas. Damit in der Bildersammlung kein Chaos ausbricht, müssen den Fotos jedoch geeignete Suchinformationen zugewiesen werden. Mittels Geotagging lassen sich etwa automatisch Ortsnamen einbinden. Prof. Rainer Thome und Ludwig Habersetzer zeigen, wie die Klassifikation digitaler Medien durch Metadaten beim Suchen von multimedialen Informationen hilft (S. 95). Die Staatsschulden- und Euro-Krise hat der EZB eine ungewohnte Rolle zugewiesen. Galt sie bisher in erster Linie als Hüterin der Preisniveaustabilität, muss sie nun auch die Hauptlast bei der Stabilisierung der Finanzmärkte tragen. Damit gewinnt die Diskussion um die Orientierungsgrößen der Geldpolitik wieder an Bedeutung. Prof. Joachim Weeber, der sich bei der Bundesbank mit Fragen der Banken- und Finanzaufsicht beschäftigt, greift dieses Thema auf. Die Ausführungen spiegeln seine persönliche Meinung wider (ab S. 104). WISU 2 1/13 Herausgeber Prof. Dr. Thomas Hartmann-Wendels, Köln Prof. Dr. Rainer Thome, Würzburg Prof. Dr. Dr. h.c. Artur Woll, Siegen Prof. Dr. Bernd Luderer, Chemnitz Verlag Lange Verlag GmbH & Co. KG Poststraße 12 40213 Düsseldorf Tel. 0211/864190 Fax 0211/320000 E-Mail: [email protected] WISU im Internet www.wisu.de Redaktion Dr. Claudia Wendels (BWL) Dipl.-Kff. Carlotta Herberhold (Wirtschaftsinformatik) Rainer Lange Dipl.-Volksw. Dieter Geller Dipl.-Ök. Ulrich Badenberg (WISU-Magazin) Dr. Klaus-Dieter Rothe (WISU-Kompakt) Anzeigenverwaltung Lange Verlag GmbH & Co. KG Poststraße 12 40213 Düsseldorf Tel. 0211/864190, Fax 0211/320000 E-Mail: [email protected] Druck D+L Printpartner, 46395 Bocholt Bezugspreise Abonnement halbj. € 49,80 Vorzugspreis für Studenten halbj. € 37,80, Einzelheft € 9,20 (jeweils incl. MwSt.) zzgl. Versandkosten. Reklamationen wegen verloren gegangener Sendungen müssen innerhalb von vier Wochen erfolgen. Erscheinungsweise monatlich (August/September Doppelheft) Bestellungen Bestellungen nehmen der Verlag und jede Buchhandlung entgegen. Abbestellungen sind mit sechswöchiger Kündigungsfrist zum Ende eines Kalenderhalbjahres möglich. Urheber- und Verlagsrechte Die Beiträge sind urheberrechtlich geschützt. Alle Rechte, insbesondere das der Übersetzung in fremde Sprachen, bleiben vorbehalten. Kein Teil dieser Zeitschrift darf ohne Genehmigung des Verlages in irgendeiner Form — durch Fotokopie, Mikrofilm oder andere Verfahren — reproduziert oder in eine von Maschinen, insbesondere von Datenverarbeitungsanlagen, verwendbare Sprache übertragen werden. Jede im Bereich eines gewerblichen Unternehmens hergestellte oder benützte Kopie dient gewerblichen Zwecken gem. § 54 Abs. 2 UrhG und verpflichtet zur Gebührenzahlung an die VG Wort, Abteilung Wissenschaft, Goethestraße 49, 80336 München, von der die einzelnen Zahlungsmodalitäten zu erfragen sind. ANZEIGENSEITE (bleibt aus technischen Gründen leer) WISU 1/13 3 ANZEIGENSEITE (bleibt aus technischen Gründen leer) WISU 4 1/13 wisu Magazin Europas Konjunktur: Das Nord-Süd-Gefälle Wirtschaft und Arbeitsmarkt sind in Deutschland in relativ guter Verfassung, während die Euro-Zone in der Rezession steckt. In den südeuropäischen Krisenländern verschärft sich die Job-Misere zusehends. Vor allem in Griechenland ist keine Besserung in Sicht. ie deutsche Wirtschaft läuft D trotz der schwachen Konjunktur in Europa und weltweit erstaunlich gut — so gut, dass Bundeskanzlerin Merkel sich in ihrer Neujahrsansprache verpflichtet fühlte, die Deutschen vor zu viel Optimismus zu warnen. „Die Staatsschuldenkrise ist noch längst nicht überwunden“, sagte sie. „Wir brauchen weiterhin viel Geduld.“ Das wirtschaftliche Umfeld werde im kommenden Jahr nicht einfacher, warnte sie. Trotz eines etwas schwächeren vierten Quartals hat die deutsche Wirtschaft im vergangenen Jahr 0,75 Prozent zugelegt. Das sei angesichts der Turbulenzen im EuroRaum ein „robustes“ Wachstum, erklärte Wirtschaftsminister Rösler Anfang Januar. Verglichen mit dem Vorjahr, als die deutsche Wirtschaft um drei Prozent gewachsen war, war 2012 aber ein mageres Jahr. Ein kleines Wunder haben die exportorientierten Unternehmen vollbracht. Schon im November durchbrachen sie die Billionengrenze: In den ersten elf Monaten des vergangenen Jahres verkaufte die deutsche Wirtschaft nach Berechnungen des Statistischen Bundesamtes Waren im Wert von 1,018 Billionen Euro ins Ausland — 4,3 Prozent mehr als im Vorjahreszeitraum. 2011 hatten die Exporte ebenfalls die Billionengrenze überschritten, aber erst im Dezember. Zum Jahresende verloren die Exporte allerdings an Dynamik. Weil die Verkäufe in europäische Länder zurückgingen, sanken die deutschen Ausfuhren im November um 3,4 Prozent gegenüber dem Vorjahresmonat. Im gesamten letzten Jahr dürften die Exporte nach Mei- nung des Außenhandelsverbands BGA dennoch um vier Prozent auf den neuen Rekordwert von 1,1 Billionen Euro zugelegt haben. Auch in diesem Jahr könnten sich die Exporte nach Meinung vieler Ökonomen gut entwickeln. Grund ist, dass die deutschen Ausfuhren ins nicht-europäische Ausland immer wichtiger werden und die Konjunktursignale bedeutender Auslandsmärkte wie den USA und China auf anziehendes Wachstum hindeuten. Nicht unrealistisch ist außerdem, dass sich die Euro-Zone in der zweiten Jahreshälfte fängt und langsam erholt. Die Bundesregierung ist deshalb verhalten optimistisch und rechnet in diesem Jahr mit einem ähnlich hohen Wachstum wie 2012. Am Arbeitsmarkt hat die Schuldenkrise zum Ende des Jahres Spuren hinterlassen. Laut Bundesagentur für Arbeit (BA) stieg die Zahl der Arbeitslosen im Dezember um 88.000 auf 2,84 Mio., die Arbeitslosenquote kletterte um 0,2 Punkte auf 6,7 Prozent. Dennoch war 2012 ein Spitzenjahr: Im Jahresdurchschnitt verzeichnete die BA 2,9 Mio. Ar- beitslose, rund 79.000 weniger als im Jahr 2011. Weniger Arbeitslose hatte es zuletzt während des Wiedervereinigungsbooms mit damals rund 2,6 Mio. gegeben. Auch die Beschäftigung erreichte einen neuen Rekord. Laut Statistischem Bundesamt waren im letzten Jahr so viele Menschen erwerbstätig wie noch nie. Im Durchschnitt gingen 41,5 Mio. Menschen mit einem Wohnort in Deutschland einer Beschäftigung nach, 416.000 mehr als in Vorjahr. ährend die Konjunktur und der Arbeitsmarkt in Deutschland W also in erstaunlich guter Form sind, ist das Bruttoinlandsprodukt der gesamten Euro-Zone in den letzten zwei Quartalen leicht gesunken. Was nach gängiger Definition bedeutet, dass der Währungsraum in der Rezession steckt. Auch die europäische Arbeitslosigkeit eilt von einem Negativrekord zum nächsten: Im November laut Berechnungen der Statistikbehörde Eurostat 18,8 Mio. Menschen in den 17 Ländern des Währungsraums ohne Arbeit, 113.000 mehr als im Oktober und gut zwei Mio. mehr als vor einem Jahr. Nach Meinung von Ernst & Young könnte sich die europäische Jobkrise weiter verschärfen. Die Wirtschaftsprüfer rechnen mit 20 Mio. Arbeitslosen in der zweiten Jahreshälfte. Dramatisch ist die Lage in den Krisenländern Spanien und Griechenland, wo im November jeweils rund ein Viertel der Erwerbsbevölkerung arbeitslos war. Besonders hoch ist Zypern-Hilfe fließt später D er ebenfalls in der Schuldenkrise steckende Inselstaat Zypern muss sich in Geduld üben. Die Finanzminister der Euro-Zone wollen das Hilfspaket für Nikosia nicht schon im Januar, sondern erst nach der Präsidentenwahl Ende Februar bewilligen. Offenbar ist man über den amtierenden zyprischen Präsidenten Dimitris Christofias verärgert, der sich wenig reformwillig zeigt. Die Euro-Partner knüpfen ihre Unterstützung — es geht um 17,5 Mrd. Euro — an einschneidende Reformen. Außerdem sind sich die Geldgeber noch nicht einig, ob das Geld über den ESM oder als Direktkredite fließen soll. WISU 1/13 5 WISU-MAGAZIN dort der Anteil der 15- bis 24-Jährigen ohne Job, der in beiden Ländern fast 60 Prozent erreicht hat. In der gesamten Euro-Zone lag die Jugendarbeitslosigkeit im November bei 24,4 Prozent. ie geht es weiter mit Europa? W Wird sich in diesem Jahr die Schuldenkrise zum Besseren wenden? Oder kommt es doch noch zum Schlimmsten, dem Austritt Griechenlands aus der Währungszone? Erste Lichtblicke gibt es. So meldete das Krisenland Irland, das im Sommer 2010 unter den EuroRettungsschirm geschlüpft ist, Ende letzten Jahres wieder Wachstum. In diesem Jahr könnte die irische Wirtschaft nach Schätzungen des IWF 1,1 Prozent wachsen, 2014 sogar 2,2 Prozent. Positiv ist auch, dass das Haushaltsdefizit des Landes im vergangenen Jahr unter acht Prozent des Bruttoinlandsprodukts gefallen ist. Ab Ende dieses Jahres will Irland, das seit Anfang Januar die EU-Ratspräsidentschaft inne hat, wieder auf eigenen Beinen stehen und künftig ohne den Schutz des Rettungsschirms auskommen. Die Rosskur, der sich die Iren unterzogen haben, trägt also Früchte. Die Target-Front hat sich überraschenderweise etwas entspannt. Die Forderungen der Bundesbank aus dem europäischen Zahlungssystem Target sind im Dezember von 715 Mrd. auf 656 Mrd. Euro gesunken. Damit reduziert sich auch die „Erpressbarkeit“ Deutschlands, vor der vor allem der Ökonom HansWerner Sinn, Chef des Ifo-Instituts und Autor des Sachbuch-Bestsellers „Die Target-Falle“, seit einiger Zeit warnt. Der Target-Saldo der Bundesbank ist in den vergangenen zwei Jahren Global Risks Report Die größten Gefahren für die Menschheit er „Global Risks Report“, der jetzt zum siebten Mal im AufD trag des Weltwirtschaftsforums (WEF) erstellt wurde, sieht die Welt 2013 noch ein bisschen pessimistischer als im Vorjahr. Danach sind viele der Gefahren, die die Menschheit und den Planeten bedrohen, gestiegen. Ernteeinbußen erlitten. An fünfter Stelle steht der demografische Wandel: Laut Report gehen viele betroffene Länder falsch mit den Herausforderungen einer alternden Bevölkerung um. Weitere im Report genannte Risiken: Die Gefahr, dass viele Antibiotika wegen zu häufiger Nutzung Den umrühmlichen Spitzenplatz auf der Liste der 50 größten Gefahren nimmt die zunehmende Einkommensungleichheit ein. Die für die Studie befragten 1.000 Experten schätzen die Wahrscheinlichkeit, dass sie in den nächsten zehn Jahren zu globalen Krisen führt, besonders hoch ein. Platz zwei belegt die öffentliche Verschuldung, die in vielen Staaten ein bedrohliches Ausmaß angenommen hat. Als drittgrößtes Risiko nennt der Report die klimaschädlichen Emissionen. Die damit verbundenen Risiken sind gestiegen, weil die internationalen Klimaschutzverhandlungen in der Sackgasse stecken. Gefahr Nummer vier ist die weltweit zunehmende Wasserknappheit, die selbst Industrieländer wie die USA bedroht, die im vergangenen Jahr wegen der Dürre in Teilen des Landes erhebliche WISU 6 1/13 Der Klimaschutz kommt nicht voran ihre Wirkung verlieren und Krankheiten deshalb schlechter zu bekämpfen sind, mögliche „digitale Flächenbrände in einer hypervernetzten Welt“ — etwa der AntiIslam-Film bei Youtube, der weltweite Proteste auslöste — und das Risiko, dass die Bekämpfung aktueller Probleme wie der Staatsschuldenkrise zu viele Ressourcen bindet und die Aufmerksamkeit von langfristig drohenden Gefahren abzieht. in die Höhe geschossen, als die Leistungsbilanzdefizite der Krisenländer und die Kapitalflucht aus diesen Ländern rapide zunahmen. Außerdem hatten die Banken der Krisenländer große Probleme, sich bei Instituten in anderen europäischen Ländern Geld zu leihen. Stattdessen verschuldeten sie sich bei den Notenbanken ihrer Länder, was im Target-System als Verbindlichkeiten dieser Länder auftaucht. Die Notenbanken stabiler Länder wie Deutschland türmten hingegen immer größere Forderungen auf. Auf diesen gewaltigen Forderungen, so Ifo-Chef Sinn, bliebe die Bundesbank und damit Deutschland sitzen, sollte der Euro-Raum zerbrechen. Der Druck auf Deutschland, alles für den Erhalt der Währungsunion zu tun, sei also riesig. ass nun offenbar die Trendwende bei den Target-Salden einD geleitet ist, führen Sinn und andere Ökonomen auf das beherzte Eingreifen Mario Draghis zurück. Der hatte im September angekündigt, die EZB werde die Währungsunion notfalls mit dem Ankauf von Staatsanleihen in unbegrenzter Höhe retten. Obwohl die Zentralbank dieses Instrument seitdem nicht eingesetzt hat, sind die Target-Salden geschrumpft und die Krisenländer Italien und Spanien können den Kapitalmarkt wieder zu relativ günstigen Zinsen anzapfen. Vor allem aber ist das Vertrauen der Anleger wieder da: Der Kapitalabfluss aus den Krisenländern ist offenbar gestoppt, was sich unter anderem daran zeigt, dass die Einlagen bei griechischen und spanischen Banken zuletzt leicht gestiegen sind. Griechenland bleibt das größte Sorgenkind der Euro-Zone. Das Land steckt seit fünf Jahren in einer schweren Rezession, und auch in diesem Jahr soll das Bruttoinlandsprodukt wieder kräftig sinken. Die Arbeitslosigkeit steigt weiter, die Einzelhandelsumsätze sind massiv eingebrochen. Die Griechen müssen mit heftigen Sparmaßnahmen und sinkenden Löhnen fertig werden, der Kampf gegen die Steuerhinterziehung scheint hingegen aussichtslos — die Liste ließe sich fortsetzen. Derzeit lässt sich nicht absehen, wie lange es noch dauert, bis Griechenland ohne Rettungsschirm zurechtkommt. Kein Wunder, dass die Stimmung im Land gedrückt ist. So sind 72 Prozent der Griechen der Ansicht, dass 2013 noch schlimmer werde als das ohnehin schon schwierige vergangene Jahr. ANZEIGENSEITE (bleibt aus technischen Gründen leer) WISU 1/13 7 ANZEIGENSEITE (bleibt aus technischen Gründen leer) WISU 8 1/13 WISU-MAGAZIN THEMA AKTUELL Das Erneuerbare-Energien-Gesetz wird von seinen Kritikern als wettbewerbsfeindlich bezeichnet. Zu Unrecht, meint Dietmar Schütz, Präsident des Bundesverbands Erneuerbare Energie. Er erklärt, wie die erneuerbaren Energien den Börsenstrompreis sinken lassen und warum bei einem freien Markt nicht genug Produktionskapazitäten entstehen. gien auf einem Markt, der noch immer von den vier großen Konzernen geprägt ist, ein verlässlicher Stromabsatz und damit Investitionssicherheit entstehen. Ohne die Pflicht zum Anschluss der Anlagen an das Stromnetz und zur vorrangigen Stromabnahme hätten die Netzbetreiber bislang kaum einen Grund, ihre Netze Kosten des Netzausbaus können umgelegt werden Der Motor der Energiewende eit seiner Einführung im Jahr S 2000 hat das Erneuerbare-Energien-Gesetz (EEG) den Ausbau der erneuerbaren Energien kontinuierlich beschleunigt. Ihr Anteil am Stromverbrauch ist von damals rund sieben auf heute fast 25 Prozent gestiegen. Das Erfolgsrezept des Gesetzes beruht auf drei Prinzipien. Erstens: Vergütung gibt es nur für eine erbrachte Leistung, nämlich produzierte Kilowattstunden Strom. Es gibt also keine Investitionsruinen aufgrund öffentlicher Subventionen. Zweitens: Der produzierte Strom wird garantiert abgenommen. Teure Risikoaufschläge für eventuelle Unwägbarkeiten auf dem Strommarkt entfallen. Drittens: Die Höhe der Vergütung steht von Die drei Erfolgsprinzipien des EEG vornherein für 20 Jahren fest. Aufgrund dieses langen Zeitraums lassen sich die erforderlichen Investitionen verlässlich kalkulieren. Das EEG hat damit eine beachtliche Dynamik ermöglicht. Während bis vor kurzem vier große Versorger den Kraftwerks- und Strommarkt dominierten, sind heute viele Akteure am Markt tätig. Auch Privatleute, Genossenschaften und mittelständische Unternehmen beteiligen sich an der Energieversorgung. Zudem wurde in großem Maße privates Kapital mobilisiert. Allein 2010 investierte die mittelständisch geprägte Erneuerbare-Energien-Branche über 26 Mrd. Euro in regenerative Kraftwerke. Die positiven volkswirtschaftlichen Auswirkungen reichen von mehr sauberem Strom über viele neue Arbeitsplätze bis zu hoher regionaler Wertschöpfung. Als weltweit erfolgreichstes System zur Förderung erneuerbarer Energien wurde das EEG inzwischen von anderen Ländern kopiert. Dennoch werden hierzulande die Forderungen immer lauter, es wieder abzuschaffen. Es wird sogar als planwirtschaftlich und wettbewerbsfeindlich diffamiert. Doch im Gegensatz zu dem von einigen geforderten Quotensystem sieht es weder vom Staat festgelegte Mengenziele noch staatlich organisierte Ausschreibungen vor. Es bedarf auch keinerlei Bürokratie, um die Erfüllung solcher Quoten zu überwachen. Mehr noch: Durch die jährlich sinkende Förderung entsteht bei den Unternehmen hoher Innovationsdruck. Ein beeindruckender Beweis dafür sind beispielsweise die Kosten für Solarstrom, die innerhalb weniger Jahre um über 50 Prozent auf jetzt unter 20 Cent pro Kilowattstunde gefallen sind. Auf einem von Atom- und Kohleenergie beherrschten Markt konnten auf diese Weise viele innovative Technologien entwickelt werden. Ohne das EEG gäbe es diese Investitionswirkung nicht und der weitere Ausbau erneuerbarer Energien wäre sofort gestoppt. Nicht ohne Grund haben die Väter des Erneuerbare-Energien-Gesetzes einen Einspeisevorrang für regenerative Energien formuliert. Nur durch ihn kann für die erneuerbaren Ener- aus- und umzubauen. Dabei gehen sie kaum finanzielle Risiken ein. Sie können die Kosten des Netzausbaus auf die Netzentgelte umlegen, was ihnen eine komfortable Eigenkapitalrendite verschafft. Während die erneuerbaren Energien ausgebaut und die Stromnetze umgebaut werden, werden konventionelle Kraftwerke benötigt. Das sind jedoch keine Grundlastkraftwerke, sondern hochflexible Anlagen, die einspringen, wenn Wind- und Sonnenenergie den Strombedarf wegen der Tageszeit oder des Wetters nicht decken können. Die Unterteilung in Grund-, Mittel- und Spitzenlastkraftwerke gehört deshalb zunehmend der Vergangenheit an. Künftig wird zwischen fluktuierend einspeisenden Anlagen und solchen Kraftwerken unterschieden, die flexibel steu- Dietmar Schütz: Wir brauchen ein neues Strommarkt-Design erbar und auf Abruf schnell einsatzbereit sind. Die Gegner des EEG und der Energiewende beklagen, dass sich Neuinvestitionen in konventionelle Kraftwerke wegen der „planwirtschaftlichen Förderung“ der Wind-, Solarund Biomassekraftwerke nicht mehr lohnen, weil die Zahl ihrer Betriebsstunden aufgrund des Einspeisevor- WISU 1/13 9 WISU-MAGAZIN rangs der erneuerbaren Energien dramatisch absinken würde. Die erneuerbaren Energien müssten folglich schnellstens in den bestehenden Strommarkt integriert werden, womit alle Probleme gelöst wären. Dabei muss man nur den Einspeisevorrang sowie die garantierten Mindestvergütungen für Strom aus regenerativen Quellen für einen Moment ausblenden und sich den heutigen Kraftwerkpark ansehen: Zum einen Kohle-, Gas- und BiomasseWie der Preis an der Strombörse entsteht kraftwerke, für deren Betrieb teure Brennstoffe erforderlich sind, zum anderen Wind- und Solarkraftwerke, die kostenlos zur Verfügung stehende Ressourcen nutzen. Alle diese Kraftwerke bieten ihren Strom zu Grenzkosten an der Strombörse an, also zu jenen Kosten, die durch die Produktion einer zusätzlichen Kilowattstunde entstehen. Angefangen mit den kleinsten Grenzkosten werden so lange Kraftwerke mit höheren Grenzkosten zugeschaltet, bis die Stromnachfrage gedeckt ist. An der Strombörse bestimmt das letzte Gebot, das noch einen Zuschlag erhält, den Strompreis. Der Strompreis wird also vom teuersten Kraftwerk bestimmt, das noch benötigt wird, um die Nachfrage zu decken. Kraftwerke, die niedrigere Grenzkosten als den ermittelten Preis haben, können ihren Strom verkaufen. Anlagen, die teurer sind, kommen in der betreffenden Handelszeit nicht zum Zug und können nicht betrieben werden. Die Grenzkosten von Wind- und Solarenergieanlagen sind aber nahezu null, weil sie keine Brennstoffe und Emissionszertifikate einkaufen müssen. Deshalb kommen diese Anlagen auf einem liberalen Strommarkt immer zum Zug — und verdrängen so die teuren, brennstoffabhängigen Anlagen. Das ist sinnvoll, weil auf diese Weise Brennstoffressourcen geschont werden. Mit dem viel gescholtenen Einspeisevorrang hat dies jedoch nichts zu tun. Die Integration der erneuerbaren Energien in den bestehenden Markt wird das Problem, dass sich neue Kohle- und Gaskraftwerke nicht am Markt refinanzieren lassen, demnach nicht lösen — unabhängig davon, mit welchen Instrumenten der Ausbau erneuerbarer Energien gefördert wird. WISU 10 1/13 Durch das Angebot von betriebskostenfreiem Wind- und Sonnenstrom sinkt der Preis an der Strombörse, weil am anderen Ende der Merit-Order, also der preislichen Reihenfolge der Kraftwerke, teure Anlagen „aus dem Markt gedrängt“ werden. Viele Unternehmen in Deutschland profitieren direkt von den sinkenden Börsenstrompreisen. Allein 2012 betrug die sich daraus ergebende Entlastung rund 1,5 Mrd. Euro. Hinzu kommt der momentan geringe Preis für CO 2-Zertifikate, der die Strompreise für Großverbraucher ebenfalls sinken lässt. Paradoxerweise steigt jedoch in dem Moment, in dem die erneuerbaren Energien für sinkende Preise an der Börse sorgen, die EEGUmlage. Sie bildet sich aus der Differenz der gezahlten Einspeisevergütungen und den beim Verkauf des EEG-Stroms erzielten Börsenstrompreisen. jetzigen Form auch ohne Ausbau der erneuerbaren Energien keine ausreichenden Anreize, damit in neue Kraftwerke investiert wird. Mit anderen Worten: Die erneuerbaren Energien senken die Börsenstrompreise und werden dafür „bestraft“, indem die EEG-Umlage steigt — ohne dass dadurch eine einzige Kilowattstunde regenerativer Strom hinzugekommen wäre. Damit ist die Höhe der EEG-Umlage kein Indikator mehr dafür, was uns als Gesellschaft die Energiewende im Strombereich kostet. Fluktuierende Einspeisung und steuerbare Kraftwerke Damit bleibt die Frage, ob der liberale Strommarkt ohne den Ausbau der erneuerbaren Energien Anreize für Investitionen in die Erneuerung des Kraftwerkparks bieten würde. Seit der Liberalisierung des Strommarktes im Jahr 1998 wurden gerade einmal 19.700 Megawatt konventionelle Zu geringe Anreize für Investitionen Kraftwerkkapazitäten gebaut. Das ist bei einem Kraftwerkpark von rund 108.000 Megawatt und einer mittleren Lebensdauer der Kraftwerke von 40 bis 50 Jahren und angesichts des im Jahr 2000 beschlossenen Atomausstiegs weit weniger als die Hälfte dessen, was trotz des Ausbaus der erneuerbaren Energien hätte ersetzt werden müssen. Schaut man sich den Zubau der 19.700 Megawatt konventioneller Kapazität genauer an, stellt man fest, dass ein beträchtlicher Teil — unter anderem durch das Kraft-WärmeKopplungs-Gesetz — gefördert und damit ebenfalls nicht nach den Regeln des freien Marktes errichtet und finanziert wurde. Offensichtlich schafft der freie Markt in seiner Wollte ein Energieversorger früher ein Kraftwerk errichten, musste er sich dies von der zuständigen Landesbehörde, in der Regel dem Landeswirtschaftsministerium, genehmigen lassen. Ab dem Tag der Genehmigung konnte er alle Kosten, die mit der Investition verbunden waren, auf den Strompreis umlegen — noch vor Inbetriebnahme der Anlage. Damit waren die Investitionsbedingungen ähnlich sicher wie beim Erneuerbare-Energien-Gesetz. Die Herausforderung, vor der wir heute stehen, ist also nicht die Integration der EEG-Anlagen in den bestehenden Markt und der Ersatz des EEG durch ein Quotensystem, sondern die Transformation des bestehenden Energiesystems. Wir brauchen in Deutschland und in Europa ein völlig neues Design des Strommarkts, das fluktuierend eingespeiste erneuerbare Energien und flexibel steuerbare Kraftwerke integriert, dabei aber den regenerativen, steuerbaren Anlagen den Vorrang einräumt und eine ausreichend sichere Basis für Investitionen bildet. Selbstverständlich muss bei all dem stets die Kosteneffizienz des EEG und der geförderten Technologien geprüft und — wann immer möglich — verbessert werden. Dafür bietet das Gesetz heute schon zielgenaue Anpassungsmöglichkeiten, etwa die von Anfang an bestehende Degression der Vergütungssätze. Wenn dies von der Politik entschlossen genug genutzt wird, lassen sich Überförderungen vermeiden. Schon gelesen? Thieß Petersen: Ein Grexit könnte Billionen kosten (WISU 12/12) Sabine LeutheusserSchnarrenberger: Ein Urheberrecht für das 21. Jahrhundert (WISU 11/12) ANZEIGENSEITE (bleibt aus technischen Gründen leer) WISU 1/13 11 WISU-MAGAZIN Bei jedem Jahreswechsel fragt man sich, was das neue Jahr und damit die Zukunft bringt. Wie nicht nur die letzten Krisen zeigten, hält sie immer Überraschungen bereit. Euro, Schuldenkrise, die weitere Entwicklung Europas, die Konjunktur, die Auswirkungen des Internets, Klimawandel, die kommenden geopolitischen Veränderungen durch den Aufstieg Chinas — viele Themen und damit viel Platz für Spekulationen. Die Zukunft Überraschungen gehören dazu s gibt Airlines, deren Flugzeuge keine Reihe 13 haben und Hotels, E bei denen nach der 12. die 14. Etage folgt. Bei Kalenderjahren sind diese Tricks zum Leidwesen manch eines Abergläubischen nicht möglich. Doch nachdem nach dem Ende des Maya-Kalenders der Weltuntergang ausblieb, wird vielleicht auch das eben gestartete Jahr 2013 glimpflich verlaufen. Im Übrigen bedarf es nicht erst einer Unglückszahl, dass auf diesem Planeten etwas aus dem Ruder läuft. Man denke nur an den Zusammenbruch der New Economy 2000/01, an die weltweite Finanzkrise 2008/ 09 oder die 2010 ausgebrochene Euro- bzw. Staatsschuldenkrise, die bis heute noch nicht beendet ist, auch wenn sie momentan nicht die Schlagzeilen beherrscht. Wie die letzten drei Jahre gelehrt haben, kann dies jedoch schnell wieder geschehen. Allerdings scheint Mario Draghis überraschendes und wohlüberlegtes Statement Ende Juli, die Europäische Zentralbank werde „alles tun, um den Euro zu erhalten“, seither für Ruhe gesorgt zu haben. „And believe me, it will be enough”, fügte er noch hinzu. Die Finanzmärkte haben sich das offenbar erst einmal zu Herzen genommen. Der EZB-Chef wurde dafür von der „Financial Times“ zur „Person of the Year 2012“ gekürt. Wohl sehr zum Missfallen von Bundesbank-Präsident Jens Weidmann, der dessen Rettungspolitik nicht nur mit Argwohn, sondern mit offener Kritik begleitet. Für ihn ist Draghis damalige Ankündigung vor der Eröffnung der Olympischen Spiele in London „eine Art Versicherung durch die Notenbank“, die das System jedoch nicht stabiler mache. Er wünscht sich vielmehr, dass Fiskal- und Geldpolitik „sauber getrennt werden“. WISU 12 1/13 In der Tat hätte es kein seriöser Geldpolitiker vor Jahren für möglich gehalten, dass die wichtigsten Zentralbanken der Welt, die amerikanische Fed und die EZB, Geld drucken müssen, um große Krisen zu verhindern. Ein weiteres Beispiel dafür, wie rasch unerwartete Ereignisse eintreten können, die unerwartete Maßnahmen erfordern. Die Zukunft ist also stets voller Überraschungen. Wer sie prognostizieren will, kann sich schnell die Finger verbrennen. Gerade die Ökonomen mussten das in den letzten Jahren immer wieder auf bittere Weise erfahren. Wobei ihre Prognosen oft derart daneben lagen, dass sie zum Teil schon zum Gespött wurden. Auch weil einige ihrer so gehegten Theorien offenbar vorn und hinten nicht stimmen. Doch warum soll es ihnen besser gehen als Astronomen und vielen anderen Wissenschaftlern, die sich auch schon öfters genötigt sahen, so manche Theorie auf den Mond zu schießen? Oder dem Politologen Francis Fukuyama, der nach dem Zusammenbruch der Sowjetunion vom „End of History“ faselte, weil er meinte, damit habe die liberale Demokratie endgültig gewonnen. 20 Jahre später gibt es das autoritäre China immer noch, Putins Russland wird immer undemokratischer und trotz des Arabi- schen Frühlings gibt es bis heute nur wenige muslimische Länder mit einer stabilen Demokratie, die auch die Menschenrechte wahren. Sogar die gern als vorbildlich gepriesene Türkei steckt unbotmäßige Journalisten ins Gefängnis. Wird Griechenland dank Draghi also nicht den Euro aufgeben müssen? Wird es die gemeinsame Währung in fünf oder zehn Jahren noch geben? Jeder Ökonom und auch Politiker hat dazu eine eigene Meinung. Die Realität kann jedoch ganz anders aussehen. Doch unabhängig davon, wie man diese Fragen beantwortet: Klar ist, dass die letzten drei Jahre dem alten Kontinent erheblich geschadet haben. Nicht so sehr der grundsätzlichen Idee des europäischen Zusammenschlusses, sondern vor allem dem Vertrauen, dass die Politik in der Lage ist, ihn verlässlich herbeizuführen. Zu viele Politiker versuchen jetzt etwa, direkt oder indirekt alte nationalistische Gefühle anzustacheln, um bei Wahlen davon zu profitieren und ihre Machtgelüste auszuleben. Damit wird auch klar, dass das neue Europa neue Politiker benötigt, dass Figuren wie etwa Italiens Berlusconi und viele griechische Politiker, die nur ihren eigenen Vorteil im Auge haben, nicht mehr in diese Zeit passen. In Spanien ist sogar die Notenbank ins Visier der Staatsanwälte geraten. So wie die Grünen einst einen neuen Politikertyp abgeben wollten, versuchen es derzeit die Piraten. Was ihnen 2012 dann auch manchen Überraschungserfolg einbrachte. Derzeit sieht es jedoch eher so aus, als sei dieses Experiment gescheitert. Wie schwer es ist, alte Muster in der Politik abzuschütteln, zeigte sich auch während der ersten vier Regierungs- WISU-MAGAZIN jahre Barack Obamas. 2009 war er mit großen Versprechen angetreten, konnte jedoch nur einen Teil davon erfüllen. Jetzt haben ihm die Wähler eine neue Chance gegeben. Es wird spannend, was er daraus macht. Die Geschichte sei wie ein riesiges Container-Schiff, das sich auch nicht auf dem Absatz wenden ließe, meint der Historiker Neill Ferguson. Bleibt zu hoffen, dass dies auch für Europas Geschichte nach dem Zweiten Weltkrieg gilt. Dass also Europas Zusammenschluss, welche endgültige Form er auch immer annehmen mag, nicht einfach geändert oder gar aufgelöst werden kann. Selbst wenn die Briten wieder mal versuchen, sich Extrawürste braten zu lassen und die europäische Idee am liebsten auf eine reine Freihandelszone reduzieren würden. Etwa die Hälfte von ihnen möchte laut Umfragen sogar die EU verlassen. Wichtig ist, dass die europäische Karawane unbeirrt weiterzieht. Das Land kann sich gern der NAFTA anschließen. Ein Gedanke, der immer mal wieder auf der Insel diskutiert wird. Auch das US-Magazin „Time“ erkor eine „Person of the Year“. Die Wahl fiel auf Präsident Obama. Befragt, Die Globalisierung als Friedensstifter was ihn nachts wachhalte, nannte er zuerst die asiatisch-pazifische Region und China. Zwei Monate zuvor hatte „Bloomberg Businessweek“ einen China-Artikel mit „We come in peace“ betitelt, wozu eine riesige Menschenmenge Chinesen gezeigt wurde. Keine Frage: Nichts beschäftigt die USA außenpolitisch derzeit mehr als die neue Supermacht im Osten. Zumal Peking konsequent aufrüstet und unverhohlen Gebietsansprüche gegenüber einigen Anrainerstaaten stellt. Ob und in welcher Form es zur Konfrontation zwischen der alten und der neuen Supermacht kommt, wird eines der beherrschenden geopolitischen Themen der nächsten Jahre sein. Hier kann die Globalisierung zeigen, dass sie noch eine weitere, bisher weniger beachtete Seite hat: als Friedensinstrument zu dienen. Schon heute sind beide Mächte wirtschaftlich so eng verzahnt — China ist der größte Gläubiger der USA, die USA sind neben Europa der größte Exportmarkt der Chinesen —, dass sich jeder Gedanke an eine wie Die Idee stammt aus den USA: Gegen Jahresende werden die bemerkenswertesten Personen, die besten Manager und noch so manch anderer gekürt. Time, Fortune & Co. RankingRausch zum Jahresende ie Jahreswende ist auch immer die Zeit, wenn sich ZeitD schriften und Zeitungen berufen fühlen, die „Person of the Year“, den oder die Manager des Jahres auszurufen oder ähnliche Titel zu verleihen. So kürte das US-Wirtschaftsmagazin „Fortune“ diesmal Amazon-Chef Jeff Bezos zur „Businessperson of the Year“ (s. WISU 12/12, S. 1540). Eine eher langweilige Wahl. Apple-Chef Tim Cook brachte es auf Platz 2, die in Europa überwiegend unbekannten Manager Brian Roberts von Comcast und Steve Burke von NBC Universal zusammen auf Platz 3. Für nicht-amerikanische Manager hat die Zeitschrift offenbar nicht viel übrig, unter den nach ihrer Ansicht 50 besten Managern finden sich nur wenige Ausländer. „Time“ hat nicht nur Manager im Visier, wenn es darum geht, wer die „Person of the Year“ wird. Diesmal war es US-Präsident Barack Obama. Eine gute Wahl. Immerhin hat der mehr von den Europäern als von den Amerikanern geliebte Mann dafür gesorgt, dass sich das durch George W. Bush stark ramponierte Image der USA wieder verbessert hat. Gut auch die Wahl von Malala Yousafzai zur Nr. 2, der 15-Jährigen aus Pakistan, der Anfang Oktober ein Taliban in den Kopf schoss, um sie zum Schweigen zu bringen. Die Schülerin hatte sich für die Rechte der Frauen in Pakistan eingesetzt. Die Taliban erreichten mit der Tat das genaue Gegenteil davon, was sie erreichen wollten: Malala und ihr Anliegen wurden nicht nur landes-, sondern sogar gleich weltweit bekannt. Nach dem Mordversuch wurde sie in ein Hospital in England geflogen. Sie überlebte den Anschlag und ist inzwischen für viele zu einem Symbol und einer Inspiration geworden. Nr. 3 bei „Time“ wurde Tim Cook von Apple, er scheint dieses Jahr fast überall dabei zu sein. Nr. 4 Ägyptens Präsident Mursi, was viele den Kopf schütteln ließ, hat sich der Mann doch als alles andere als ein Demokrat erwiesen. Er ist sicher das Letzte, was das Land braucht. Nr. 5 wurde die Italienerin Fabiola Gianotti, eine Physikerin am CERN bei Genf. Auch deutsche Medien frönen der Ranking-Manie. So kürt das „Manager-Magazin“ seit langem den deutschen „Manager des Jahres“. Diesmal wurde es VW-Chef Martin Winterkorn. Angesichts der Erfolge der Autofirma sicher eine berechtigte Wahl. Überhaupt scheint die Managerkür sehr beliebt zu sein, selbst in Südtirol. So hob die Zeitung „Dolomiten“ Robert Zampieri, Chef der Firma Bergmilch Südtirol, auf den Thron. Da wollte die Lokalzeitschrift „Südwestfalen-Manager“ nicht nachstehen und verlieh den gleichen Titel an den Unternehmer Dennis Conze. uch den „Professor des JahA res“ gibt es — und zwar gleich vier Mal. 2012 wurden es die Physikerin Cornelia Denz (Uni Münster), der Betriebswirt Gunther Friedl (TU München), der Ingenieur Holger Timinger (FH Landshut) und die Medienwissenschaftlerin Susanne Marschall (Uni Tübingen). Verliehen wird die Auszeichnung von der Studentenzeitschrift „Unicum“ zusammen mit der Wirtschaftsprüfungsgesellschaft KPMG. Der Jury waren fast 800 Kandidatinnen und Kandidaten von den Lesern vorgeschlagen worden. WISU 1/13 13 WISU-MAGAZIN Liebesgrüße aus Moskau E r erschien zum Jahresende zwar auf keiner Ranking-Liste (s. S. 13), doch fast überall auf der Welt war über ihn zu lesen: Gérard Depardieu, Frankreichs bekanntester Schauspieler hat keine Lust mehr auf den Präsidenten François Hollande und dessen drakonische Steuerpolitik, wonach jeder Franzose, der über eine Million Euro verdient, 75 Prozent Steuern zahlen soll. Also machte er sich auf nach Belgien, wo er herzlich begrüßt wurde. Schon viele Franzosen haben in dem Nachbarland Schutz vor den notorisch hohen französischen Steuern gesucht. Bis dahin sprach Depardieu, der auch schon Obelix gemimt hat, vielen Franzosen aus der Seele. Die es im Übrigen gewohnt sind, dass Stars aus dem Show Business gelegentlich vor Gérard Depardieu und sein Freund Putin der Steuer das Weite suchen. Der Sänger Johnny Hallyday und der Schauspieler Alain Delon taten das auch schon. Sie setzten sich einst in die Schweiz ab. Was außerdem ganz legal ist. Zum einen kann sich jeder dort niederlassen, wo er möchte. Zum anderen müssen Länder, die immer den Wettbewerb propagieren, sich auch gefallen lassen, dass es einen Steuerwettbewerb zwischen den Staaten gibt. as jedoch weniger gut in DeW pardieus Heimat ankam: Er nahm das Angebot seines Freundes Wladimir Putin an und wurde Russe. Denn dort beträgt die Einkommensteuer 13 Prozent. Was man deshalb auch noch als cleveren Schachzug bezeichnen könnte. Nicht jedoch, dass er Russland als „große Demokratie“ bezeichnete. Inzwischen hat der französische Verfassungsrat das neue Steuergesetz gestoppt. Hollande muss es ändern, hält aber grundsätzlich an der Reichensteuer fest. WISU 14 1/13 auch immer geartete militärische Auseinandersetzung von vornherein zu verbieten scheint. Denn nicht anders als im modernen Europa gilt auch hier der nüchterne Satz: Auf seine Geschäftspartner schießt man nicht. Eine Weisheit, die sich die geistigen Väter der europäischen Vereinigung zu eigen machten. llerdings: Wirtschaftliche Cyber A Wars schließt das nicht unbedingt aus. Manche wie der schei- kommt, an dem sie sich schmerzhaft an Opas Erzählungen erinnern. Dass das Internet trotz dieser Bedenken unser Leben verändert hat, ist längst eine Banalität. Die vielen, leicht zugänglichen Informationen sind ein echtes Plus, auch wenn so mancher in dieser Flut verloren geht. Man sollte deshalb früh lernen, richtig damit umzugehen. Allerdings verändert die Tatsache, dass man sich fast alles auf den Bildschirm zaubern kann, auch massiv das Verhalten — nicht immer zum Guten. So muss man etwa immer weniger in die reale Welt hinausgehen. Die Arbeit erfolgt oft per Home Office, Shopping per Zalando oder Amazon, auch immr mehr Vorlesungen kann man sich schon bequem auf dem eigenen Sofa anhören, immer häufiger so sogar ein ganzes Studium absolvieren. Freunde trifft man nicht mehr in natura, sondern mittels Facebook, Bekanntschaften werden auch längst per Internet geschlossen, auch mit den Eltern skypt man. Für Bankgeschäfte muss man nicht mehr zur Bank und für die aktuellen Filme nicht Das ist eine recht mehr ins Kino geruppige Erinnerung hen. Fitnessübungen daran, dass das In- Macht uns das Internet kann man auch vor ternet-Zeitalter nicht dem Laptop machen, wieder zu nur Friede, Freude, ebenso Yoga- und Höhlenbewohnern? Eierkuchen bedeuTai-Chi-Kurse. Spieltet. Auch nicht auf freunde trifft man naprivater Ebene. Wer schon als Schü- türlich ebenfalls im Internet. Essen ler im Internet gemobbt wurden, und Trinken kann man sich ohnehin musste das bereits früh erfahren. nach Hause bestellen. Und wer immer noch dazu neigt, alle seine Gedanken und Wünsche Macht uns das Internet wieder zu sozialen Netzwerken wie Facebook Höhlenbewohnern, wird das Leben anzuvertrauen, sollte zweimal darü- zum Second-Hand-Life? Werden wir ber nachdenken. George Orwell, uns irgendwann nur noch auf unsere der Autor von „1984“, hätte sich nicht Gehirne reduzieren, die in einer Salzim Entferntesten träumen lassen, lösung schwimmen und alle drahtlos was man heute alles über Men- kommunizieren? Ein Szenario, das schen herausfinden kann. Abgese- nicht nur Science-Fiction-Autoren für hen von der kommerziellen Aus- möglich halten. Auch zum Kriegfühschlachtung der Nutzerdaten, wo- ren muss dann niemand mehr vor von die Social Networks leben, stellt die Tür. Das erledigen ferngesteusich die viel beängstigendere Frage, erte Drohnen — es gibt sie bereits — was geschieht, wenn diese Daten in und Roboterarmeen. Auch die findet falsche Hände fallen, etwa von au- man längst auf der Leinwand. toritären Systemen. aut Futurologen sind solche EntAuch in demokratischen Systemen wicklungen, wie auch immer sie wird längst von Überwachungsstaat im Detail aussehen mögen, bereits und vom gläsernen Bürger gespro- eingeleitet — die Weichen sind alchen. Für Menschen, die so etwas — so schon gestellt, auch wenn dies etwa in den osteuropäischen Staa- vielen noch nicht klar ist. Der Menschten während der kommunistischen heit steht noch einiges bevor. Für Diktatur — noch erlebt haben, durch- die Urenkel der heute Zwanzigjähriaus Grund, sich im Internet zurückzu- gen dürfte eine ganz neue Welt herhalten. Für „Digital Natives“ sind das aufziehen. Und da die Entwicklung eher kaum verständliche und irrele- Schritt für Schritt vor sich geht und vante Geschichten aus Opas Jugend. mit viel Ehrfurcht vor den fantastiBleibt zu hoffen, dass nie der Tag schen Möglichkeiten der Technolodende US-Verteidigungsminister Panetta sind sogar der Ansicht, dass sie längst im Gange sind, denkt man etwa an die Internet-Angriffe während der letzten Zeit auf einige USUnternehmen. Dahinter werden oft chinesische und auch russische Angreifer vermutet. Bei der kürzlichen Attacke auf den saudi-arabischen Ölkonzern Aramco, der 30.000 Computer lahmlegte, könnte auch der Iran dahinterstecken. Leon Panetta: „Cyber-Attacken können sogar ein ganzes Land paralysieren.“ Um Angreifer abzuschrecken, würden die USA deshalb ihre Kapazitäten ausbauen, selber Cyber Wars zu führen. L WISU-MAGAZIN gie begleitet wird, dürfte sich auch wenig Widerstand rühren. Denn die meisten, die jung sind, wollen eigentlich nur das allerneueste und allercoolste Gadget haben, gleichgültig, welche Welten sich dahinter auftun. Wie die Welt in 50, 100 oder 200 Jahren aussehen wird — darüber kann man trefflich spekulieren. So richtig weiß es natürlich niemand. Sicher ist derzeit nur, dass sich die Erdatmosphäre und das Meereswasser schneller erwärmen als bislang gedacht. Dass dies mitursächlich für Klimaveränderungen ist, gilt heute als wissenschaftlich gesichert. Die Politik hat sich bislang als unfähig erwiesen, diese Veränderungen zu stoppen. Die Folgen — und die werden heftig sein — müssen die nachfolgenden Generationen tragen. Die Vorwürfe, die sie einmal zu Recht gegen die derzeit Verantwortlichen erheben werden, gellen einem — ohne dass dazu viel Fantasie nötig ist — bereits heute in den Ohren. So wie die Nachkriegsgenerationen wütend bei ihren Eltern nachfragten, warum der Erste und Zweite Weltkrieg mit allem, was dazugehörte, nicht ver- Die Lösung: Eine grüne soziale Marktwirtschaft hindert wurden, werden diese Generationen mit ebenso viel oder noch mehr Wut fragen, warum ihnen eine solche Welt hinterlassen wurde. Die Antworten kann man sich heute schon denken: Es war das kapitalistische System mit seinem immer höher, immer schneller, immer mehr, getragen vom Egoismus des Menschen, der zuerst an sich und dann an andere denkt, schon gar nicht an diejenigen, die noch geboren werden. Ob der Kapitalismus überlebt, ist angesichts der sich durch den Klimawandel verändernden Welt offen. Wer ihn retten möchte, da bisher keine überzeugende Alternative in Sicht ist, sollte dafür sorgen, dass aus der sozialen Marktwirtschaft eine grüne soziale Marktwirtschaft wird. Viele arbeiten bereits mit Kräften daran. Da die Geschichte aber ein schwerfälliges Container-Schiff ist, sollten möglichst viele helfen, das Steuer herumzureißen. Denn die Naturgesetze des Klimawandels kennen kein Pardon. Und wie Experten sagen, bleibt keine Zeit mehr. Für manches ist es ohnehin schon zu spät. Brüssel spricht von einer Abwärtsspirale in den südlichen Krisenländern. Vor allem die Lage der Jugend ist dramatisch. Europas Krisenländer Die Tragödie des Südens ls Griechenland Mitte Dezember einen kleinen Teil seiner A Schuldverschreibungen mit einem kräftigen Abschlag zurückkaufte, seine Schulden damit um 20 Mrd. Euro senkte und so grünes Licht von Brüssel und dem IWF für weitere Hilfszahlungen von 49 Mrd. Euro bis Ende März erhielt, hob Standard & Poor’s die Kreditwürdigkeit des Landes um sechs Stufen an. Doch diese Nachrichten ändern nichts daran, dass es dem Land und seinen Menschen nach wie vor sehr schlecht geht. 2013 wird die Wirtschaft wohl um weitere fünf Prozent einbrechen. lag sie im November bei 56, in Portugal bei fast 40 und in Italien bei 37 Prozent. In Griechenland erreichte sie im September über 57 Prozent. Zum Vergleich: In Deutschland betrug sie im November 8,1 Prozent. Man kann sich vorstellen, wie vielen Jugendlichen in Südeuropa zumute ist. Sie hängen von ihren Eltern ab, die sich selbst massiv einschränken müssen. Nicht wenige griechische Familien leben sogar nur noch von der schmalen Rente der Großeltern und vielleicht von einer miserabel bezahlten Gelegenheitsarbeit da und dort. Viele junge Griechen und Spanier versuchen inzwischen ihr Glück im Ausland, etwa in Deutschland, Großbritannien, den Niederlanden, Australien, den USA oder Kanada. Die Wut auf das korrupte politische System ist vor allem in Griechenland groß. Kein Wunder, dass das Linksbündnis Syriza in Umfragen vor allen anderen Parteien liegt. Sollte die jetzige Regierungskoalition unter Premier Samaras zerbrechen und es zu Neuwahlen kommen, könnten sich die politischen Konstellationen schlagartig verändern. Doch auch in den anderen Krisenländern wird kaum ein gutes Haar an den Politikern gelassen. Selbst Italiens Technokrat Mario Monti steht wegen seiner rigiden Sparpolitik in der Kritik. Auch Portugal, Spanien und Italien ächzen nach wie vor unter staatlicher Schuldenlast, Konjunktureinbruch und hoher Arbeitslosigkeit. EU-Sozialkommissar László Andor meinte Anfang Januar, die südlichen Staaten der EU seien „in einer Abwärtsspirale von Leistungsabfall, schnell steigender Arbeitslosigkeit und erodierenden EinkomLinksbündnis Syriza: men gefangen“. Damit hätten sich Würde heute Wahlen gewinnen die wirtschaftlichen und sozialen Unterschiede zwischen Nord- und er Süden Europas durchlebt Südeuropa in den letzten fünf Jahtragische Jahre. Die Hoffnung, ren massiv verschärft. dass sich mit der EU auch die Lebensverhältnisse verbessern würDie Arbeitslosenquote in der Euro- den, ist nach einigen AnfangserZone hat jetzt 11,8 Prozent er- folgen inzwischen für die meisten reicht, die höchste seit ihrer Ex- geplatzt. Zwar wird die Schuld an istenz. Während sie in Österreich, der Misere überwiegend den einLuxemburg, Deutschland und den heimischen Politikern gegeben. In Niederlanden unter sechs Prozent den Augen vieler Jugendlicher verliegt, weisen Spanien und Grie- sagt aber auch die EU, die zu spät chenland 20 Prozentpunkte mehr und zaghaft eingegriffen habe und auf. Damit sind fast 19 Millionen die Sparpolitik übertreibe. Diese Menschen in der Euro-Zone ohne treffe nur den DurchschnittsbürArbeit. Ein absolutes Drama ist die ger, während die Reichen ungeJugendarbeitslosigkeit: In Spanien schoren davonkämen. D WISU 1/13 15 WISU-MAGAZIN Japan hat wieder mal eine neue Regierung. Doch die Rezepte, mit denen sie die Wirtschaft aus dem Dauertief holen will, sind die alten: schuldenfinanzierte Konjunkturprogramme. Dabei ist das Land bereits heute höher verschuldet als jeder andere Staat auf der Welt. Eine Schuldenkrise wie in Griechenland scheint daher nicht mehr ausgeschlossen. Riskantes Spiel Japan: Die nächste Schuldenkrise? nter den vielen Produkten, mit denen Japan die Welt beglückt U hat, ist Sushi sicher eines der populärsten — und gesündesten. Die Japaner selbst sind dafür der beste Beweis: Nirgendwo auf der Welt werden die Menschen älter als im Land der Reis- und Rohfisch-Esser, wo im letzten Jahr knapp 48.000 über hundert Jahre waren. Wer im Land der aufgehenden Sonne das Licht der der Welt erblickt, kann mit einer durchschnittlichen Lebensdauer von etwa 83 Jahren rechnen. Bei Frauen sind es sogar noch drei Jahre mehr. Die hohe Lebenserwartung der Japaner hat allerdings auch eine Kehrseite: In Verbindung mit der niedrigen Geburtenrate des Landes sorgt sie dafür, dass die japanische Gesellschaft rapide altert. So wird der Anteil der über 65-Jährigen von heute 23 Prozent bis zur Jahrhundertmitte auf 40 Prozent ansteigen. Gleichzeitig schrumpft die Bevölkerung. Gibt es heute 130 Millionen Japaner, werden es im Jahr 2060 nur noch 87 Millionen sein. Das hat nicht nur dramatische Auswirkungen auf das Sozialsystem — bereits heute nehmen die Sozialausgaben Jahr für Jahr um zehn Mrd. Euro zu —, sondern auch auf den privaten Konsum und das Steueraufkommen. Denn Ältere konsumieren weniger als Jüngere. Und wer nicht mehr arbeitet, zahlt nicht nur keine Rentenbeiträge, sondern auch keine Einkommensteuer. Hinzu kommt, dass die Wirtschaft seit der geplatzten Immobilienblase vor über 20 Jahren kaum noch wächst. Was zur Folge hat, dass die staatlichen Ausgaben nur zur Hälfte durch Steuereinnahmen gedeckt sind. Kein Wunder, dass Japan zweistellige Defizite verzeichnet — die OECD schätzt das Minus im laufenden Fi- WISU 16 1/13 nanzjahr auf zehn Prozent des BIP, mehr als Spanien oder Griechenland — und mit einer ständig steigenden Staatsverschuldung kämpft. Sie liegt inzwischen bei 220 Prozent des BIP. Da kommen selbst die Griechen — aktueller Schuldenstand: 180 Prozent — nicht mehr mit. Beste Voraussetzungen also, um von den Finanzmärkten so richtig in die Mangel genommen zu werden. Dass davon bisher keine Rede ist — die Renditen japanischer Staatsanleihen sind sogar niedriger als bei deutschen Bonds, die Rating-Agenturen geben Japan durchweg gute, wenn auch keine erstklassigen Noten —, na sorgten dann dafür, dass Japans mächtige Exportindustrie bis heute auf Sparflamme köchelt. Hinzu kommt, dass die einstige Sparquote von 14 Prozent auf zwei Prozent gefallen ist — auch hier macht sich der demografische Faktor negativ bemerkbar. Um seine enormen Defizite zu finanzieren, wird Japan deshalb über kurz oder lang auf ausländische Kapitalgeber angewiesen sein. Doch die werden sich kaum mit Mini-Zinsen abspeisen lassen. Damit droht eine Explosion der Staatsschulden. Nicht wenige Experten sagen Japan deshalb ein ähnliches oder sogar schlimmeres Schicksal als Griechenland & Co. voraus. Selbst wenn man diesen Pessimismus nicht teilt: Die drittgrößte Volkswirtschaft ist eine tickende Zeitbombe, die der Weltwirtschaft noch ernste Probleme bereiten könnte. Das scheinen auch die Japaner so zu sehen, die bereits seit Jahren eine Regierung nach der anderen verschleißen. Im Dezember war Premier Shinzo Abe: Die alten Kräfte sind wieder an der Macht es wieder mal soweit: Nach gut einem Jahr als Minisliegt vor allem an den Gläubigern. terpräsident wurde Yoshihiko Noda Denn diese sind zu 95 Prozent ja- von den Wählern in die Wüste gepanische Bürger und Unternehmen, schickt. Seine Demokratische Partei die die bislang als bombensicher gel- (DPJ) holte bei den vorgezogenen tenden, wenn auch kaum verzinsten Wahlen gerade mal 57 der 480 ParAnleihen ihres Landes mit Vorliebe lamentssitze. kaufen. Zudem wies Japans Leistungsbilanz wegen der hohen Spar- Dabei hatten viele große Hoffnungen quote der Bevölkerung jahrzehnte- in die DPJ gesetzt, die vor drei Jahren lang hohe Überschüsse aus. die Dauerherrschaft der Liberaldemokraten (LDP) beendete. Der damalige Damit ist es seit 2011 allerdings vor- Premier Yukio Hatoyama wollte mit bei. Nach dem verheerenden Tsunami dem Filz in Wirtschaft und Verwalund einem Exporteinbruch rutschte tung aufräumen, den Sozialstaat ausdie Handelsbilanz erstmals seit drei bauen und die Ära kostspieliger KonJahrzehnten ins Minus. Der starke junkturprogramme beenden, mit deYen, die Konjunkturflaute in Europa, nen LDP-Politiker die Staatsverteure Energieimporte und zuletzt der schuldung in immer größere Höhen Boykott japanischer Produkte in Chi- trieben. Sein Nachfolger Noda setzte ANZEIGENSEITE (bleibt aus technischen Gründen leer) WISU 1/13 17 WISU-MAGAZIN Japan und China sind wirtschaftlich aufeinander angewiesen. Das hindert sie jedoch nicht daran, wegen ein paar unbewohnter Inseln kräftig mit dem Säbel zu rasseln. Eskaliert der Streit, hätte das Folgen für die gesamte Weltwirtschaft. Streit mit China Die ungleichen Nachbarn ls sich Großbritannien und Argentinien 1982 wegen der FalkA land-Inseln in die Wolle bekamen, schüttelte alle Welt den Kopf: Ein Krieg wegen eines Fetzen Landes irgendwo im Atlantik? Doch keiner der Streithähne wollte damals klein beigeben und sein Gesicht verlieren. Auch bei den zwischen Japan und China heftig umstrittenen Senkaku-Inseln im ostchinesischen Meer fragt man sich, was die ganze Aufregung soll. Immerhin kam es dort in den letzten Monaten nicht nur zu mehreren Zwischenfällen, auch japanische Produkte werden daraufhin von vielen Chinesen boykottiert. Zwar wurden dort Ende der sechziger Jahre größere Öl- und Erdgasvorkommen entdeckt, die sowohl Japan als auch China gut gebrauchen können. Zudem ist die Region für ihre reichen Fischbestände bekannt. Doch all das erklärt nicht das heftige Säbelrasseln, vor allem seitens Peking. Tatsächlich liegen die Wurzeln des Konflikts viel tiefer. Er begann spätestens 1894, als der kleine Inselstaat Japan dem großen chinesischen Kaiserreich im Ersten Japanisch-Chinesischen Krieg eine demütigende Niederlage zufügte. Zwischen 1937 und 1945 hielt Japan dann weite Teile Chinas besetzt, wobei es zu einer Reihe von WISU 18 1/13 Gräueltaten an Zivilisten kam, die man in China bis heute nicht vergessen hat. Nach Ende des Zweiten Weltkriegs mussten die Chinesen dann mitansehen, wie sich Japan zu einem reichen Industriestaat entwickelte, während China unter Mao Tse-tung ein rückständiges Land blieb. Doch die Zeiten haben sich geändert. Während die japanische Wirtschaft seit Jahren auf der Stelle tritt, bricht China sämtliche Wachstumsrekorde. 2010 löste es Japan als zweitgrößte Wirtschaftsmacht ab. Zwar können die Chinesen den Japanern in puncto Wohlstand und Lebensstandard noch lange nicht das Wasser reichen. Ihr Selbstbewusstsein hat sich dank der wirtschaftlichen Erfolge allerdings vervielfacht. Auch weil Japan mehr denn je auf den Exportmarkt China angewiesen ist — ein Fünftel seiner Ausfuhren geht dorthin — und dringend benötigte Rohstoffe wie die Seltenen Erden von dort bezieht. Doch auch China kann sich einen Wirtschaftskrieg oder gar einen bewaffneten Konflikt mit dem ungeliebten Nachbarn nicht leisten. Japanische Konzerne wie Nissan, Sony oder Panasonic beschäftigen in China zehntausende Arbeiter. Stünden sie plötzlich auf der Straße, käme es zu sozialen Unruhen. Außerdem ist auch Japan für China sich außerdem für eine stärkere Öffnung der in vielen Bereichen immer noch abgeschotteten japanischen Wirtschaft ein. Doch kaum an der Macht, wurde die DPJ der von ihr bekämpften LDP immer ähnlicher — inklusive ihrer Skandale und Intrigen. Die Hilflosigkeit, mit der die Regierung anfangs auf die Dreifach-Katastrophe aus Erdbeben, Tsunami und Atomunfall reagierte, tat ein Übriges, um sie in den Augen der Wähler zu diskreditieren. Vom neuen Premier Shinzo Abe sind erst recht keine Reformen zu erwarten. Der 58-Jährige, der bereits von 2006 bis 2007 Ministerpräsident war und — natürlich — aus der LDP kommt, will die Wirtschaftsflaute wie gehabt mit milliardenschweren Konjunkturpaketen und einer extrem lockeren Geldpolitik bekämpfen. Außerdem hat er eine härtere Gangart gegenüber China angekündigt, mit dem Japan zunehmend im Clinch liegt (s. Kasten). Den von der DPJ beschlossenen Atomausstieg — derzeit sind nur zwei der 50 japanischen Reaktoren in Betrieb — will die LDP rückgängig machen. Japans Atomausstieg steht auf der Kippe Das dürfte zumindest die unter den hohen Energiekosten leidende Industrie freuen. Ob Japans Konsumenten mitziehen und ihre Kaufzurückhaltung aufgeben, ist indes mehr als fraglich. Denn nach 15 Jahren Deflation und ebenso langer Abwärtsspirale bei den Löhnen haben sie sich daran gewöhnt, ständig auf Schnäppchenjagd zu sein und Anschaffungen zu verschieben. Es könnte ja noch billiger werden. Aus „New York Times“ ein wichtiger Markt und Lieferant. Das bilaterale Handelsvolumen erreichte 2011 bemerkenswerte 340 Mrd. Dollar. amit wird klar, dass eine EsD kalation des Konflikts die gesamte Weltwirtschaft in Mitleidenschaft ziehen würde. Nicht auszudenken, sollten auch noch die USA als Verbündeter der Japaner hineingezogen werden. Nachdem mit Shinzo Abe ein „Falke“ zum japanischen Premier gewählt wurde, ist eine Entspannung allerdings vorerst nicht in Sicht. Gut möglich also, dass Abe nur ein weiteres Strohfeuer entfacht, das der Wirtschaft nicht weiterhilft, sondern nur die Schulden steigen lässt. Damit der Motor wieder anspringt, müssen die Japaner endlich ihren tiefsitzenden Pessimismus überwinden. Ökonomen empfehlen zudem einen beschleunigten Umstieg von der Industrie- zur Dienstleistungsgesellschaft und eine familienfreundlichere Politik, damit mehr Frauen arbeiten und die Japaner dennoch mehr Kinder bekommen. Vor allem aber müssen die Japaner endlich ihr Schuldenproblem anpacken. Sonst blühen ihnen eines Tages tatsächlich griechische Verhältnisse. ANZEIGENSEITE (bleibt aus technischen Gründen leer) WISU 1/13 19 WISU-MAGAZIN Südkorea ist bekannt für seine weltweit erfolgreichen Industriekonzerne. Nun drohen Chaebols wie Samsung, Hyundai & Co. jedoch zum Problem zu werden. Südkorea Die besseren Japaner ei Südkorea fallen den meisten B zuerst Hyundai und Samsung ein. Der Elektronikkonzern ist Marktführer bei Handys und verkaufte im vergangenen Jahr 28 Prozent aller weltweit abgesetzten Smartphones. Selbst Apple, mit dem man sich um zahlreiche Patente streitet, kann den Koreanern in puncto Dynamik nicht das Wasser reichen. Und Hyundai schickt sich an, den Big Three General Motors, Toyota und Volkswagen den Marsch zu blasen. Dem Autohersteller gelang 2012 das Kunststück, seinen Absatz in Europa trotz Schuldenkrise und eingebrochener Pkw-Verkäufe kräftig zu steigern. Was viele nicht wissen: Hyundai und Samsung produzieren nicht nur Autos, Fernseher und Handys. In Südkorea zählen sie zu den sogenannten Chaebols — mächtige Industrie-Konglomerate, die sich in vielen unterschiedlichen Branchen tummeln und von einflussreichen Familienclans beherrscht werden. Zum Samsung-Imperium gehören Chemiefirmen, Finanzdienstleister, Bauunternehmen und ein Freizeitpark. Andere Chaebols betreiben Einkaufszentren, Kosmetikläden und sogar Bäckereien. Die straff geführten Industrieriesen waren der Garant, dass Südkorea in kürzester Zeit den Sprung vom Entwicklungsland zum hochmodernen High-Tech-Staat schaffte. Noch Anfang der sechziger Jahre, nach dem Koreakrieg und der Teilung des Landes, befand man sich wirtschaftlich auf einer Stufe mit Ghana. Heute gehört Südkorea zu den Top-15 der größten Volkswirtschaften und zu den Top-7 der größten Exporteure. Zusammen mit China ist man die führende Schiffbaunation. Bei seinem Aufstieg orientierte sich das Land stets auch am japanischen Nachbar, zu dem viele Koreaner so etwas wie Hassliebe empfinden. Von 1910 bis 1945 war Korea japanische Kolonie — eine Zeit, die nicht gerade mit guten Erinnerungen verbunden ist. Inzwischen hat der Schüler sei- WISU 20 1/13 nen Lehrmeister jedoch auf vielen Gebieten überholt. Nicht nur, dass Samsung Sony & Co. enteilt ist und Hyundai Toyota das Fürchten lehrt. Während die japanische Wirtschaft seit zwei Jahrzehnten vor sich hin dümpelt, geht es mit Südkorea stetig nach oben. Weder die Asienkrise 1997/98 noch die Finanz- und Wirtschaftskrise von 2008/09 konnte den Aufholprozess stoppen. Das Erfolgsgeheimnis der Koreaner: Stärker noch als andere Asiaten sind sie bereit, von anderen zu lernen, erfolgreiche Konzepte zu übernehmen und weiter zu verbessern. So findet man in ihren Unternehmen — ganz Tatsächlich sind unabhängige Firmen mit 50 bis 500 Mitarbeitern in Südkorea eine Seltenheit. Kein Wunder: Die riesigen Chaebols, von denen es ein halbes Dutzend gibt, walzen alles nieder, was sich ihnen in den Weg stellt. Über die Hälfte des BIP geht auf ihr Konto. Die Kehrseite dieses extremen Ungleichgewichts: Läuft bei einem von ihnen etwas schief, hängt gleich die gesamte Wirtschaft durch. Ein ähnliches Beispiel in Europa sind Finnland und sein abgestürzter Elektronikriese Nokia. Dass das Wachstum im letzten Jahr auf zwei Prozent gefallen ist — der schwächste Wert seit drei Jahren —, ist für viele Koreaner ein Warnzeichen. Nicht wenige machen die Chaebols außerdem für die zunehmende Einkommensungleichheit und soziale Spaltung verantwortlich. Denn wer nicht das Glück hat und bei einem von ihnen arbeitet, muss sich oft mit schlechtbezahlten Jobs durchschlagen. Grund genug für Südkoreas Politiker, sich die „Demokratisierung der Wirtschaft“ auf die Fahne zu schreiben. Auch die neue Präsidentin Park Geunhye will die Allmacht von HyPräsidentin Park Geun-hye: Die Macht der Chaebols brechen undai & Co. brechen — wenn auch mit weniger rigiden Meim Gegensatz zu japanischen Kon- thoden als ihr linksliberaler Rivale zernen — auffallend viele westliche Moon Jae-in, den sie bei der Wahl im Manager. Typisch für südkoreani- Dezember knapp schlug. sche Firmen ist auch eine hohe Risikobereitschaft. Kein Volk gibt außer- Dass mit Park nun erstmals eine Frau dem mehr Geld für Bildung aus als in Südkorea das Sagen hat, zeigt, die Südkoreaner. Und keines arbei- wie stark sich das patriarchalisch getet mehr: Laut OECD bringen es die prägte Land verändert hat. Ihr Vater Südkoreaner auf 2.193 Arbeitsstun- Park Chung-hee hatte bis 1979 als den pro Jahr. Im OECD-Durchschnitt Diktator mit eiserner Faust regiert. sind es nur 1.749 Stunden. Parks Herausforderer Moon saß unter ihm im Gefängnis. Jüngstes Beispiel dieser Lernbereitschaft: Ein Förderprogramm, mit dem b auch das stets angespannte in der Hauptstadt Seoul der MittelVerhältnis zu Nordkorea von dem stand aufgepeppt werden soll. Denn Führungswechsel profitiert, wird sich Südkoreas Wirtschaftsstrategen sind zeigen. Nicht auszuschließen, dass zu der Einsicht gelangt, dass das das kommunistische Regime eine Land mehr flexible und innovative Un- weichere Gangart als Schwäche internehmen braucht, wobei Deutsch- terpretiert. Frau Park wäre allerdings land mit seinem breiten und weltweit nicht die erste Regierungschefin, die erfolgreichen Mittelstand Pate ge- sich bei Gefahr in eine „Eiserne Lady“ standen hat. verwandelt. O ANZEIGENSEITE (bleibt aus technischen Gründen leer) WISU 1/13 21 WISU-MAGAZIN Vor 50 Jahren lebten die Qataris noch von Fischfang und Perlenfischerei. Öl- und Erdgasfunde sorgten dafür, dass sie heute zu den reichsten Menschen des Globus zählen. 2022 werden sie sogar die Fußball-WM ausrichten. Doch dem Emir des Wüstenstaates reicht das nicht. Er mischt inzwischen auch politisch kräftig im Nahen und Mittleren Osten mit. Wüstenstaat Qatar Stinkreich und selbstbewusst er etwas für skurrile Länder übrig hat, ist im Wüstenstaat QaW tar genau richtig. Oder wie soll man es nennen, wenn von knapp zwei Millionen Einwohnern weniger als 250.000 Einheimische sind. Was etwa dazu führt, dass in einem seiner Luxushotels — und davon gibt es dort etliche — Menschen aus 70 Nationen arbeiten. Oder dass der Zwergstaat mit seinen 11.000 Quadratkilometern nicht nur stinkreich ist, sondern sich außerdem zu einem politischen Schwergewicht in dieser Region aufgeplustert hat und sein TVSender Al Jazeera mit seinen rund 150 Mio. Zuschauern als Sprachrohr der ganzen arabischen Welt gilt. Oder dass dort die größte US-Luftwaffenbasis der Region installiert ist. Und richtig: 2022 findet in Qatar die Fußball-WM statt — was, als es bekannt wurde, bei vielen Fans einen Lachanfall auslöste. Doch das ist längst nicht alles. Seit Jahren kaufen sich die Qataris bei vielen bekannten westlichen Firmen ein oder schlucken sie gleich ganz wie das Luxuskaufhaus Harrods in London. Sie sind etwa an Volkswagen, Tiffany, Louis Vuitton, Shell, der Bank Credit Suisse und Hochtief beteiligt. Sie haben den Fußballverein Paris Saint-Germain gekauft und sponsern seit 2010 den FC Barcelona. Offenbar überlegt man auch, dem italienischen Ex-Premier Silvio Berlusconi den AC Mailand für 650 Mio. Dollar abzukaufen. Diese Engagements laufen in der Regel über Qatars Staatsfonds, der laut Schätzungen ungefähr 100 Mrd. Dollar verwaltet. Diese Deals bringen dem Wüstenstaat jedoch nicht nur Bewunderung ein. So wurde sofort vermutet, dass man die Fußball-WM nur durch Bestechung an Land ziehen konnte, was von Qatars Regierung jedoch strikt WISU 22 1/13 zurückgewiesen wird. Der Plan Qatars, 65 Mio. Dollar in runtergekommene und vor allem von Muslimen bewohnte Pariser Vororte zu investieren, kam ebenfalls nicht so gut an. Frankreichs Rechtsaußen-Politikerin Marine Le Pen nannte das dann auch prompt ein „Trojanisches Pferd“. Woher das viele Geld kommt, ist klar: Qatar verfügt über große Öl- und die drittgrößten Erdgasvorkommen. Allein diese sind gewaltige zehn Billionen Dollar wert. Damit gehören die Qataris zu den reichsten Leuten der Welt, mit einem Pro-Kopf-BIP von mehr als 98.000 Dollar — doppelt so viel wie in den USA. 2011 stieg 19. Jahrhunderts. 1995 entriss der als modern und progressiv geltende Emir seinem Vater die Regierung, dessen rückwärtsgewandte Politik ihm gegen den Strich ging. Seit damals geht es mit Qatar steil bergauf. Vor allem verlässt man sich — ähnlich wie in den benachbarten Emiraten Dubai und Abu Dhabi — nicht mehr nur auf die endlichen Bodenschätze, sondern begann, die Wirtschaft zu diversifizieren. Derzeit hängt sie zwar noch zu 60 Prozent von den fossilen Brennstoffen ab, doch man investiert zunehmend in den gehobenen Tourismus, etwa indem man möglichst viele SportEvents ins Land holt oder spektakuläre Museen baut, und in den Ausbau des Finanzzentrums, wobei das nebenan liegende Bahrain als Vorbild dient. Zudem bemüht man sich um „Upstream Industries“, eine petrochemische Anlage, eine Düngemittelfabrik und ein Stahlwerk gibt es bereits. Außerdem setzt man auf alles, was unter den Begriff „Knowledge Economy“ fällt, und damit auch auf EntreQatars Emir al-Thani im Gaza-Streifen preneurtum. So wird etwa „Education City“, ein Vordas BIP um 14 und 2010 sogar um ort der Hauptstadt Doha, ständig fast 19 Prozent, was Weltrekord war ausgebaut. Schon heute findet man und selbst Länder wie China und In- dort Dependancen von acht renomdien in den Schatten stellte. mierten ausländischen Universitäten. Ein weiteres Projekt ist der Science Dass Qatar nicht unter dem berühm- & Technology Park, der an Educaten „Curse of Oil“ leidet, verdankt es tion City angeschlossen ist. Steuerseinem Emir Scheich Hamad bin befreite ausländische Unternehmen Khalifa al-Thani. Der liberale und auch sollen hier forschen und Produkte humorvolle Herrscher sorgt dafür, entwickeln. dass das viele Geld gut angelegt wird und vor allem seinen Landsleuten zu- Vieles hat man von Abu Dhabi und gute kommt. Qatar hat mit die nied- Dubai abgeschaut, wobei das letzrigsten Steuern der Welt, eine Ein- tere Emirat, das während der Finanzkommensteuer kennt man nicht. krise 2008/09 vom reichen Abu Dhabi mit einem 20 Mrd.-Dollar-Kredit Die al-Thanis regieren die schmale unterstützt werden musste, eher als Halbinsel, die unmittelbar an Saudi- armer Verwandter gilt. So wurde in Arabien grenzt, schon seit Mitte des den letzten Jahren die riesige Luxus- WISU-MAGAZIN die politischen Ereignisse des Nahen und Mittleren Osten einmischt, oft auch vermittelnd. „The Pearl“: Luxusbehausungen für reiche Ausländer wohnanlage „The Pearl“ errichtet, die nicht weniger gewaltig ist als ähnliche Projekte in Dubai. Auch hier steckt die Idee dahinter, reichen Bewohnern aus Saudi-Arabien, Indien, Ägypten, Pakistan oder anderen Ländern der Umgebung einen zweiten Wohnsitz zu bieten. Über Europäer, die sich hier niederlassen, freut man sich natürlich auch. er so viel Geld und außerdem noch die reizvolle Aufgabe hat, W einen modernen Retortenstaat aus dem Boden zu stampfen, sollte eigentlich zufrieden sein und genug zu tun haben. Doch den umtriebigen Emir scheint das nicht auszulasten. Schon als er 1996 den TV-Sender Al Jazeera gründete, den er bis heute finanziert, zeigte sich, dass er gern auf der internationalen Bühne mitspielt. Al Jazeera wurde so etwas wie das arabische CNN oder die arabische BBC. Man berichtete frisch und munter aus der ganzen Welt, insbesondere auch aus anderen muslimischen Ländern. Allerdings nicht immer zum Wohlgefallen der dortigen Herrscher und Politiker. Wie al-Thani einmal erzählte, beschwerten sich diese regelmäßig bei ihm über die oft kesse Berichterstattung, was ihn jedoch nicht daran hindere, sich den Sender auch weiterhin „zu leisten“. Ende 2012 gelang es Al Jazeera sogar, den US-Fernsehsender Current TV, an dem der ehemalige amerikanische Vizepräsident Al Gore beteiligt ist, für 500 Mio. Dollar zu übernehmen. Damit kann Al Jazeera jetzt auch von 40 Mio. amerikanischen Haushalten empfangen werden. Hillary Clinton, Außenministerin während Barack Obamas erster Amtszeit, meint, dass Al Jazeera durch seine couragierte Berichterstattung viel zum Arabischen Frühling in Ländern wie Tunesien, Libyen und Ägyp- ten beigetragen habe. Ob „Al Jazeera America“ ein Erfolg wird, muss sich jedoch erst noch herausstellen, haftet dem Sender dort wegen seiner Berichterstattung nach dem 11. September 2001, die nicht immer den Vorstellungen des damaligen Präsidenten George W. Bush entsprachen, doch noch der Ruf einer Osama-binLaden-TV-Station an. Zu Unrecht — denn al-Thani hat Al Qaida nie unterstützt. Außerdem ist in Qatar USMilitär stationiert: Als das U.S. Combat Air Operations Center 2003 Saudi-Arabien verlassen musste, zog es auf Einladung von al-Thani nach Qatar. Spektakulär war die Entscheidung Qatars, sich mit Kampfflugzeugen an den Nato-Angriffen gegen die Gaddafi-Armee in Libyen zu beteiligen. Derzeit unterstützt man die oppositionellen Kräfte gegen Syriens Präsidenten Bashar Assad, außerdem veranstaltete man eine Konferenz in Doha, um sie zu vereinen. Ihr war jedoch kein großer Erfolg beschert. Ende Oktober 2012 sandte der Emir von Qatar ein weithin beachtetes Signal und besuchte als erstes Staatsoberhaupt den Gaza-Streifen nach der Machtübernahme durch die Hamas. Womit er die Regierung faktisch anerkannte. Außerdem brachte er gleich 400 Mio. Dollar mit, um die dortige Wirtschaft anzukurbeln. Ob das alles nur die Auswirkungen eine Napeon-Komplexes sind oder ob der Emir eines winzigen Wüstenstaates tatsächlich nachhaltigen Einfluss auf die politischen Geschicke dieser unruhigen Weltregion nehmen kann, muss sich erst noch zeigen. Mit Sicherheit hilft der märchenhafte Reichtum, einiges in Gang zu setzen. Allerdings verhält sich al-Thani keineswegs immer konsequent. So löste seine Unterstützung des Arabischen Frühlings viel Ärger im benachbarten Saudi-Arabien aus, das bis Die Qataris sind wie die meisten Be- zuletzt Ägyptens und Tunesiens auwohner der westlitoritäre Regime unchen Seite des Perterstützte. Auf der sischen Golfs Sunnianderen Seite sandEin autoritärer Staat, ten. Seit jeher fühlt te er gemeinsam mit der den Arabischen man sich hier vom den Saudis Panzer Frühling unterstützt schiitischen Iran bein den Nachbarstaat droht. Die AnwesenBahrain, um den dorheit amerikanischen Militärs, das vor tigen Aufstand zu unterdrücken. allem die Aufgabe hat, die Meerenge von Hormuz zu sichern, durch die das m Übrigen ist al-Thani selbst ein Öl der Golfstaaten transportiert wird, autoritärer Herrscher, auch wenn gibt eine gewisse Sicherheit. Denn es seinen Untertanen wirtschaftlich gegen einen Angriff des Iran könnten viel besser geht als den Ägyptern unsich weder die Vereinigten Arabi- ter Mubarak und den Tunesiern unter schen Emirate, noch Bahrain, Kuweit Ben Ali. Und wie die Saudis sind die oder Qatar verteidigen. Schon seit Qataris Wahhabiten, allerdings in eilangem wird Teheran vorgeworfen, ner milderen Form: Eine Religionsdie schiitischen Minderheiten in den polizei gibt es in Qatar nicht. Al JaEmiraten und Saudi-Arabien zu un- zeera ist zwar offiziell von der Reterstützen und gegen die sunniti- gierung unabhängig, doch Kritik am schen Regierungen anzustacheln. eigenen Land gibt es selten. Mit der Meinungsfreiheit scheint es also nicht Qatar, eines der reichsten Länder der so weit her zu sein. So wurde im NoWelt, liegt also in einer politisch äu- vember ein Qatari zu lebenslangem ßerst delikaten Ecke. Der erste und Gefängnis verurteilt, weil er in einem zweite Irak-Krieg der Amerikaner fand Gedicht zum Arabischen Frühling den auch nicht weit entfernt statt. Mit Si- Emir beleidigte. Dem würden Democherheit hat dies das politische Be- kratie und mehr Bürgerrechte gut zu wusstsein des Emir geschärft. Und Gesicht stehen — und seine polities mag auch der Grund sein, wes- sche Glaubwürdigkeit erhöhen. halb er sich seit Jahren verstärkt in I WISU 1/13 23 WISU-MAGAZIN Jahrzehntelang ging es mit Amerikas Industrie nur bergab. Asien produzierte billiger, während sich die Deutschen auf profitable Nischen konzentrierten. Doch nun stehen marode Kolosse wie US Steel vor einem spektakulären Comeback — dank Fracking. Es beschert den USA billige Energie und damit einen entscheidenden Wettbewerbsvorteil. Fracking USA: Das Imperium schlägt zurück och in den 70er Jahren schlug Amerikas wirtschaftliches Herz N im Nordosten. Hier, südlich des Lake Erie und des Lake Michigan, ist bis heute die Schwer- und Autoindustrie der USA zu Hause, haben Unternehmen wie US Steel und General Motors ihren Sitz. Doch mit dem Aufstieg Asiens, das viel billiger produzierte, begann der Niedergang. Aus dem „Manufacturing Belt“ wurde der „Rust Belt“. Städte wie Detroit, Pittsburgh und Cleveland, deren Einwohnerzahl rapide sank, schienen dem Untergang geweiht. Wenn heute von erfolgreichen USKonzernen die Rede ist, fallen meist die Namen von Apple, Google, Microsoft oder auch Goldman Sachs. Von der einstigen Industrieherrlichkeit der USA sind nur einige wenige Unternehmen wie der Mischkonzern General Electric übrig geblieben, der auch während der letzten Krise die Fahne hochhielt. Arbeiteten zur Jahrtausendwende noch 17 Millionen Amerikaner in der Industrie, sind es heute nur noch zwölf Millionen. Ihr Anteil am BIP der USA schmolz seit den fünfziger Jahren von 25 auf 11,5 Prozent. Doch nun steht die — von manchen bereits totgesagte — US-Industrie möglicherweise vor einem spektakulären Comeback. Dinosaurier wie US Steel und der Chemiekonzern Dow Chemical schmieden neue Expansionspläne und werden von der Börse gefeiert. General Motors, vor drei Jahren noch pleite, kämpft mit Toyota und Volkswagen wieder um die Krone im Automobilbau. Und Apple kündigt an, zahlreiche Produktionsjobs aus Asien in die USA zurückzuholen. Weltweit stehen Investoren — auch aus Deutschland — Schlange, um in den USA neue Produktionsstätten zu errichten oder bestehende Kapazitä- WISU 24 1/13 ten auszubauen. Der Grund: billige Energie. Der Preis für Erdgas, gemessen in MMBTU (Million British Thermal Units), ist seit Mitte 2008 von 13 auf 3,30 Dollar gefallen. Zwischenzeitlich lag er sogar bei zwei Dollar. Auch Öl ist längst nicht mehr so teuer wie vor der Finanz- und Wirtschaftskrise, als ein Barrel der US-Sorte WTI über 140 Dollar kostete. Zuletzt lag der Preis bei 93 Dollar. Dabei schienen unablässig steigende Energiekosten angesichts der weltweit knapper werdenden Ressourcen noch vor kurzem ein unentrinnbares Schicksal zu sein. In ihrer Verzweiflung über hohe Spritrechnungen ent- Schiefer- und Sandgestein gepresst, bis es aufplatzt und das Gas und Öl entweichen kann. Die Methode wurde bereits kurz nach dem Zweiten Weltkrieg entwickelt, doch erst die Explosion der Energiepreise machte sie rentabel. Bereits heute bestehen 25 Prozent des in den USA geförderten Erdgases aus Schiefergas. Bis 2035 wird dieser Anteil laut Prognose der Internationalen Energie-Agentur (IEA) auf 50 Prozent steigen. Die USA, heute noch abhängig von arabischem Öl, sollen dann erstmals seit den fünfziger Jahren wieder genug Öl und Gas für den Eigenbedarf produzieren. Doch es kommt noch besser. Dank der durch Fracking ausgelösten Bonanza könnten die USA zur neuen Energie-Supermacht aufsteigen. Glaubt man der IEA, dann werden sie 2015 Russland als größten Gasproduzenten und 2017 Saudi-Arabien als größten Ölproduzenten ablösen und 2035 schließlich der weltweit führende Ölund Gasexporteur sein. Die Karten im globalen Energiepoker werden also ganz neu Einstige Stahlmetropole Pittsburgh: Durch Fracking zu neuem Leben erweckt gemischt. deckten viele SUV-versessene Amerikaner ihr grünes Herz und sattelten auf sparsamere Modelle um. Ausgerechnet der Texaner George W. Bush wurde zum Biosprit-Lobbyisten, der am liebsten die gesamte Landwirtschaft auf die Produktion von Bioethanol umgestellt hätte. Heute gibt es in den USA Erdgas — und möglicherweise bald auch Öl — im Überfluss. Ermöglicht wird dies durch eine neue Fördertechnik, bei der die Amerikaner weltweit führend sind: die Ausbeutung sogenannter unkonventioneller Gas- und Ölvorkommen durch Hydraulic Fracturing, kurz Fracking. Dabei wird Wasser unter hohem Druck in gas- und ölhaltiges Kein Wunder, dass in den USA eine regelrechte Fracking-Hysterie ausgebrochen ist. Energie-Experten wie Ed Morse von der Citigroup glauben fest an ein Revival der amerikanischen Industrie, die mit dem billigen Erdgas einen wichtigen Wettbewerbsvorteil gegenüber der Konkurrenz aus Asien und Europa besitzt. Bis zum Ende des Jahrzehnts, so Morse, würden im Industrie- und Energiesektor drei Mio. neue Jobs entstehen. Fracking könne das BIP der USA um drei Prozent steigern und dem klammen Staat Billionen Dollar an neuen Steuereinnahmen bescheren. Etwas weniger euphorisch ist eine Studie von PwC, die von einer Mio. neuen Industriejobs ➜ bis zum Jahr 2025 ausgeht. ANZEIGENSEITE (bleibt aus technischen Gründen leer) WISU 1/13 25 WISU-MAGAZIN Während Fracking in den USA eine Energierevolution ausgelöst hat, wird in Europa noch heftig über das Für und Wider dieser Bohrtechnik diskutiert. Ihre Befürworter führen vor allem ökonomische Argumente ins Feld. Fracking in Europa Die große Versuchung as Nordseeöl hat Briten und vor allem Norweger reich geD macht. Doch nun neigen sich die rhein-Westfalen und SchleswigHolstein keine Bohrungen mit der umstrittenen Methode erlauben, hat Niedersachsen bereits Lizenzen vergeben. Dass Umweltschützer gegen Fracking auf die Barrikaden gehen, liegt vor allem an den dabei eingesetzten Chemikalien, die nach ihrer Meinung ins Grundwasser gelangen könnten. Außerdem halten es manche für möglich, dass Fracking Erdbeben verursacht. Nicht zuletzt werde — wie bei jedem derartigen Eingriff in die Natur — das Landschaftsbild erheblich beeinträchtigt. Beim BGR hält man die Umweltrisiken dagegen für gering und beherrschbar. Fracking-Befürworter weisen außerdem darauf hin, dass das damit geförderte Erdgas erheblich umweltfreundlicher sei als Kohle. Ökonomen warnen zudem vor einem Verlust an Wettbewerbsfähigkeit. Bereits heute sei Gas in den USA um 70 Prozent billiger als in Europa, was der dortigen Industrie einen Wettbewerbsvorteil verschaffe. Auch beim Öl werde der Spread immer größer. So kostete ein Barrel der US-Sorte WTI zuletzt 93 Dollar, während die NordseeSorte Brent bei 111 Dollar lag. Vorräte dem Ende zu. 2011 war die Produktion nur noch halb so hoch wie im Peak-Jahr 1996. Bereits in zehn Jahren werde die Ölproduk- Die Versuchung, sich über Umwelttion in der Nordsee bedeutungslos bedenken hinwegzusetzen, ist dessein, prophezeien Experten. Das trifft nicht nur Norwegen und Großbritannien, sondern auch Deutschland, das die Hälfte seines Öls aus der Nordsee bezieht. Da kommen Schiefergas und Fracking wie gerufen. Denn nicht nur China, die USA und Argentinien, wo die größten Schiefergas-Reserven vermutet werden, verfügen über große Mengen unkonventioneller Energie. Auch in Europa soll es beachtliche Vorkommen geben, die größten in Frankreich und Polen. Deutschland besitzt nach Schätzung der Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) förderbare Gasreserven von 0,7 bis 2,3 Billionen Kubikmeter. Das würde reichen, um den Bedarf für maximal zwei Jahrzehnte zu decken. Doch viele Europäer wollen von Fracking nichts wissen. Die französische Regierung hat bereits ein Fracking-Verbot erlassen, ebenso Bulgarien und Rumänien. Hierzulande wird noch heftig gestritten, ob man Fracking verbieten soll. Während die Bundesländer Nord- WISU 26 1/13 Viele Europäer wollen nichts davon wissen halb groß. Im Dezember hob die britische Regierung das bisher bestehende Fracking-Verbot auf. Und das, obwohl Probebohrungen bei Blackpool 2011 ein leichtes Erdbeben zur Folge hatten. Polen träumt man sogar davon, Iteurndurch Fracking zum Gas-Exporaufzusteigen. Bis dato ist das Land von russischen Lieferungen abhängig, was die Polen verständlicherweise wurmt. Allerdings sind Bohrungen dreimal so teuer wie in den USA. Und Hilfe von der EU ist auch nicht zu erwarten. Einig sind sich die Experten darin, dass energieintensive Branchen wie die Stahl- und die Chemieindustrie am meisten vom Boom profitieren. Der Industrie-Dino US Steel zählt gleich in dreifacher Hinsicht zu den Gewinnern. Zum einen stellt man das fürs Fracking benötigte Bohrgestänge her. Dann sinken wegen des niedrigen Gaspreises die Produktionskosten. Und zu guter Letzt ist man auch noch direkt vor Ort, wenn es um die Ausbeutung der Vorkommen geht. Denn das Marcellus Shale, die größte Schiefergas-Lagerstätte der USA, erstreckt sich über weite Teile des Rust Belt. Also ausgerechnet dort, wo die USSchwerindustrie ihren Sitz hat. Noch ist das Lied von der neuen Industriemacht Amerika allerdings Zukunftsmusik. Zwar sind seit dem Ende der letzten Rezession rund eine halbe Mio. Industriejobs entstanden. Experten führen dies allerdings in erster Linie auf die allgemeine wirtschaftliche Erholung zurück. Die Chemieriesen Dow Chemical und DuPont wollen ungeachtet der stark gefallenen Energiepreise tausende Stellen abbauen, auch der Standort USA ist betroffen. Lässt sich die Globalisierung rückgängig machen? Viele Ökonomen bezweifeln ohnehin, dass sich die heutige weltweite Arbeitsteilung und damit die Globalisierung so einfach rückgängig machen lassen. Zudem könnten sich Schätzungen über die Schiefergasreserven der USA als zu optimistisch erweisen. Nach mehreren fehlgeschlagenen Probebohrungen mussten sie bereits um 40 Prozent nach unten korrigiert werden. Und dann wäre da noch das Umweltproblem. Bis zu 80 verschiedene Chemikalien werden beim Fracking zusammen mit dem Bohrwasser ins Erdreich gepumpt. Da die Gefahr besteht, dass sie ins Grundwasser gelangen und einige zudem krebserregend sind, sehen viele Experten Fracking äußerst kritisch. In Europa, wo man sensibler auf Umweltthemen reagiert, ist es deshalb heftig umstritten (s. nebenstehenden Kasten). Doch auch in den USA nimmt der Widerstand zu. Mehrere Bundesstaaten haben bereits strengere Gesetze erlassen. Im Bundesstaat New York besteht sogar noch ein Fracking-Verbot. Die Industrie hofft, dass es dieses Jahr aufgehoben wird. WISU-MAGAZIN Die Weltmeere sind zur Müllhalde für Kunststoffe verkommen. Welche Gefahren damit für den Menschen verbunden sind, zeigt jetzt eine Ausstellung in Hamburg. Zugemüllte Meere Der Plastik-Wahnsinn eder, der schon einmal am Meer J war und einen langen Strandspaziergang machte, kennt es: Entfernt man sich vom Badestrand, kommt man schnell in Küstenbereiche, die nicht mehr gesäubert werden und wo sich jede Menge Plastikmüll ansammelt und den Strand verunstaltet. Und das ist nur der sichtbare Teil dessen, was an Kunststoff in den Meeren treibt. Eine Wanderausstellung des Museums für Gestaltung in Zürich, die zurzeit in Hamburg Station macht, erinnert eindrucksvoll daran, wie die Meere in den letzten Jahrzehnten zur Müllhalde gemacht wurden. In einer Ausstellungshalle türmen sich die Abfälle: Flaschen, ausgeblichene Flip-Flops, Autoreifen, ein Schlauchboot, Campingstühle und vieles mehr. Es stammt von Stränden auf Hawaii, Fehmarn und Sylt. Schockierend und wahr: Der Müllberg entspricht etwa der Menge Kunststoff, die alle zehn bis 15 Sekunden in die Meere dieser Welt gelangt — insgesamt 6,4 Mio. Tonnen pro Jahr. Und das sind eher optimistische Schätzungen. Einige Experten gehen davon aus, dass von den 250 Mio. Tonnen Plastik, die jedes Jahr produziert werden, rund zehn Prozent in den Ozeanen landen. Vor allem in den Ländern, die über keine richtige Müllentsorgung verfügen, wird Plastik meist achtlos weggeworfen und gelangt über die Flüsse in die Meere. Der kleinere Teil der ozeanischen Müllhalden sind verlorengegangene Schiffsladungen und über Bord geworfener Müll. Auch die Industrieländer haben ihren Anteil an der Verschmutzung der Meere. Obwohl es dort meist eine weitgehende Entsorgung gibt und der meiste Plastikmüll in Verbrennungsanlagen vernichtet wird — was wegen der dabei entstehenden giftigen Rückstände auch nicht unproblematisch ist —, gelangen doch Kunststoffnanopartikel in die Meere. Sie lösen sich etwa beim Wa- schen synthetischer Kleidung und gelangen über das Abwasser, Klärwerke und Flüsse in die Ozeane. Diese Kleinstteilchen sind ganz besonders gefährlich, da sie Gifte wie DDT und polychlorierte Biphenyle binden, die sich an ihrer Oberfläche ablagern. In den vergangenen Jahrzehnten haben sich enorme Mengen Plastik in den Weltmeeren angesammelt, die sich aufgrund der maritimen Strömungen sehr stark in einigen Regionen konzentrieren. Riesengroß ist inzwischen der North Pacific Gyre (auch Great Pacific Garbage Patch genannt), der nordpazifische Müll- die UV-Strahlung wird Plastik relativ schnell zersetzt und in immer kleinere Teile zermahlen. An dieser Stelle kommt die maritime Fauna ins Spiel. Denn die Meeresbewohner halten die Plastikabfälle für Nahrung. So werden ständig verendete Albatrosse und andere Seevögel gefunden, deren Mägen mit Kunststoffresten und sogar Einwegfeuerzeugen gefüllt sind. Sie müssen verhungern, weil der Müll in ihrem Verdauungstrakt keinen Platz für Fische und andere Nahrung lässt. Besonders gefährlich sind die kleinen Plastikpartikel. Sie werden von Muscheln, tierischem Plankton und Fischen gefressen. Die schädlichen Teilchen sammeln sich im Verdauungstrakt der Tiere an und wandern sogar in die Körperzellen, wo sie deren Erbgut schädigen. Über die Nahrungskette gelangt der Kunststoff in immer größere Meeresbewohner — und damit auch in die Fische und Meeresfrüchte, die auf den Tellern des Menschen landen. Dieses Gift in unserer Nahrung löst Krebs und andere Krankheiten aus und schädigt das Erbgut. Vielleicht ist es so Kunststoff im Meer: Der Mensch schneidet sich ins eigene Fleisch etwas wie kosmische Gerechtigkeit: Die vom Menschen prostrudel: Auf einer Fläche, die etwa duzierten und weggeworfenen Kunstdoppelt so groß ist wie die USA (!), stoffe schlagen am Ende voll auf ihn zirkuliert hochkonzentrierter Plastik- zurück. müll zwischen Nordamerika und Asien. Daneben gibt es vier weitere rieb sich dagegen etwas tun lässt? sige Müllstrudel — im Nord- und im Kaum. Die kleinen Partikel lasSüdatlantik, im Südpazifik und im In- sen sich nicht aus den Meeren fidischen Ozean — sowie einige klei- schen, eher noch der in Strudeln nere, etwa bei Alaska und in der Ant- treibende Großmüll, was aber nicht arktis. Wie Untersuchungen ergaben, versucht wird. Allerdings kann jeder enthält heute praktisch jeder Liter dazu beitragen, dass der PlastikMeereswasser Plastikteile, gleich- wahn aufhört oder reduziert wird. gültig, wo er entnommen wird. Etwa indem man unverpackte Lebensmittel kauft, Plastiktüten meiMan darf sich die Müllstrudel aller- det, Glasflaschen benutzt und Prodings nicht als Plastikteppiche vor- dukte kauft, die so wenig wie möglich stellen, die gut sichtbar auf der Mee- oder kein Plastik enthalten. Ein düsresoberfläche treiben. Sie bestehen teres Thema sind auch die in Plastik zum größten Teil aus Plastikbruch- befindlichen Weichmacher. Sie hastücken, also kleinen und kleinsten ben hormonelle Wirkungen, was Kunststoffpartikeln, die sich einige unter anderem zu Fettleibigkeit und Meter unter der Oberfläche befin- Unfruchtbarkeit bei Männern führen den. Durch Wellen, Salzwasser und kann. O WISU 1/13 27 WISU-MAGAZIN Big Data ist zum Megatrend geworden: Unternehmen sammeln mithilfe sozialer Netzwerke und anderswo riesige Datenmengen, um möglichst viel über ihre Kunden zu erfahren. Das ist nicht nur unter Datenschutzaspekten bedenklich — es kann auch schnell zu Fehlinterpretationen der Kundendaten kommen. Auch die Prognose von Aktienkursen mithilfe von Big Data ist fragwürdig. Das große Datensammeln Big Profit mit Big Data? ie zuvor in der Geschichte der Menschheit wurden so viele DaN ten produziert wie heute. Schuld sind das Internet und vor allem die sozialen Medien. Das Magazin „t3n“ hat vor einiger Zeit ermittelt, welche Datenberge in jeder Minute des Tages entstehen. Bei YouTube wurden 48 Stunden Video hochgeladen, Google erhielt über zwei Mio. Suchanfragen, es wurden über 100.000 Tweets und fast 700.000 Facebook-Posts veröffentlicht, über 200 Mio. E-Mails versandt und 570 neue Websites eingerichtet. Bei Apple wurden fast 50.000 Apps heruntergeladen, FacebookNutzer klickten bei knapp 35.000 Organisationen und Marken auf den Like-Button, Tumblr-Blogger veröffentlichten rund 28.000 Posts, und bei Flickr wurden über 3.000 neue Fotos hinzugefügt. Die Online-Datenproduktion der Menschheit addierte sich 2011 auf geschätzte 1,8 Zettabyte — eine 18 mit 20 Nullen. Und das sind — wohlgemerkt — nur die Daten, die im Internet entstehen. Dazu kommen riesige Mengen Lagerhaltungs-, Umsatz-, Produktions-, Buchhaltungs- und Kostenzahlen. Man denke nur an die Daten, die bei jedem Einkauf an den Kassen des Einzelhandels anfallen. Nicht zu reden von den zahllosen weiteren Informationen, die Tag für Tag von Unternehmen, Organisationen, Behörden wie etwa Geheimdiensten — so hört der US-Geheimdienst NSA seit langem den gesammten Funk-, Telefonund Internet-Verkehr weltweit ab — gesammelt werden. Willkommen in der Welt von Big Data. „Gigant Data“ wäre eigentlich angebrachter. Anders als die strukturierten Daten in Datenbanken — etwa eine Liste aller Kunden eines Unternehmens, ihrer Adressen und letzten Bestellungen — ist Big Data das unablässige Hintergrundrauschen der WISU 28 1/13 Informationsgesellschaft, die unentwegt unstrukturierte Daten hervorbringt, die — für sich genommen — noch relativ wenig Aussagekraft haben. Erst Analyse-Tools bringen Sinn in den Wust von Nullen und Einsen. Sinn und Zweck von Big Data ist also nicht das Sammeln großer Datenmengen, sondern sie zu verstehen. Deshalb wird in diesem Zusammenhang auch häufig von „Data Mining“ gesprochen, also der Suche nach wertvollen Informationen in riesigen Datenbergen. Die Unternehmen erhoffen sich beispielsweise, ihre Kunden besser zu verstehen. Durch die Analyse der Da- tenmengen wollen sie Trends aufspüren, bessere Produkte und Dienstleistungen entwickeln und letzten Endes mehr Umsatz machen. Auch die Kunden profitieren. Etwa wenn Shopping-Portale das Internet nach günstigen Angeboten durchforsten und so für mehr Preis- und Produkttransparenz sorgen — auch das ist Big Data. Doch es muss nicht immer nur um Kommerz und Konsum gehen: Von Big Data wird auch gesprochen, wenn globale Wetterdaten analysiert werden, um daraus Rückschlüsse auf die Entwicklung des Klimas zu ziehen. Dass Big Data zum Megatrend geworden ist, hat vor allem eine Ursa- che: Die Hardware-Preise fallen und fallen, die Computer werden zudem immer leistungsfähiger, Speicherplatz kostet kaum noch etwas, und man kann ihn bei Anbietern wie Amazon, IBM, HP oder Google auch mieten, statt ihn zu kaufen — Stichwort „Cloud Computing“, auch das ist ein IT-Megatrend. Die Idee, möglichst viele Daten über Kunden zu sammeln und auszuwerten, ist nicht neu. Neu ist, dass sich Big Data kosteneffizient realisieren lässt. So wollte die US-Autoversicherung Progressive Insurance bereits Ende der achtziger Jahre das Fahrverhalten jedes Kunden detailliert erfassen, um die Versicherungsprämien individuell zu ermitteln. Doch erst 2010 ließ sich das verwirklichen. Seither haben eine Million Kunden einen kleinen Computer im Auto, der etwa aufzeichnet, wie abrupt der Fahrer bremst und wie stark er Gas gibt. Wie so oft gibt es auch bei Big Data einen regelrechten Hype. Unternehmen investieren in die nötige Hardund Software und versprechen sich aufgrund der Datenanalysen deutliche Umsatzsteigerungen. Da viele von ihnen aber ohne klares Ziel an das Thema herangehen, ist die Enttäuschung oft groß, da sich aus den Datenmengen doch nicht so viel herauslesen lässt wie erhofft. Oft können nur der Einzelhandel und die Finanzbranche, die schon früh mit Big Data hantierten, nützliche Erkenntnisse aus der Datenflut gewinnen. Ein Big-Data-Pionier ist Wal-Mart. Bereits vor 20 Jahren fand die amerikanische Einzelhandelskette heraus, dass Freitagabend oft Windeln und Bier zusammen gekauft werden. Man erklärte sich das damit, dass junge Väter auf dem Rückweg von der Arbeit oft den Windelvorrat fürs Wo- WISU-MAGAZIN chenende kauften und sich dabei gleich ein paar Dosen Bier in den Einkaufswagen legen — auch um sich selbst zu belohnen. Als Wal-Mart daraufhin begann, Windeln und Bier im Regal nebeneinander zu platzieren, soll der Umsatz beider Produkte stark gestiegen sein. Diese Anekdote aus der Frühzeit des Data Mining ist mittlerweile so häufig kolportiert worden, dass sich ihr Wahrheitsgehalt nicht mehr ermitteln lässt. uch das eine oder andere neuere Big-Data-Konzept erscheint etA was zweifelhaft. So prüft das kalifor- zeitdaten eingesetzt. Wealthfront etwa optimiert die Wertpapierportfolios seiner Kunden anhand von aktuellen Kurs- und anderen Finanzdaten. Das US-Unternehmen hat eine Software entwickelt, die für die Kunden automatisch Wertpapiere kauft oder verkauft, wenn sich aufgrund aktueller Entwicklungen an den Finanzmärkten Steuervorteile ergeben. Durch dieses „Tax Loss Harvesting“ in Echtzeit erhöht sich die Rendite der Kunden-Portfolios laut Angaben von Wealthfront um durchschnittlich einen Prozentpunkt. nische Start-up LendUp die Bonität Was Generationen von Chartanalysvon Kreditnehmern anhand der Da- ten nicht gelungen ist, wollen nun Fiten, die diese bei Facebook und in nanzexperten von der Carnegie Melanderen sozialen Medien produzie- lon University mithilfe von Big Data ren. Die Idee: Menschen, die Kon- Realität werden lassen: die Vorhertakte zu ihren Facebook-Freunden sage von Aktienkursen. Während pflegen und soziale Netzwerke rege sich die Anhänger der Chartanalyse, nutzen, sind verantwortungsbewuss- auch technische Analyse genannt, ter und zahlen ihren Kredit mit hö- bislang oft vergeblich abmühen, aus herer Wahrscheinlichkeit zurück als Kursmustern wie „umgekehrte UnMenschen, die kaum Freunde bei Fa- tertasse“, „Schulter-Kopf-Schultercebook haben. Obwohl dies mehr als Top“ oder „Dreifachtief“ auf steigenfraglich ist und ein solches Verhalten de oder sinkende Kurse zu schließen, auch völlig anders interpretiert wer- ziehen Big-Data-Prognostiker Daten den kann — etwa dass es sich dabei aus unterschiedlichsten Quellen hereinfach um geschwätzige Menschen an. So wird etwa aus den Kommenmit großem Selbsttaren in Blogs zu eidarstellungsbedürfnem neuen Applenis handelt, deren fiProdukt auf den künfBig Data nanzielle Verhältnistigen Aktienkurs der und se ähnlich instabil Firma geschlossen. Big Brother sein dürften wie ihre Psyche, was nicht Wenn Unternehmen gerade auf hohe Kreditwürdigkeit sich auf Big Data stürzen, erinnert schließen lässt —, werden die Lend- das viele unweigerlich an Big Brother Up-Analysen unter anderem von der — die Durchleuchtung des Menamerikanischen Citibank bei der schen bis auf die Unterhose. Denn Prüfung von Kreditanträgen einge- um beispielsweise an Daten aus setzt. Allerdings müssen die Kunden sozialen Netzwerken zu gelangen, zuvor ihr Einverständnis erklären, muss die Big-Data-Software tief in dass Lend-Up ihre Facebook-Daten die Privatsphäre der Nutzer eindrinanalysieren darf. gen. Das Perfide daran: Meist bekommt man es gar nicht mit, wenn Big Data wird von der Finanzindustrie Unternehmen die digitale Spur, die auch anderswo genutzt. So analy- jeder Nutzer im Internet hinterlässt, siert das US-Unternehmen Climate verfolgen, um mithilfe der dabei geCorporation Unmengen von Wetter- sammelten Daten ihre Produkte zu daten, um die Preise für Ernteaus- vermarkten. fallversicherungen zu ermitteln, die von vielen Landwirten abgeschloso ist Big Data nicht losgelöst sen werden. Um mit den vorhandevom Datenschutz und der Frage, nen Daten Wettersimulationen durch- wem welche Daten gehören und wer zuführen und Vorhersagen zu Ex- sie nutzen darf. Hier ist vieles noch tremwetterlagen zu treffen, benötigt ungeklärt. Was Firmen wie Google die Firma Hochleistungsrechner, die und andere oft nicht daran hindert, noch vor wenigen Jahren für kleinere extreme Positionen einzunehmen, bis Unternehmen unerschwinglich wa- sie von den Gerichten zurückgepfifren. So können heute viele Firmen fen werden. Bei Big Data wird desmit wenig Kapital von Big Data pro- halb nicht selten vermintes Gelände fitieren, indem sie sich die nötige Re- betreten. Nicht nur, dass der Nutzen chenpower für wenig Geld von den der Datenanalyse oft unklar ist. DaCloud-Anbietern mieten. tenskandale können sich auch rasch gegen ein Unternehmen richten und Big Data wird von der Finanzindustrie sein Image massiv schädigen. auch bei der Auswertung von Echt- S Netzbetreiber vs. Google s ist ein alter Interessenkonflikt, der sich in den letzten E Jahren zusehends verschärft hat. Auf der einen Seite stehen die Content-Provider, die den Nutzern immer mehr datenintensive Angebote machen — etwa gestreamte Filme oder Musik —, auf der anderen die Netzbetreiber und Zugangs-Provider, deren Infrastruktur durch die riesigen Datenpakete verstopft wird und die deswegen ihre Kapazitäten ausbauen müssen, ohne dass sich jedoch die Content-Provider an den Investitionen beteiligen. Die Zugangs-Provider unternehmen immer wieder Anläufe, die Kosten gerechter zu verteilen — zuletzt im Dezember bei der Konferenz der Internationalen Fernmeldeunion (ITU) in Dubai —, doch bislang erfolglos. Der Konflikt drohte zu eskalieren, als der französische Zugangs-Provider Free Anfang des Jahres die Muskeln spielen ließ — und sich als Gegner ausgerechnet den Internet-Riesen Google herauspickte: Das Unternehmen kündigte an, bei seinen 5,2 Mio. Kunden automatisch die Google-Werbung auszufiltern. Eine Provokation für den Suchkonzern, dessen wichtigste Einnahmequelle die neben den Suchergebnissen oder auf Partner-Websites eingeblendete Werbung ist, der aber durch seine beliebte Tochter YouTube in erheblichem Maße für den explodierenden Datenverkehr im Netz mitverantwortlich ist. achdem sich die französische N Ministerin für digitale Wirtschaft, Fleur Pellerin, eingeschaltet hatte, gab Free die Pläne allerdings schnell wieder auf. Offenbar war der Respekt vor Google, dessen Angebote zu den meistgenutzten im Internet gehören, zu groß. WISU 1/13 29 WISU-MAGAZIN Apple 2.0, das ist Apple ohne Steve Jobs. Als das Marketing-Genie im Oktober 2011 starb, glaubten viele, die Computerfirma werde seinen Abgang nicht verkraften. Doch der neue CEO Tim Cook beweist: Es geht auch ohne ihn. Cook schreibt die Erfolgsgeschichte fort und hat Apple außerhalb der Fangemeinde ein besseres Image verschafft. Der Ritterschlag steht allerdings noch aus. Der Neue Apple 2.0: Es geht auch ohne Jobs anchmal müssen auch erfolgreiche Konzernchefs kleinere M Brötchen backen. Tim Cook, seines Zeichens CEO von Apple, erhielt im vergangenen Jahr 4,2 Mio. Dollar, davon 2,8 Mio. Dollar Prämien. Das ist zwar immer noch ein stattliches Gehalt. Doch verglichen mit den 378 Mio. Dollar des Vorjahres könnte man fast von Peanuts sprechen. Außerdem werden andere Apple-Manager deutlich besser bezahlt. CFO Peter Oppenheimer etwa bekam 68,6 Mio. Dollar. Der Mann sollte also dringend über einen Jobwechsel nachdenken, er ist eindeutig unterbezahlt. Schließlich scheffelt Apple unter ihm so viel Geld wie kaum ein anderes Unternehmen. Zuletzt waren es über acht Mrd. Dollar, die man mit dem Verkauf von Smartphones und Tablets verdiente — in einem Quartal. Im gesamten Geschäftsjahr 2011/12 kam die Apfel-Firma auf 41 Mrd. Dollar Profit. Da wird selbst Microsoft neidisch, das zu seinen besten Zeiten ebenfalls in Dollars schwamm. Von anderen Unternehmen ganz zu schweigen. Nur Energieriesen wie ExxonMobil, Gazprom oder Royal Dutch Shell können einigermaßen mithalten. Allerdings verdankt Apple seinen Erfolg nicht einer monopolartigen Stellung, wie sie zum Teil in der Software- oder Energiebranche üblich ist — das Betriebssystem Windows war jahrelang der beste Beweis, warum Monopole schädlich für die Wirtschaft sind —, sondern überzeugenden Produkten, die Millionen Fans in aller Welt begeistern. 27 Mio. verkaufte iPhones, 14 Mio. verkaufte iPads und fünf Mio. verkaufte MacComputer in einem Quartal sprechen für sich. Dass sich manche Apple-Jünger jedes Mal die Nacht WISU 30 1/13 um die Ohren schlagen, wenn der Stapellauf eines iProduktes bevorsteht, mögen viele für verdammenswerten Marken- und Konsumfetischismus halten. Doch zu einer freiheitlichen Marktgesellschaft gehört eben auch die Freiheit, sich zum Narren zu machen. Niemand, der ein Smartphone benötigt, wird gezwungen, sich ausgerechnet ein iPhone zu kaufen. Es gibt genügend Konkurrenzangebote. Der Vorwurf, hier treibe ein Unternehmen Corporate Branding auf die Spitze und erziehe seine Kunden zu Konsumsklaven, zieht deshalb nicht. Zumal diejenigen, die nachts vor Apple für eine elitäre Minderheit herstellt, die sich dann im Glanz der schicken und teuren Geräte sonnt. iPhone und iPad sind Massenartikel und Apple ist ein ausgewachsener Konzern mit mehr als 70.000 Mitarbeitern, dessen Produkte — nicht anders als die seiner Konkurrenten — in China gefertigt werden, von schlechtbezahlten Lohnarbeitern, die 60 Stunden und mehr pro Woche schuften, und das unter fragwürdigen Sicherheits- und Gesundheitsbedingungen. Fast hat man den Eindruck, der Hype habe nach dem Tode Steve Jobs noch zugenommen. Dabei waren nicht nur eingefleischte Apple-Fans, sondern auch zahlreiche Analysten überzeugt, mit dem Ableben des charismatischen Steuermanns, der im Oktober 2011 an Bauchspeicheldrüsenkrebs starb, sei auch Apple dem Untergang geweiht. Zumindest werde das Unternehmen jetzt langsam, aber leider unaufhaltsam, den Bach runtergehen. Doch offenbar ist Jobs Geist noch immer in der Firma lebendig. Oder wem das zu transzendental klingt: Seine Apple-Chef Tim Cook: Nicht fragen, was Steve getan hätte Persönlichkeit hat Apple so geprägt, dass das UnterStores campieren, um dann zu den nehmen bis heute daraus Kapital Ersten zu gehören, die das neueste schlägt. Nicht auszuschließen, dass iPhone oder den neuesten iPad in den ihn sein früher Tod — Jobs wurde Händen halten, in der Regel keine nur 56 Jahre alt — und so mancher von der Werbung verführten Jugend- verklärende Nachruf zum Mythos lichen sind, sondern gestandene Er- gemacht haben, der auch in Jahrwachsene, die genau wissen (sollten), zehnten die Fans in seinen Bann warum sie gerade dieses Produkt zieht. Ganz so, wie man es von jung wollen und kein anderes. gestorbenen Film- und Pop-Ikonen kennt. Schließlich war auch der AppDennoch verdient der Hype, der welt- le-Gründer eine Art Popstar, dessen weit um Apple gemacht wird und den Produktinszenierungen im schwardie Medien mit ihrer umfangreichen zen Rolli und mit Drei-Tage-Bart an Berichterstattung über jedes neue Rockkonzerte erinnerten. Apple-Produkt kräftig anheizen, eine nähere Betrachtung. Schließlich ist Der Mythos Jobs als Kaufargument die kalifornische Computerschmiede für ein iPhone? Tim Cook würde so längst dem Stadium einer kleinen etwas sicher nicht unterschreiben. Kultfirma entwachsen, die Produkte Der neue Apple-Chef ist ein viel nüch- ANZEIGENSEITE (bleibt aus technischen Gründen leer) WISU 1/13 31 WISU-MAGAZIN Rivale Samsung lässt nicht locker as Airbus und Boeing für den Flugzeugbau sind, sind Apple W und Samsung bei mobilen Computern: zwei Firmen, die sich ein spannendes Duell um die Marktführerschaft liefern. Während die Amerikaner bei den Tablets vorn liegen, ist Samsung bei den Smartphones spitze. Der Elektronikkonzern kommt hier auf einen Marktanteil von 28 Prozent. Auf dem gesamten Handy-Markt ist man mit 29 Prozent führend. Was Apple zu denken geben muss, ist vor allem die aggressive Dynamik der Koreaner. Im Schlussquartal 2012 steigerte Samsung seinen Gewinn um 89 Prozent auf 8,3 Mrd. Dollar und stößt damit in Dimensionen vor, die bislang der kalifornischen Computerschmiede vorbehalten waren. Es war bereits das fünfte Rekordergebnis in Folge. Doch nicht nur die Apfel-Männer Samsung-Zentrale aus Cupertino müssen sich warm anziehen. Samsung will auch zum größten Hersteller von Haushaltsgeräten und Medizintechnik aufsteigen. Offenbar ist den Konzernstrategen das wechselhafte Geschäft mit Handys und TV-Geräten, wo man ebenfalls Marktführer ist, auf Dauer zu unsicher. Der abgestürzte Handy-Riese Nokia mahnt zur Vorsicht. ass Apple und Samsung nicht D nur Rivalen sind, sondern auch kooperieren — Samsung beliefert Apple unter anderem mit Prozessoren und Displays —, verleiht dem Ganzen zusätzlich Brisanz. Immer wieder machen Gerüchte über ein Ende dieser Zusammenarbeit die Runde, die dann dementiert werden. Angesichts der endlosen Patentstreitigkeiten zwischen beiden Konzernen wäre es jedoch keine Überraschung, wenn es tatsächlich zum Bruch kommt. WISU 32 1/13 ternerer und zurückhaltenderer Typ als der extrovertierte Jobs. Medienwirksame Auftritte sind für ihn eher lästige Pflichterfüllung als Herzensangelegenheit. Schon die Lebensläufe der beiden Männer unterscheiden sich deutlich. Anders als der Studienabbrecher Jobs hat Cook brav zu Ende studiert und besitzt einen MBA der Duke University. Danach machte er als leitender Angestellter in der Computerindustrie Karriere. Eine eigene Firma besaß Cook nie. m Jahr 1998 wurde er von Jobs, der sein überragendes OrganisationsItalent erkannte, zu Apple geholt. Fortan sorgte er als Mann im Hintergrund dafür, dass die Visionen des Apple-Masterminds Realität wurden. Als es mit dem Unternehmen nach der Jahrtausendwende steil nach oben ging, bezeichnete das US-Wirtschaftsmagazin „Fortune“ Cook, der mittlerweile zum Chief Operating Officer (COO) aufgestiegen war, als „Genie hinter Steve“. Apple gegen das Image eines herzlosen Unternehmens an, das ihm seit den Tagen von Steve Jobs anhaftet. Über dessen dürftiges soziales und politisches Engagement kursierte im Silicon Valley der Witz, das einzige Mal, dass sich Jobs zu einem Charity-Projekt habe hinreißen lassen, sei gewesen, als er Bill Clinton zum Abendessen einlud. Unter Cook zahlte Apple seinen Aktionären erstmals seit 1995 wieder eine Dividende, was Jobs nicht für nötig befunden hatte — der Aktienkurs ging auch so durch die Decke. Außerdem kehrte man zum amerikanischen Umweltsiegel EPEAT zurück, nachdem sich Apple-Kunden beschwert hatten. Apple-Kenner beschreiben Cook als umgänglicher als den etwas abgehobenen und unnahbar wirkenden Jobs. In einem sind sich die zwei Männer allerdings sehr ähnlich: Beide sind Workaholics und Perfektionisten, die nichts dem Zufall überSpätestens 2004, als sich Jobs we- lassen und ihre Mitarbeiter zu harter gen seiner Krebserkrankung erstmals Arbeit antreiben. Cook wird nachgeaus der Firma zurückzog, musste der sagt, bereits um halb fünf in der Früh Mann im Hintergrund zeigen, dass die ersten E-Mails mit Anweisungen er auch Chef „kann“. Und er konnte. zu verschicken. Der 52-Jährige ist auJetzt, da er dauerßerdem ein Fitnesshaft im Sattel sitzt Freak. Mit Jobs teilt und Apple der Erfolg er die Vorliebe für eine Mehr dennoch treu bleibt, asketische LebensTransparenz dämmert vielen, dass weise. und mehr Charity es wohl doch nicht nur an Jobs lag, dass Als Lebensmotto ziApple von einer pleitebedrohten Fir- tiert Cook einen Satz John F. Kennema zum wertvollsten Unternehmen dys: „Wem viel gegeben wurde, von der Welt aufstieg. dem wird auch viel erwartet.“ Dass er sich alle erdenkliche Mühe gibt, Fragt man Cook, was ihm sein Vor- diese Erwartungen zu erfüllen, zeigen gänger und Lehrmeister Steve Jobs die zahlreichen Produkte, die Apple mit auf den Weg gegeben hat, lautet seit seiner Ernennung zum Appledie Antwort: „Frage dich als CEO nie, Chef herausgebracht hat, darunter was ich an deiner Stelle getan hätte, das iPad mini, das iPhone 5 und viele sondern tu, was du für richtig hältst.“ verbesserte Versionen anderer GeTatsächlich hat Cook als Apple-Chef räte, mit denen Apple sonst noch auf bereits eigene Akzente gesetzt. So dem Markt ist. ließ er eine Liste mit den Zulieferern der iPhone-Firma veröffentlichen und ine echte Innovation wie seinersorgte damit für mehr Transparenz zeit das iPad ist allerdings nicht — etwas, das der geheimniskräme- darunter, weshalb der eine oder anrische Jobs stets vermieden hatte. dere Analyst bereits nervös wird, zuAußerdem kündigte er Maßnahmen mal Apples härtester Konkurrent Samgegen die schlechten Arbeitsbedin- sung beständig Boden gut macht. (s. gungen in manchen Zulieferbetrieben nebenstehende Spalte). Die Zahlen an, womit er Kritikern den Wind aus der letzten zwei Quartale — obwohl den Segeln nahm. so gut wie noch nie — wurden von der Börse mit Enttäuschung aufgeDass der gelernte Ingenieur Cook in- nommen. Was zeigt, welch enormer zwischen auch viel von Marketing Druck auf Cook lastet. Um als CEO versteht, zeigt Apples neues Spen- restlos zu überzeugen, muss er ein denprogramm: Jede Wohltätigkeits- „eigenes“ Produkt zum Erfolg führen. spende eines Mitarbeiters wird vom Vielleicht wird es ja der — von der Unternehmen um dieselbe Summe Fangemeinde sehnsüchtig erwartete aufgestockt, bis zu einem Betrag von — Apple-Fernseher. 10.000 Dollar im Jahr. Damit kämpft E ANZEIGENSEITE (bleibt aus technischen Gründen leer) WISU 1/13 33 WISU-MAGAZIN Neuer Besen China: Xi sagt Korruption den Kampf an aktuellen Corruption Perceptions Index (CPI) von ImitmTransparency International belegt China gemeinsam Serbien sowie Trinidad und Tobago den 80. Platz. Für die zweitgrößte Volkswirtschaft und führende Exportnation wahrlich kein Ruhmesblatt, zumal man gegenüber dem letzten Ranking auch noch fünf Plätze abgerutscht ist. Da ist es nur ein schwacher Trost, dass auch den anderen BRIC-Staaten kein gutes Zeugnis ausgestellt wird: Brasilien und Indien liegen in der Korruptions-Tabelle auf den Rängen 69 und 94. Russland ist gar nur 133. von 176 Staaten. Doch nicht nur ausländische Geschäftsleute und Analysten — auf ihren Erfahrungen beruht das Ranking der Berliner Organisation — nehmen China als besonders korrupt wahr. Auch die Chinesen sehen das so: Laut einer Umfrage sind 46 Prozent der Meinung, die Korruption sei in den letzten drei Jahren gestiegen, 25 Prozent sind vom Gegenteil überzeugt. Kein Wunder: Ständig müssen sie mitansehen, wie sich Amtsträger und Funktionäre der Kommunistischen Partei illegal bereichern, sei es bei der Vergabe von Bauaufträgen oder indem Angehörigen einflussreiche Posten zugeschanzt werden. Immer wieder kommt es deshalb zu lokalen Protesten und Aufständen. Aufsehen erregte vor allem der Fall Bo Xilai, bis zu seiner Entmachtung im Frühjahr 2012 selbstherrlicher Bürgermeister von Chongqing. Seine Frau wurde wegen Mordes an einem britischen Geschäftsmann zu lebenslanger Haft verurteilt. „Die Korruption verbreitet sich in China wie Würmer in einem Kadaver“, stellt denn auch der neue Parteichef Xi Jinping fest, der Hu Jintao im März als Staatspräsident ablöst. Ganz nach dem Motto „Neue Besen kehren gut“ hat Xi dem Filz in der öffentlichen Verwaltung bereits den Kampf angesagt. Seit Wochen berichten die Medien von abgesetzten Beamten, die bis dato ein Leben in Saus und Braus führten. China-Kenner bezweifeln allerdings, dass es dem selbsternannten Saubermann Xi tatsächlich ernst Xi Jinping ist. Vielmehr seien solche Korruptions-Kampagnen ein bewährtes Mittel, um eine neue Führungsgeneration mit Posten zu versorgen. Zudem ist auch Xis Weste möglicherweise nicht ganz rein: Laut „New York Times“ soll seine Schwester Firmenbeteiligungen und Immobilien im Wert von mehreren hundert Mio. Dollar besitzen. WISU 34 1/13 Klimawandel CO2-Recycling: Neue Hoffnung für den Klimaschutz K ohlendioxid gilt als Klimakiller Nummer eins. Doch trotz aller internationalen Konferenzen und Weltklimagipfel — der letzte fand im Dezember in Doha statt — steigen die Emissionen immer weiter an. Im vergangenen Jahr wurden nach Berechnung des Global Carbon Project 35,6 Mrd. Tonnen des Treibhausgases ausgestoßen, so viel wie noch nie. Seit 1990 sind die Emissionen damit um 58 Prozent gestiegen. Das Zwei-Grad-Ziel der UNO ist deshalb kaum noch realistisch. Forscher gehen mittlerweile davon aus, dass sich die Erde bis zum Ende des Jahrhunderts um drei, vier oder sogar fünf Grad erwärmt. Die Folgen dieses Temperaturanstiegs sind bekannt: Die PolGutes aus Kohlendioxid kappen schmelzen, der Meeresspiegel steigt, weltweit nehmen Dürren, Unwetter und Naturkatastrophen zu. Während sich die Politik als unfähig erweist, dem Klimawandel Einhalt zu gebieten, machen Wissenschaftler jetzt Hoffnung: Weltweit arbeiten sie an neuen Verfahren, wie sich Kohlendioxid, statt es in die Atmosphäre zu pusten oder mithilfe aufwendiger Verfahren im Erd- oder Meeresboden zu lagern (CO2-Sequestrierung), wieder nutzen lässt — als Ausgangsmaterial für Chemikalien, Kunstund Kraftstoffe. Schließlich ist der darin enthaltene Kohlenstoff einer der wichtigsten Rohstoffe der chemischen Industrie. Er steckt in Plastik, Farben und Lacken, in Medikamenten und Lebensmitteln und dient als Kältemittel bei Kühlschränken und Klimaanlagen. So will Bayer ab 2015 in großem Stil Schaumstoffe produzieren, die aus „recyceltem“ CO2 bestehen und beispielsweise zu Matratzen weiterverarbeitet werden können. Andere Unternehmen arbeiten daran, Kohlendioxid mithilfe spezieller Mikroorganismen in das vielseitig verwendbare Ethanol zu verwandeln, oder in Polypropylencarbonat, einen biologisch abbaubaren Kunststoff. Der Vorteil all dieser Verfahren: Sie verringern nicht nur die CO2-Emissionen, sondern auch den Erdölverbrauch. Denn etwa zehn Prozent des weltweit geförderten Öls werden von der Chemieindustrie verbraucht. Als Wunderwaffe im Kampf gegen den Klimawandel taugen sie allerdings nicht. Denn selbst wenn alle Chemieunternehmen in der EU ihren Kohlenstoff-Bedarf durch Kohlendioxid decken würden, würde dies die CO2-Emissionen nur um 5,5 Prozent reduzieren. WISU-MAGAZIN Rohstoffboom EU-Ratsvorsitz Australien: Mehr Bergbau, weniger Touristen B Irland: Zwischen Tradition und Moderne E rände wie die im Januar und Dürren gehören seit längerem zu den Heimsuchungen, denen sich die Australier ausgesetzt sehen. Doch es gibt auch landschaftliche Schönheiten wie Ayers Rock, den bekannten Felsen, die jedes Jahr sechs Millionen Besucher zum fünften Kontinent locken. Darunter 150.000 Deutsche, die den 20-Stunden-Flug nicht scheuen. Der Tourismus ist längst zu einem wichtigen Standbein der Wirtschaft von Down Under geworden, er trägt etwa drei Prozent zum BIP des Landes bei. Noch wichtiger ist er für den Arbeitsmarkt: Jeder Zehnte der 22 Millionen Australier hat direkt oder indirekt mit ihm zu tun. Doch in letzter Zeit gehen die Besucherzahlen, vor allem aus Europa und Japan, zurück. Grund ist nicht nur die dortige Wirtschaftsflaute. Vielen ist Australien zu teuer geworden, seit der australische Dollar stark gestiegen ist und den US-Dollar überflügelt hat. Bekam man vor vier Jahren für einen Euro noch fast zwei australische Dollar, sind es heute nur noch 1,25 Dollar. Vor allem die zahlreichen jungen Rucksacktouristen aus Europa, die Australien jedes Jahr besuchen und oft Monate im Land bleiben, werden davon abgeschreckt. Zum starken Aussie-Dollar trägt vor allem der Rohstoffboom bei. Australien ist der weltgrößte Exporteur von Kohle und Eisenerz und auch bei anderen Bodenschätzen wie Gold, Kupfer und Uran führend. Chinas Hunger nach Rohstoffen aller Art hat dazu geführt, dass die australische Wirtschaft seit zwei Jahrzehnten permanent wächst, im vergangenen Jahr um etwa drei Prozent. Selbst die Finanzkrise 2008/09 konnte ihr nichts anhaben. Das Rohstoff-Fieber und der starke Dollar locken zahlreiche Investoren an, die Börse in Sydney mit den zwei Schwergewichten BHP Billiton und Rio Tinto ist seit Monaten im Höhenrausch. Die Kehrseite des Bergbaubooms: Australien ist zunehmend von der Konjunktur in China abhängig, in das 30 Prozent seiner Ausfuhren gehen. Noch zur Jahrtausendwende waren es weniger als fünf Prozent. Der Ayers Rock Anteil Europas, Amerikas und Japans ist hingegen geschrumpft. Ausländer schreckt übrigens nicht nur die teure Währung ab. Oft wird ohne Rücksicht auf den Tourismus nach Bodenschätzen gebuddelt. Und da im Bergbau besonders gut gezahlt wird, fehlt es woanders an Personal. nde letzten Jahres waren wieder tausende Iren auf der Straße. Diesmal richtete sich ihr Protest allerdings nicht gegen den Sparkurs der Regierung, sondern gegen das strenge Abtreibungsverbot. Auslöser war der Tod einer schwangeren Immigrantin aus Indien, die in einem Krankenhaus an Blutvergiftung starb, weil ihr trotz drohender Fehlgeburt und akuter Lebensgefahr eine Abtreibung verweigert wurde. Seitdem wird in Irland — wie schon häufiger — leidenschaftlich über das Für und Wider des Abtreibungsverbots diskutiert. Neben Malta ist es das einzige Land in der EU, in dem Abtreibungen, aus welchem Grund auch immer, strafbar sind. Irische Frauen, die einen Protest gegen Abtreibungsverbot Schwangerschaftsabbruch wünschen, müssen deshalb nach Großbritannien oder in ein anderes Land ausweichen. Der Tod der jungen Inderin sorgte jetzt allerings dafür, dass das Verbot gelockert wurde. Bis heute gehen die Uhren im katholischen Irland anders. So sind Ehescheidungen erst seit 1997 erlaubt. Die katholische Kirche hat nach wie vor viel Einfluss, auch wenn er durch den Wirtschaftsboom um die Jahrhundertwende, der mehr Modernität ins Land brachte, etwas bröckelte. Durch den Boom sind viele Immigranten ins Land geströmt, jeder achte der 4,5 Millionen Iren hat heute fremde Wurzeln. Und obwohl die Wirtschaft 2008/09 zusammenbrach und viele Iren ihre Heimat verließen, hält der Zustrom an. Was auch damit zu tun hat, dass namhafte US-Konzerne wie Google und Apple auf der grünen Insel ihr europäisches Headquarter aufgeschlagen haben — nicht zuletzt wegen der niedrigen Unternehmenssteuer von 12,5 Prozent. Jetzt müssen die zwischen Tradition und Moderne hinund hergerissenen Iren Europa führen: Zu Jahresbeginn übernahmen sie von Zypern den halbjährigen EU-Ratsvorsitz. Premier Enda Kenny will die Gelegenheit nutzen, um Europa neues Selbstvertrauen einzuflößen. Nachdem die schwere Immobilien- und Bankenkrise einigermaßen verdaut ist — 2010 musste Irland als erster Staat unter den Euro-Rettungsschirm schlüpfen und wurde von EU und IWF mit 67,5 Mrd. Euro gestützt —, fühlt sich Dublin offenbar stark genug für die neue Führungsrolle. Mit den USA soll ein Freihandelsabkommen ausgehandelt werden. Ende des Jahres will Irland dann den ungeliebten Rettungsschirm verlassen. WISU 1/13 35 WISU-MAGAZIN BITS AND BYTES Kein Kartellverfahren Gründen umformuliert. Facebook erklärte daraufhin, die Klage sei unberechtigt, weshalb ihr energisch entgegengetreten werde. a hat Google noch mal Glück D gehabt: Anfang Januar stellte Neue Appledie amerikanische Wettbewerbsbehörde FTC das Kartellverfahren gegen den Suchmaschinenriesen ein. Den Hauptvorwurf, Google habe andere Websites bei der Internetsuche zugunsten eigener Dienste benachteiligt, ließ die FTC fallen. Das Unternehmen hatte freiwillig einige Zugeständnisse gemacht. So haben FTC-Chef Jon Leibowitz Werbetreibende künftig mehr Freiheiten bei ihren Online-Kampagnen. Außerdem wird der Konzern seinen Konkurrenten Zugriff auf grundlegende Smartphone- und Tablet-Technologien seiner Handy-Tochter Motorola gewähren. Bei einem ähnlichen Verfahren der EU-Kommission dürfte es nicht so günstig für Google ausgehen, da hier andere Kriterien im Vordergrund stehen. Instagram verärgert Kunden Produkte m vergangenen Jahr hat Apple so viele neue Produkte auf den Markt gebracht, dass nun selbst Skeptiker überzeugt sein dürften, dass das Unternehmen auch nach Steve Jobs kreativ geblieben ist. So hat der wertvollste Konzern der Welt nicht nur das iPhone 5, sondern auch das iPad Mini, zwei weitere iPad-Varianten, neue Macs und das Macbook mit Retina-Display vorgestellt. Offenbar hat man bereits weitere neue Produkte in der Pipeline. So verdichten sich schon seit längerem die Gerüchte um das iTV, ein Fernsehgerät von Apple. Außerdem wollen Branchenkenner in Log-Dateien von Web-Servern Spuren der nächsten iPhone-Generation, dem iPhone 6, sowie der nächsten iOS-Version entdeckt haben. Bei der firmeneigenen Entwicklermesse WWDC im Sommer dürfte das Unternehmen also wieder einiges Neues zu bieten haben. I Google: Neues Handy as neue Tablet aus Googles Nexus-Reihe, das Nexus 10, ist eiD ne Art Phantom: Obwohl schon seit eniger Glück hat Facebook mit seiner Tochter Instagram: Als W der Online-Fotodienst kürzlich seine Nutzungsbedingungen änderte, brach ein Sturm der Entrüstung aus. Nutzer warfen der Firma vor, ihre privaten Fotos verkaufen zu wollen. Zwar dementierte Mitgründer Kevin Systrom umgehend solche Pläne und kündigte an, „irreführende Formulierungen“ in den Richtlinien zu korrigieren. Dennoch wurde Ende Dezember eine Sammelklage gegen Instagram eingereicht. Zur Begründung heißt es in der Klageschrift, das Unternehmen habe seine Pläne nicht vollständig zurückgenommen, sondern die Regeln nur aus PR- WISU 36 1/13 schlechten Erfahrungen mit dem Nexus 10 darf man gespannt sein, ob das jüngst von Google angekündigte Smartphone — Codename „X Phone“ — irgendwann mal zu kaufen sein wird. Der von Google für 12,5 Mrd. Dollar erworbene HandyHersteller Motorola soll an einem Smartphone basteln, das das iPhone und das Samsung Galaxy in den Schatten stellt — so behauptet zumindest Google. Das „Super-Smartphone“ mit unklarem Erscheinungstermin arbeitet selbstverständlich mit Android. iPhones — nicht von Apple eit neuestem kann man in Brasilien iPhones kaufen, die mit AnS droid arbeiten und nicht von Apple hergestellt werden — und das ganz legal. Der brasilianische Hersteller Gradiente hat bereits im Jahr 2000 — lange vor Apple — die Rechte am Namen iPhone beantragt, die ihm 2008 auch zugesprochen wurden. Dass Gradiente erst jetzt ein Smart- Der Namensvetter phone mit dieser Bezeichnung auf den Markt gebracht hat, liegt nach Angaben des Unternehmens daran, dass man bislang mit internen Restrukturierungsprozessen beschäftigt war. Gradiente besitzt die exklusiven Rechte an dem Namen iPhone in Brasilien bis 2018. China verschärft Kontrolle er bereits vonstatten gehende Machtwechsel in China führt ofD fenbar nicht zu mehr Liberalität. Ein Monaten auf dem Markt, ist es irgendwie ständig ausverkauft. Immer mal wieder tauchen Meldungen auf, wonach es kurzzeitig bei Google Play gesichtet worden sein soll, doch dann ist es binnen kurzem wieder ausverkauft. Nach den neues Gesetz verlangt von den Internet-Providern des Landes, dass sie sich ab jetzt die Ausweise ihrer Kunden vorlegen lassen müssen, damit diese eindeutig identifiziert werden können. Eine Mammutaufgabe angesichts der 500 Mio. Netznutzer in China. ANZEIGENSEITE (bleibt aus technischen Gründen leer) WISU 1/13 37 WISU-MAGAZIN NUMBERS – YOU CAN USE Produktion sinkt Italien ist mit fast 41 Mio. Hektolitern 2012 wieder der größte Weinhersteller der Welt. 2011 hatte Frankreich erstmals seit Jahren mehr Wein gekeltert als das südeuropäische Nachbarland. Beide Länder haben jetzt im Vergleich zum Vorjahr weniger produziert, bei den Franzosen fiel der Rückgang mit 19 Prozent jedoch deutlich höher aus als bei den Italienern (drei Prozent). Deutschland liegt im internationalen Vergleich der Weinnationen auf dem neunten Rang. Auch hier wurde 2012 weniger geerntet und verarbeitet als im Jahr zuvor. Die Gründe für die geringere Ernte sind regional unterschiedlich: Frost und Hagel im Winter oder Trockenheit und Hitze im Sommer, aber auch die Verkleinerung von Anbauflächen gehören dazu. (Statistische Angaben: Internationale Organisation für Rebe und Wein) Schwergewicht Die 27 Länder der Europäischen Union bringen ein stattliches Gewicht auf die Wirtschaftswaage der Welt. Zwar leben nur sieben Prozent der Weltbevölkerung in der EU. Sie erarbeiten aber über ein Viertel der Weltwirtschaftsleistung und liegen damit vor den USA. Ebenso groß ist die Bedeutung der Europäischen Union im Welthandel. Über ein Siebtel aller Exporte gehen auf das Konto der erweiterten EU (dabei ist der Handel untereinander herausgerechnet). China ist die Nummer zwei mit 13,2 Prozent, die USA liegen an dritter Stelle mit 10,3 Prozent. Die wirtschaftliche Stellung in der Welt bringt auch Verpflichtungen mit sich, denen sich die EU-Länder nicht entziehen wollen: Von ihnen stammt mehr als die Hälfte der gesamten öffentlichen Hilfe für die Entwicklungsländer. (Statistische Angaben: Eurostat, OECD, IEA, WTO) Unterdurchschnittlich lang Junge Chilenen drücken die Schulbank am längsten: Bis zu ihrem 14. Lebensjahr sind 8.664 Unterrichtsstunden (gerechnet in Zeitstunden von 60 Minuten) für sie vorgesehen — mehr als in allen anderen OECD-Ländern. Estnische Schüler haben dagegen ein Drittel weniger Stunden. Auch die Deutschen sind im OECD-Vergleich unterdurchschnittlich lang in der Schule. In Belgien unterscheidet sich die Länge des Schultags je nach Wohnort: Im flämischen Teil des Landes sind gut 7.000 Stunden bis zum Alter von 14 vorgesehen, im französischen Teil 700 mehr. Vor allem im Alter von sieben und acht Jahren entfällt die Mehrzahl der Stunden (55 Prozent) auf Lesen, Schreiben, Literatur, Mathematik und Naturwissenschaften. Bei den Neun- bis Elfjährigen sind es noch 47 Prozent, bei den Älteren nur noch 41 Prozent. (Statistische Angaben: OECD) WISU 38 1/13 WISU-MAGAZIN PROFESSOREN–PROFILE Prof. Dr. Gerald Willmann, 44, ist Inhaber des Lehrstuhls für internationale Wirtschaftsbeziehungen an der Universität Bielefeld. Er studierte in Kiel und promovierte bei Prof. Peter Hammond in Stanford. Seine Lehrtätigkeit führte ihn in die USA und nach Belgien. Seine wichtigsten Forschungsgebiete: Politik des Außenhandels und europäische Integration. Drei seiner wichtigsten Veröffentlichungen: „Escaping a Protectionist Rut? Policy Mechanisms for Trade Reform in a Democracy“ (zus. mit E. Blanchard), „The Political Economy of International Factor Mobility“ (zus. mit G. Facchini) und „On the Endogenous Allocation of Decision Powers in Federal Structures“ (zus. mit O. Lorz). Er hat derzeit einen Forschungsauftrag am Institut für Weltwirtschaft in Kiel. Gerald Willmann as ist Ihre Prognose für 2013: Wird Deutschland W konjunkturell mit einem blauen Auge davonkommen oder wird es größere Blessuren geben? Ich bin op- Ist man auf anderen Kontinenten unterwegs, wird man oft erstaunt gefragt, wie es möglich ist, dass ein kleines Land wie Griechenland eine solche Krise auslösen timistisch, was die weitere wirtschaftliche Entwicklung hierkonnte. Was würden Sie darauf antworten? Wenn man zulande betrifft. Fiskal- und Geldpolitik sind beide expandas Ganze nicht gleich am größten Mitgliedsland der Eurosiv, und die Lage auf den wichtigen Absatzmärkten wie Zone, also an Deutschland, misst, ist Griechenland gar nicht China und den USA hat sich zuletzt stabilisiert. so klein. Viele andere Euro-Länder wie Portugal, Irland, In den letzten zwei Jahren war viel davon die Rede, Belgien, Zypern, die Slowakei oder Luxemburg haben auch dass die Euro-Zone zerbrechen könnte. Wie sehen Sie nicht mehr oder sogar deutlich weniger Einwohner. Entdie Zukunft des Euro? Ich bin überzeugt, dass uns der scheidend ist jedoch die Ansteckungsgefahr. Hinzu kommt, Euro erhalten bleibt und dass weitere Länder zur Euro-Zone dass ein Austritt Griechenlands aus dem Euro einen Präzestoßen werden. Was ich für sehr positiv halte. Auch wenn denzfall geschaffen hätte, der mit Sicherheit dazu geführt sich die Inflationsrate am Ende um ein oder zwei Prozent erhätte, dass es zu Spekulationen gegen größere Mitgliedshöhen sollte. länder gekommen wäre. Zum Teil ist es ja geschehen. Einer der umstrittensten Sätze der letzte Zeit war die Jetzt benötigt auch das Euro-Land Zypern wegen seiAussage von Angela Merkel: „Scheitert der Euro, scheiner Bankenkrise Hilfe. Bekanntlich ist es auch Fluchtort tert Europa.“ Würden Sie ihn unterschreiben? Das Risifür russische Gelder. Sollen deutsche Steuerzahler rusko für Europa wäre sehr hoch, sollte der Euro scheitern. Und sische Oligarchen retten? Wie man der Presse entnehmen ich stimme der Intention dieser Aussage, dass wir alles tun kann, erlässt der griechische Teil Zyperns jetzt Gesetze gesollten, um dies zu verhindern, gen Geldwäsche. Die Unterstütvollkommen zu. zung wird auch im Falle Zyperns „Mario Draghi hat einfach seinen Job Mit seiner Erklärung im Somnur gegen Reformen zu haben mer, die EZB werde alles tun, sein, was sich letztlich auch hier gemacht — und auch gut. Die bisherige um den Euro zu bewahren, positiv auf die Wirtschaft des positive Entwicklung gibt ihm Recht“ hat Mario Draghi erst einmal Landes auswirken wird. für Ruhe auf den FinanzmärkViele hatten befürchtet, dass ten gesorgt. Von vielen ist er dafür gelobt worden, andas Quantitative Easing der amerikanischen Zentraldere kritisieren ihn wegen seiner Politik. Wie sehen Sie bank und der Bank of England sowie die Geldpolitik der das? Vom Präsidenten der EZB kann man schon erwarten, EZB zu höherer Inflation führen würden. Hat es Sie dass er alles tut, um den Euro zu bewahren. Insofern hat überrascht, dass dies bislang nicht geschehen ist? Das Mario Draghi einfach seinen Job gemacht — und auch gut. Problem ergibt sich meines Erachtens erst, wenn die WirtDie bisherige positive Entwicklung gibt ihm jedenfalls schaft weltweit wieder zu florieren beginnt. Man muss also Recht. abwarten, ob es mittelfristig nicht doch noch zu einer höheWenn man sieht, wie ein einziger Satz des EZB-Chefs ren Inflation kommt. Ich gehe jedenfalls davon aus und spedie Wogen glättet, fragt man sich, warum das nicht kuliere sogar darauf. schon Jean-Claude Trichet, Draghis Vorgänger, eingeDen Krisenstaaten ist von der Troika — Brüssel, EZB fallen ist. Mit anderen Worten: Hätte die ganze Krise und IWF — eine strenge Sparpolitik verordnet worden. nicht durch ein entschlosseneres Handeln gleich zu AnFür einige Ökonomen wie den Nobelpreisträger Paul fang verhindert werden können? Die angekündigten StütKrugman hat das die Krise weiter verschärft, andere zungskäufe sind an die Bedingung geknüpft, dass die Eurosehen darin den einzig gangbaren Weg. Wer hat Recht? Länder, die sie in Anspruch nehmen wollen, dann auch Dass man nicht weiter von außen Primärdefizite in den KriReformen umsetzen müssen. Viele Reformen sind ja schon senstaaten finanzieren möchte, ist selbstverständlich. Das auf dem Weg. Ich denke, es wäre verfrüht gewesen, Hilfe zu hieße ja, andere sollen zahlen, damit man weiter über seine versprechen, bevor sich die Politik in den Krisenländern zu Verhältnisse leben kann. Was die Zinszahlungen und die TilReformen entschlossen hatte. gung betrifft, wird man sehen. Im Übrigen denke ich, dass WISU 1/13 39 WISU-MAGAZIN Strukturreformen unerlässlich sind, um in den Krisenstaaten triotismus vorgeworfen. Sollten die Staaten nicht im längerfristiges Wachstum herbeizuführen. Steuerwettbewerb stehen und ist es nicht das Recht jeLaut dem neuesten Brüsseler Armutsbericht zerfällt die den Bürgers, exorbitanten Steuern auszuweichen? Der EU immer mehr in einen reichen Norden und einen arFall Depardieu stellt sich aus französischer Sicht so dar, men Süden. Eine der Grundideen des europäischen Zudass da jemand jahrelang von der staatlichen Filmfördesammenschlusses war jedoch, dass sich die wirtschaftrung profitierte und sich jetzt der Steuer, die sicherlich lichen Verhältnisse der Mitgliedsländer durch den Zusehr hoch, entziehen will. Dass er ausgerechnet einen russammenschluss angleichen. Hat Europa damit nicht eisischen Pass von Präsident Putin entgegennimmt, spricht nes seiner Hauptziele verfehlt? Es gibt einen Unterschied — ebenso wie andere Fehltritte in letzter Zeit — auch nicht zwischen der Angleichung der wirtschaftlichen Verhältnisunbedingt für ihn. Der französische Verfassungsrat hat die se der Mitgliedsländer und der Angleichung der MöglichSteuer übrigens inzwischen für unzulässig erklärt. Letztlich keiten für ihre Bewohner. Letzteres ist wünschenswert, Erssteht es natürlich jedermann und damit auch Depardieu frei, teres jedoch zum Scheitern verurteilt. Außerdem gibt die Frankreich zu verlassen. Europäische Union jedem Südeuropäer die Möglichkeit, in Obama hatte im Wahlkampf versprochen, Arbeitsplätze nördliche Mitgliedsländer umzuziehen, um dort zu leben aus dem Ausland in die USA zurückzuholen. Apple hat und zu arbeiten. so etwas bereits angekündigt. Könnte sich jetzt dieser Das größte Drama ist derzeit oft beklagte Teil der Globalidie extreme Jugendarbeitssierung korrigieren lassen? losigkeit in Ländern wie Grie- „Strukturelle Reformen wie die Liberalisie- Die Globalisierung ist keine Einrung des Arbeitsmarktes sind der richtige chenland und Spanien, wo bahnstraße. Irgendwann gleiüberwiegend auch die Sparchen sich die Lohnniveaus an und einzig erfolgversprechende Weg, politik für die Krise verantund der Preisvorteil, den man die Jugendarbeitslosigkeit zu bekämpfen“ einst durch die Auslagerung der wortlich gemacht wird. Besteht da nicht die Gefahr, dass Produktion hatte, verringert sich Millionen junge Menschen eine tiefe Aversion gegen die oder erledigt sich gar ganz. An der Globalisierung, also der EU entwickeln — und damit gerade diejenigen, die den Freiheit, wirtschaftliche Aktivitäten über Grenzen hinweg europäischen Gedanken weitertragen sollen? Die relativ auszuüben, ändert das jedoch nichts. hohe Jugendarbeitslosigkeit in diesen Ländern war schon Die ursprünglichen strengeren Regeln bei Basel III wurvor der Krise ein Problem, das sich durch die Krise nur noch den jetzt gelockert und der Termin für die Änderungen verschärft hat. Europa jetzt dafür verantwortlich zu machen, verschoben. Die Banken begrüßen das. Kritiker sind wäre reiner Populismus. Ich denke, dass strukturelle Reforhingegen der Meinung, damit werde wieder der gefährmen wie die Liberalisierung des Arbeitsmarktes der richtiliche Zustand wie vor der Finanzkrise 2008/09 hergege und einzig erfolgversprechende Weg sind, die Jugendarstellt. Bei der Bankenregulierung gibt es einen großen Nachbeitslosigkeit zu bekämpfen. holbedarf. Generell sollten Politikentscheidungen im InteEs wird viel über die Zukunft Europas diskutiert. Für die resse des Landes und seiner Bevölkerung getroffen werden einen hat Brüssel bereits zu viel Macht, für die anderen und weniger dem Einfluss finanzstarker Interessengruppen zu wenig. Das muss man differenziert sehen. Während ausgeliefert sein. gewisse Politikbereiche zentralisiert werden sollten, sollDurch die Krisen sind neoklassische Theorien und Moten Entscheidungen in anderen Bereichen dezentral gedelle ins Wanken geraten, etwa die Efficient-Markettroffen werden. Da wird sich in jeder Hinsicht immer etwas Hypothesis. Auch der Streit zwischen Keynesianern verbessern lassen. Das ist so ähnlich wie in Deutschland und Nicht-Keynesianern hat wieder zugenommen. Hadas Verhältnis zwischen Bund, Ländern und Gemeinden. ben Krisen wenigstens das Gute, dass sie die TheorieKönnen Sie sich vorstellen, dass es eines Tages die Verdiskussion in Schwung bringen? Die letzten Jahre haben einigten Staaten von Europa gibt? Oder gibt es dazu zu dazu geführt, dass ökonomische Modelle und Theorien verviel Nationalismus in Europa? Ich denke schon, dass die stärkt hinterfragt werden, was sehr gut ist. Außerdem hat Integration weitergehen wird. Angesichts der globalen Entsich der Fokus von fundamentalen — um nicht zu sagen wicklung ist das auch sehr sinnvoll. Ab wann man das dann fundamentalistischen — Theorien zur hoffentlich theoredie Vereinigten Staaten von Europa — oder wie auch immer tisch fundierten Politikberatung verschoben, was ich eben— nennt, ist eher eine semantische Frage. falls sehr positiv sehe. Viele Briten würden die EU gern auf eine FreihandelszoDurch die Krisen und die widerstreitenden Erklärungsne reduzieren. Laut Umfragen und Lösungsversuche ist das ist heute sogar die Hälfte der Interesse vieler Studenten an „Die letzten Jahre haben dazu geführt, Bevölkerung für einen Ausder Volkswirtschaftslehre gedass ökonomische Modelle und Theorien tritt des Landes aus der EU. sunken. Was kann das Fach Wäre das ein Drama? Oder tun, um wieder mehr Interesverstärkt hinterfragt werden, sollte man Reisende nicht einse zu wecken? Ich habe genau was sehr gut ist“ fach ziehen lassen? Großbriden entgegengesetzten Eintannien ist eine Demokratie mit druck. Durch die Krise ist das langer Tradition. Man wird sicher auch dies nach demokraFach interessanter geworden, da jetzt neue Fragen gestellt tischen Spielregeln entscheiden. Ein Austritt wäre jedoch werden. Und dass wir nicht überall sofort die richtige Antfür keine Seite von Vorteil. Das sehen übrigens auch viele wort parat haben, gehört zur Raison d’être jeder WissenBriten so. schaft. Die EU und der Euro waren für viele andere WeltregioSie haben Ihren Ph.D. in Stanford gemacht und waren nen wie Asien, Lateinamerika, die Golfstaaten, die Kariauch in anderen Ländern als Wissenschaftler tätig. Was bik und auch Afrika ein Vorbild. Hat sich das durch die kann die wirtschaftswissenschaftliche Ausbildung in Krise erledigt? Auf keinen Fall. Die politische Integration Deutschland von anderen Ländern lernen? Die LehrinEuropas ist eine außergewöhnliche Errungenschaft. Damit halte sind inzwischen sehr ähnlich, auch wenn die Schwerwird sie auch für andere Teile der Welt ein Vorbild bleiben. punkte etwas variieren. Was hierzulande im Argen liegt, ist So streitet sich heute niemand mehr um Helgoland — ganz das fehlende Studium Generale. In anderen Ländern ist es im Gegensatz zu einigen Felsen im ostchinesischen Meer. durchaus üblich, dass sich Studenten auch mal VorlesunZuletzt machte Gérard Depardieu Schlagzeilen, weil er gen anderer Fachrichtungen anhören. So können Wirtnicht 75 Prozent Einkommensteuer in Frankreich zahschaftsstudenten sehr von anderen Fächern profitieren. len will und deshalb in ein Land mit niedrigeren Steuern Umgekehrt können auch andere Fächer vieles von den ausweicht. Zuhause wird ihm deshalb mangelnder PaÖkonomen lernen. WISU 40 1/13 ANZEIGENSEITE (bleibt aus technischen Gründen leer) WISU 1/13 41 WISU-MAGAZIN LEHRBÜCHER – DIE WEITERHELFEN G. Eilenberger / D. Ernst / M. Toebe: Betriebliche Finanzwirtschaft. Oldenbourg, 8. Aufl. 2013, kt. 419 Seiten, 49,80 Euro. Die Bearbeitung und Lösung von Finanzierungen, Entscheidungen über Investitionen, die Strukturierung von Kapital und Vermögen, die Steuerung der Zahlungsströme — all das sind Aufgaben der betrieblichen Finanzwirtschaft. Während früher häufig nur einzelne Aspekte in den Lehrbüchern zu Finanzierung und Investition behandelt wurden, ist es angesichts der Entwicklung der Finanzmärkte, der Globalisierung und der finanzwirtschaftlichen Interdependenzen im Unternehmen, zwischen den Unternehmen und den Kapitalmärkten längst notwendig, einen integrativen Ansatz zu verfolgen, wie er in diesem Buch geboten wird. Nach einem Überblick über die Finanzpolitik und das Finanzmanagement, über die Finanzierungspotenziale und -quellen sowie die externen und internen Risiken von Finanzierungen wird zunächst gefragt, wofür die Finanzmittel eingesetzt werden — für Investitionen in Sach- oder Finanzanlagen? Dabei werden die WISU 42 1/13 üblichen Verfahren der Investitionsrechnung und die gängigen finanzwirtschaftlichen Bewertungsansätze vorgestellt. In diesem Zusammenhang wird auch die wertorientierte Unternehmensführung (Corporate Value) mit ihren zentralen Begriffen wie Shareholder Value oder dem Stakeholder-Ansatz thematisiert. Über 100 Seiten nimmt die Darstellung der Finanzierungsmöglichkeiten ein. Während die Instrumente der Außenfinanzierung auf den Kreditund Kapitalmärkten, die sich durch viele technische Details unterscheiden, ausführlich behandelt werden, wird der Innenfinanzierung im Vergleich wenig Platz eingeräumt. Danach stellt sich die Frage, welche Instrumente eingesetzt werden sollen. Dies zu klären und zu entscheiden ist die Aufgabe des Finanzierungsmanagements, wobei etliche Faktoren wie etwa die Finanzierungskosten, die Mitbestimmungsrechte oder die Fristigkeit zu berücksichtigen sind. All das kann die Finanzierungsentscheidungen ausgesprochen komplex machen. Im letzten Teil werden die Finanzierungstheorie und die Theorie der Fi- nanzmärkte behandelt. Dazu gehören Ansätze wie Agency-Theorien der Finanzierung oder die Efficient Capital Market Theory, die vor allem aufgrund der weltweiten Finanzkrise 2008/09 massiv in die Kritik geraten ist. Hätte die Krise — wäre die Theorie richtig — doch gar nicht stattfinden dürfen. Verständlich geschrieben, mit zahlreichen Zahlenbeispielen, anschaulichen Grafiken und klaren Zielvorgaben zu jedem Kapitel — das Lehrbuch hinterlässt viele positive Eindrücke, gleichgültig, ob man es als Studienanfänger oder Fortgeschrittener zur Hand nimmt. WISU-MAGAZIN DIE KOPFNUSS DES MONATS Bei diesem Buchstaben-Sudoku müssen die Felder so mit den Buchstaben A, B, E, I, F, L, N, O und R gefüllt werden, dass jeder Buchstabe in allen Zeilen, Spalten und fett umrandeten Unterblöcken jeweils einmal vorkommt: EU plant neues Ranking Uni-Rankings sind zwar umstritten, helfen aber, sich im Dschungel der vielen deutschen und internationalen Ausbildungsangebote zurechtzufinden. In Zukunft kommt noch eine weitere Rangliste hinzu: Im Auftrag der EU-Kommission wird das „U-Multirank“ erstellt, das weltweit ungefähr 500 Hochschulen erfasst. Kriterien bei der Bewertung sind die Qualität der Lehre, das Renommee der Forschung, die Internationalität, das regionale Engagement der Hochschulen sowie der Wissenstransfer in die Wirtschaft. Das Ranking wird von der EU mit zwei Mio. Euro gefördert. Studieren mit Facebook Die Buchstaben in den farbig markierten Feldern ergeben — in die richtige Reihenfolge gebracht — eine Abkürzung, die im Zusammenhang mit Bilanzierung auftritt. Welche? Wer die richtige Lösung bis zum 20. Februar 2013 an kopfnuss@ wisu.de schickt, nimmt an der Auslosung eines Geldpreises von 100 Euro teil. Der Rechtsweg ist ausgeschlossen. Lösung und Gewinner der Kopfnuss werden in der März-Ausgabe veröffentlicht. Lösung und Gewinner der November-Kopfnuss Gesucht war der Nationalökonom David Ricardo, der 1817 seine „Principles of Political Economy and Taxation“ veröffentlichte. Gewinner der November-Kopfnuss ist Kevin Deuter aus Greifswald. Herzlichen Glückwunsch! Wie haben es die Studenten früher bloß angestellt, ihr Studium ohne Facebook zu absolvieren? Heute ist das soziale Netzwerk jedenfalls mindestens genauso wichtig wie Mensa und Erstsemesterparty. Viele Studenten suchen bei Facebook den Kontakt zu Kommilitonen, wenn sie in der Vorlesung etwas nicht verstanden haben, wenn sie sich nach Übungsaufgaben erkundigen, einen wichtigen Termin nicht mitbekommen haben oder ein WG-Zimmer suchen. Oft wird Facebook auch als virtuelle Lerngruppe bei der Vorbereitung auf Klausuren genutzt. Die Hochschulen sind ebenfalls sehr aktiv in den sozialen Medien. So verzeichnet die Facebook-Seite der Uni Köln täglich 60.000 Zugriffe. Arme Doktoranden? Das Institut für Forschungsinformation und Qualitätssicherung hat die wirtschaftliche Situation von Doktoranden untersucht und herausgefunden, dass sie meist nicht so prekär ist, wie oft behauptet wird. Allerdings sind die Unterschiede zwischen den Fachgebieten beträchtlich. Während Wirtschaftswissenschaftler im Schnitt über 1.627 Euro im Monat verfügen und häufig eine Assistentenstelle an der Universität haben, müssen Doktoranden im Fach Germanistik im Schnitt mit 1.047 Euro auskommen, die sie zum großen Teil aus befristeten Stipendien beziehen. WISU 1/13 43 ANZEIGENSEITE (bleibt aus technischen Gründen leer) WISU 44 1/13 wisu Karriere Gefragt: Ideen und Pioniergeist Durch die Krisen ist die Volkswirtschaftslehre wieder ein spannendes Fach geworden. ie Krisen, die seit 2008 um die Welt ziehen, haben nicht nur D die Wirtschaft in vielen Ländern abstürzen lassen, sondern auch viele volkswirtschaftliche Theorien und Modelle massiv erschüttert. Beispielsweise die Efficient-MarketHypothesis oder die Idee, massive Ausschläge auf freien Märkten würden sich selbst korrigieren. Wäre dies richtig, hätte es beispielsweise erst gar nicht zu der gewaltigen Finanz- und Wirtschaftskrise 2008/ 09 kommen dürfen. Der bekannte Würzburger Ökonom Peter Bofinger, immerhin einer der fünf Weisen, spricht sogar von „Mickey-MouseModellen“, die „Zerrbilder der Realität“ seien. Die Vorstellung, die Wirtschaftswissenschaften hätten für alles eine Erklärung und alles im Griff, ist also falsch. Der Eindruck entsteht jedoch leicht, wenn man Experten in Talkshows erlebt oder ihre Kommentare in den Medien liest oder hört. Nachdem das Kind im Brunnen liegt, wissen immer alle gleich genau, wie es dorthin gelangt ist. Wobei die Erklärungen auch hier oft voneinander abweichen. Vor einer Krise — insbesondere der von 2008/09 — warnen jedoch stets nur sehr wenige. Auch wenn über die Lösung der Krisen diskutiert wird, weichen die Meinungen meist stark voneinander ab. Das war 2008/09 nicht anders als es bei der aktuellen Euro- und Staatsschuldenkrise ist. Dabei liegen sich nicht nur Keynesianer und NichtKeynesianer in der Wolle, auch die Vorschläge von Mainstream-Ökonomen können sehr unterschiedlich sein. Viele Politiker wie etwa Angela Merkel beklagen sich denn auch, dass sie von den Ökonomen keine übereinstimmenden Antworten auf ihre Fragen erhielten. Auch SPDKanzlerkandidat Peer Steinbrück, immerhin ein gelernter Volkswirt, hat sich schon sehr negativ über ökonomische Theorien und Modelle geäußert. All das und natürlich die Krisen selbst haben dazu beigetragen, dass Volkswirtschaftslehre als Studienfach an Attraktivität verloren hat. Harvard-Studenten verließen sogar schon aus Protest eine Vorlesung von N. Gregory Mankiw, weil er realitätsferne, traditionelle Modelle predige. Bofinger: „An dem Unsinn, den Studenten heute oft lernen müssen, gibt es sehr vieles zu kritisieren.“ So haben die Krisen zumindest ein Gutes: In der Volkswirtschaftslehre ist so einiges in Bewegung geraten. Aufgrund der Krisen werden „jetzt neue Fragen gestellt“, meint der Ökonom Gerald Willmann (s. S. 40). Womit sie wieder interessant wird. Das meinen auch Studenten und Wissenschaftler in verschiedenen Ländern, die sich für eine „Real World Economics“ einsetzen. Berufsbild: Tourismusmanager ufatmen in der Reisebranche: Endlich einmal blieb sie 2012 A von Revolutionen, Epidemien, Tsunamis und anderen Katastrophen verschont, die sich in den Vorjahren negativ auf die Reiselust der Deutschen ausgewirkt hatten. Laut Schätzung des Deutschen Reiseverbands (DRV) nahm die Zahl der Teilnehmer an organisierten Reisen — auch wegen des verregneten Sommers — um drei Prozent auf 43,6 Millionen zu, der Umsatz kletterte um fünf Prozent auf 24,4 Mrd. Euro. Von zweistelligen Wachstumsraten wie in den neunziger Jahren ist man zwar weit entfernt. Doch auf das Fernweh der Deutschen ist Verlass: Kein anderes Volk geht so gern auf Reisen und gibt dabei so viel Geld aus. Damit das so bleibt, lassen sich die Veranstalter ständig etwas Neues einfallen: Exotische Urlaubsziele, Schnäppchen-Preise und Extra-Service locken den Reiselustigen in die Ferne. Für die Entwicklung und zielgenaue Vermarktung dieser Angebote sorgt der Tourismusmanager. Er kennt die aktuellen Trends und stellt sie für seinen Arbeitgeber, etwa ein Reiseveranstalter oder ein Fremdenverkehrsbüro, zu attraktiven Programmen zusammen. Dazu muss er mit Hotelketten, Transportunternehmen und Versicherungen über freie Kapazitäten und Konditionen verhandeln. Oft nehmen Tourismusmanager auch organisatorische und Controlling-Aufgaben wahr. Oder sie kümmern sich vor Ort um einen reibungslosen Service und die Betreuung der Gäste. it anderen Worten: Die Krisen etriebswirte, die gern reisen haben dafür gesorgt, dass VWL B und fremde Kulturen kennenM wieder ein spannendes Fach ist. lernen, aber auch scharf kalkulieAllerdings nicht so sehr für Leute, die Fertiglösungen wollen, sondern eher für solche mit Pioniergeist und Freude an anspruchsvollen intellektuellen Auseinandersetzungen. So wie die Wissenschaftler des Institute for New Economic Thinking in New York, die auch neuen Erklärungen auf der Spur sind. ren und gut mit Menschen umgehen können, sind in diesem vielseitigen Beruf bestens aufgehoben. Man kann entweder BWL mit dem Schwerpunkt Tourismus studieren oder entscheidet sich gleich für Tourismusmanagement als Studienfach. WISU 1/13 45 WISU-KARRIERE Immer mehr Deutsche zieht es zum Studieren nach Holland. Denn im Land der Grachten herrschen fast paradiesische Studienbedingungen. Und einen Numerus clausus gibt es auch nicht. Studieren im Ausland Auf nach Holland! olland war schon immer ein beliebtes Reise- und Ausflugsziel H der Deutschen. Kein Wunder: Wer in Westdeutschland, etwa in NordrheinWestfalen, wohnt, für den ist es nach Venlo, Maastricht oder Nijmegen, wo man sich seit langem auf die Gäste aus dem großen Nachbarland eingestellt hat, oft nur ein Katzensprung. Das Meer ist ebenfalls nicht weit weg. Und für viele ist nicht Paris, Rom oder Prag die schönste Stadt der Welt, sondern das durch seine unzähligen Grachten und schmalen, windschiefen Häuser bezaubernde Amsterdam. Auch als Studienort sind die Niederlande längst kein Geheimtipp mehr. Im vergangenen Jahr waren 25.000 Deutsche an einer niederländischen Hochschule immatrikuliert. Damit ist das Land bei deutschen Studenten genauso beliebt wie Österreich. In den Niederlanden stellen die Deutschen die mit Abstand größte ausländische Studentengruppe. Und sie wird immer größer: In den letzten Jahren nahm sie um jeweils rund 2.000 Gaststudenten zu. Grund ist nicht nur die Nähe zu Deutschland, obwohl holländische Unistädte wie Nijmegen und Groningen für deutsche Studenten, die aus Emden oder Kleve kommen, leichter zu erreichen sind als jede deutsche Universität. Nicht wenige von ihnen fahren sogar täglich zum Studieren über die nahe gelegene Grenze. Für viele deutsche „Expats“ steht eher WISU 46 1/13 die Möglichkeit, jenseits der Grenze das Wunschfach studieren zu können, an erster Stelle. Denn während bei beliebten Studiengängen wie Psychologie, Biochemie, Medizin oder BWL hierzulande meist ein Numerus clausus überwunden werden muss, der vielen den Weg zum Traumberuf versperrt, gibt es diese Form der Zulassungsbeschränkung in den Niederlanden nicht. Übersteigt die Nachfrage doch einmal das Angebot, werden die Studienplätze unter den Bewerbern einfach verlost — ein Verfahren, das man dort „Numerus fixus“ nennen. Auch das Studium selbst ist für viele ein Grund, die Hochschulausbildung in den Niederlanden zu absolvieren. Denn trotz übersichtlicher Hochschullandschaft — es gibt zwei Dutzend Universiteiten und Hogescholen (vergleichbar mit den deutschen Fachhochschulen) mit 650.000 Studenten, davon 80.000 aus dem Ausland — ist das Studienangebot breit und vielfältig. Sogar Fächer wie Physiotherapie und Logopädie kann man in Holland studieren. Viele Hochschulen genießen zudem einen exzellenten Ruf. So belegt die Rotterdam School of Management (RSM) — die Business School der dortigen Erasmus-Universität — bei internationalen Vergleichen regelmäßig Spitzenplätze. Im letzten europäischen B-School-Ranking der „Financial Times“ kam sie auf Platz neun. Auch die Universiteit Maastricht, die Universiteit van Amsterdam oder die bereits 1575 gegründete Universiteit Leiden, Lehr- und Ausbildungsstätte so berühmter Persönlichkeiten wie Rembrandt, René Descartes und Albert Einstein, erfreuen sich eines hohen Renommees. gar deutschsprachige Studiengänge. Hier zahlt sich aus, dass die Niederlande früher als andere europäische Staaten internationale Studienprogramme eingeführt und auf das europaweit kompatible Bachelor/Master-System umgestellt haben. Selbst wer ein Fach studiert, in dem überwiegend oder ausschließlich Niederländisch gesprochen wird, muss sich keine grauen Haare wachsen lassen. Denn kaum eine Fremdsprache lernt sich für Deutsche leichter. Um den obligatorischen Sprachtest zu bestehen, bieten viele Hochschulen vierbis sechswöchige, jedoch kostenpflichtige Intensivkurse an. Paradiesische Zustände also. Wären da nicht die Studiengebühren von 1.800 Euro pro Jahr und die — vor allem in beliebten Studentenstädten wie Amsterdam und Maastricht — recht hohen Lebenshaltungskosten. Wer kein Auslands-Bafög erhält und auch kein Stipendium, etwa vom DAAD oder vom Erasmus-Programm, ergattert hat, kann sich jedoch beim niederländischen Staat das Geld fürs Studium leihen. Oder er nimmt einen Studentenjob an (mindestens 32 Stunden pro Monat). Dann hat er Anspruch auf staatliche Unterstützung. Der Unterricht an holländischen Unis findet meist in kleinen Gruppen statt und ist „problemgesteuert“. Soll heißen: Frontalunterricht in überfüllten Hörsälen ist die absolute Ausnahme. Stattdessen erarbeiten sich die Studenten den Stoff selbständig anhand von Fallstudien, Projektarbeit und Präsentationen. Jeder Studienanfänger wird zudem von einem persönlichen Mentor betreut. An der Ausstattung von Bibliotheken und Seminarräumen gibt es ebenfalls nichts zu bemängeln, auch wenn die hässliche Beton-Architektur so mancher Hochschule so gar nicht zum Puppenstuben-Flair niederländischer Städtchen passt. Dann wäre da noch die hohe Prüfungsdichte. In der Regel folgt auf jede sechswöchige Vorlesungs- und Seminarreihe eine zweiwöchige Prüfungsphase. Ausgedehnte Semesterferien sind in Holland unbekannt. Dafür sind Immatrikulationen — das Studienjahr startet im September — oft bis kurz vor Studienbeginn möglich. Sogar die Sprachbarriere ist in den meisten Fällen kein Hindernis, denn es gibt zahlreiche englisch- und so- Weitere nützliche Informationen unter studieren-in-holland.de und studyin holland.nl. Universiteit Nijmegen: Nicht schön, aber komfortabel ANZEIGENSEITE (bleibt aus technischen Gründen leer) WISU 1/13 47 WISU-KARRIERE In Deutschland sind sie noch ein zartes Pflänzchen: die Vereinigungen ehemaliger Studenten, auch Alumni genannt. Vorreiter sind die privaten Hochschulen. Kein Wunder, denn die Alumni-Clubs sind auch ein wichtiges Marketing-Instrument. Alumni-Clubs Dabei bleiben ist alles ls das Spendenaufkommen wähA rend der Finanzkrise 2008/09 einbrach und das Stiftungsvermögen dahinschmolz, geriet so manche amerikanische Hochschule in Schwierigkeiten. Denn im Unterschied zu den staatlichen Universitäten in Deutschland, die sich zum größten Teil aus Steuermitteln finanzieren, sind viele US-Unis als private Stiftungen organisiert und deshalb auf Spenden und Studiengebühren als Einnahmequelle angewiesen. Inzwischen fließen die Spendengelder wieder reichlich. Denn in den USA — vor allem an den dortigen Elite-Universitäten — gehört es gewissermaßen zum guten Ton, seiner Hochschule auch nach dem Studium verbunden zu bleiben und sie finanziell zu unterstützen. Und die Unis sorgen mit regelmäßigen Fundraising-Kampagnen dafür, dass dieser gute alte Brauch bei den Ehemaligen (Alumni) nicht in Vergessenheit gerät. So meldete die Tuck School of Business des Dartmouth College kürzlich, im abgelaufenen Studienjahr von über 70 Prozent ihrer Ehemaligen eine Spende erhalten zu haben. Und der Stanford University brachte eine fünfjährige Fundraising-Kampagne über sechs Mrd. Dollar von insgesamt 166.000 Spendern ein, wobei sich Nike-Gründer Phil Knight und WISU 48 1/13 Yahoo-Gründer Jerry Yang mit 105 bzw. 75 Mio. Dollar besonders großzügig zeigten. Von solchen Beträgen können deutsche Hochschulen, ob staatlich oder privat, nur träumen. Denn die Spenden- und Alumni-Kultur ist hierzulande noch ein zartes Pflänzchen, das erst wachsen und gedeihen muss. Erst Ende der achtziger Jahre entstanden in Deutschland die ersten Alumni-Vereinigungen, die sich darum kümmerten, dass der Kontakt der Ehemaligen zu ihrer Hochschule nicht abriss. Inzwischen sind Alumni-Organisationen an den meisten Universitäten und Fachhochschulen fest etabliert und werden von ihnen nach Kräften unterstützt. Alumni-Clubs.net, der Verband der Alumni-Organisationen im deutschsprachigen Raum, zählt über 250 Mitglieder. Denn an den Hochschulen hat sich herumgesprochen, dass es kaum ein besseres Mittel gibt, das Image in der Öffentlichkeit aufzupolieren und potenzielle Spender auf sich aufmerksam zu machen, als umtriebige Alumni-Vereine. Deren Mitglieder wiederum profitieren vom gegenseitigen Informations- und Erfahrungsaustausch und ihrer guten Vernetzung. Nicht selten wird eine Mitgliedschaft im Alumni-Verein somit zum Karrierebeschleuniger. Seit 2008 gibt es an der ZU zudem ein Alumni-Office, das den AlumniVerein unterstützt, indem es Veranstaltungen und Schulungen organisiert und Kontakte zu Unternehmen aus dem Partnerpool der Hochschule vermittelt. Allerdings ist es ein Geben und Nehmen. So wird von den Alumni als Botschafter der Hochschule auch eigenes Engagement erwartet, sei es, dass sie als Referenten über ihre beruflichen Erfahrungen berichten, bei der Auswahl neuer Studenten mithelfen, Veranstaltungen organisieren oder Jobs und Praktika an andere Alumni vermitteln. Auch bei In Praxi, der EhemaligenVereinigung der WHU — Otto Beisheim School of Management, sind viele Alumni als Referenten, Prüfer oder persönliche Coaches aktiv. Ein von In Praxi entwickeltes CoachingProgramm bietet Studenten die Möglichkeit, ihre Soft Skills zu trainieren. Pro Jahr finden etwa 100 Veranstaltungen statt. Highlights sind die jährliche Mitgliedertagung, das WHU Alumni Homecoming für Jubilare der Uni, der Alumni Career Day und die Lifelong Learning Seminare, mit denen sich die WHU-Alumni weiterbilden können. Vor allem an den Privatunis — Vorreiter in Sachen Kontaktpflege — dienen Alumni-Vereine in erster Linie dem Zweck, die Berufsaussichten der Mitglieder zu verbessern. Denn wer sich für ein Studium an einer privaten Hochschule entscheidet, erwartet als Gegenleistung für die meist üppigen Studiengebühren auch nach dem Studium eine intensive Betreuung und beste Karrierechancen. Um möglichst viele Studenten anzulocken, werben die Unis deshalb mit einem umfangreichen Angebot an Karriere-Events, Info-Veranstaltungen, Mentor-Programmen und ihren guten Kontakten zur Wirtschaft. So stellt die Zeppelin Universität in Friedrichshafen auf ihrer Homepage mehrere Alumni vor, die in Wirtschaft und Politik Karriere gemacht haben und heute als Consultant arbeiten oder ein Unternehmen leiten. Ein Ehemaliger hat es sogar zum persönlichen Referenten von Bundesbildungsministerin Annette Schavan gebracht. Die damit verknüpfte Botschaft: Wer sich im Kreis solcher Männer und Frauen bewegt, muss sich um seine berufliche Zukunft keine Sorgen machen. Doch nicht nur die Privatunis umgarnen ihre Ehemaligen. So manche staatliche Hochschule ist ebenfalls sehr aktiv. Die TU München etwa hat ein Netzwerk mit 40.000 Alumni aufgebaut, von denen sich über 500 als Mentoren engagieren. Mit „KontakTUM“ gibt man sogar ein eigenes Alumni-Magazin heraus. Das Veranstaltungsprogramm umfasst Bewerbungstrainings, Sprachkurse, Karriereforen oder auch einen Entrepreneur-Workshop für Alumni, die sich selbständig machen wollen. ANZEIGENSEITE (bleibt aus technischen Gründen leer) WISU 1/13 49 WISU-KARRIERE Eine gute Platzierung auf den Ergebnisseiten von Suchmaschinen kann für Unternehmen entscheidend sein. Hier kommt die Suchmaschinenoptimierung ins Spiel — ein neues Betätigungsfeld, nicht nur für IT-Experten. SEO Herr übers Suchergebnis as Internet hat bereits für zahllose neue Berufe gesorgt — nicht D zuletzt für den Suchmaschinenoptimierer. Denn Studien belegen: Das Gros der Suchenden begnügt sich mit den Resultaten auf der ersten Seite bei Google oder Bing, die wenigsten machen sich die Mühe, die Folgeseiten aufzurufen. Die meisten konzentrieren sich sogar nur auf die ersten drei angezeigten Links. Mit anderen Worten: Websites, die es nicht in die Top 10 — auf einer Ergebnisseite tauchen normalerweise zehn „organische Suchergebnisse“ auf — oder noch besser in die Top 3 schaffen, werden mit großer Wahrscheinlichkeit ignoriert. Ein ähnliches Aufmerksamkeitsgefälle gibt es Studien zufolge bei der Werbung: Sponsored Links, die über den Suchergebnissen auftauchen, werden wesentlich häufiger beachtet als Werbung, die rechts neben den Suchergebnissen erscheint. Allerdings sagen Statistiken wie diese nur die halbe Wahrheit. Denn erfahrene Suchmaschinennutzer — und welcher Internet-Nutzer ist das nicht? — haben ziemlich ausgeklügelte Strategien entwickelt. So gibt kaum jemand auf, nur weil das gewünschte Ergebnis nicht unter den WISU 50 1/13 ersten drei Treffern auftaucht. Ist man bei der ersten Suche nicht fündig geworden, geben die meisten andere oder mehr Begriffe ein. So ist jeder Suchvorgang meist eine Sequenz mehrerer Suchen mit unterschiedlichen Begriffen. Wobei bei jedem Suchschritt meist nur — siehe oben — die jeweils erste Ergebnisseite beachtet wird. Die Herausforderung für Unternehmen lautet deshalb, an die Spitze der Ergebnislisten zu gelangen, wenn Internet-Nutzer entsprechende Keywords eingeben. Gerade für mittelständische oder kleine Firmen, die einen großen Teil des Umsatzes über das Internet machen oder viele Kundenkontakte online herstellen, kann eine gute Platzierung entscheidend für den Erfolg sein. Außerdem spart man sich die Ausgaben für OnlineWerbung, deren Wirksamkeit ohnehin kaum steuerbar ist. Hingegen lässt sich eine gute Platzierung bei den organischen Suchergebnissen bis zu einem gewissen Grad beeinflussen. Hier hilft die Suchmaschinenoptimierung bzw. Search Engine Optimization (SEO) — wobei es treffender wäre, von „Google-Optimierung“ zu sprechen, laufen hierzulande doch fast 90 Prozent der Anfragen über den Marktführer. Zahlreiche Agenturen bieten heute entsprechende Dienstleistungen an und verschaffen Unternehmen aus fast allen Branchen eine bessere Platzierung. Suchmaschinenoptimierer müssen allerdings mit einem großen Problem fertig werden: Google hält die genaue Rezeptur seines Suchalgorithmus geheim. Über 200 Faktoren werden angeblich bei der Auswahl der „passendsten“ Suchergebnisse herangezogen, die außerdem immer wieder verändert und neu gewichtet werden. Der Marktführer gibt zwar „Richtlinien für Webmaster“ und eine „Einführung in die Suchmaschinenoptimierung“ heraus. Die Tipps und Hinweise sind aber ziemlich allgemein formuliert und dienen offenbar vor allem dazu, die schwarzen Schafe der SEO-Branche von unlauteren Praktiken abzuhalten. So rät Google Webmastern etwa, nicht zu viele Hyperlinks auf einer Seite einzubauen — eine klare Warnung an die Betreiber von „Link-Farmen“ und die Verkäufer von „Russen-Links“, die ihren Kunden mit manipulierten Links eine bessere Platzierung zu verschaffen versuchen. Google hat den Algorithmus ohnehin mittlerweile so verändert, dass die Zahl der Links, die auf eine Website verweisen, nicht mehr so stark gewichtet wird. Stattdessen wurden Websites, die viel Content bieten, aufgewertet. Weil der Suchmaschinen-Gigant ein solches Geheimnis um seinen Algorithmus macht, besteht die Aufgabe der Suchmaschinenoptimierer auch darin herauszufinden, welche SEOMaßnahmen zum Erfolg führen und welche von Google möglicherweise mit einer schlechteren Platzierung bestraft werden. Dabei helfen SEOTools und natürlich die altbewährte „Trial and Error“-Methode. Auch Spezial-Agenturen wie Searchmetrics untersuchen die Wirksamkeit von SEO-Maßnahmen, indem sie riesige Datenmengen auswerten, um mehr über die Ranking-Faktoren zu erfahren. So kommt Searchmetrics zu dem — wenig überraschenden — Ergebnis, dass die sozialen Medien einen immer größeren Einfluss auf die Platzierung von Suchergebnissen haben. Viele FacebookLikes und Tweets wirken sich also günstig aus. Gerade weil SEO eine Gleichung mit vielen Unbekannten ist, hat die SEOBranche gut zu tun. Und da die Suchmaschinenoptimierung immer in Bewegung ist, haben nicht nur IT-Experten gute Chancen, hier einen Job zu finden. Auch Wirtschafts- und sogar Geisteswissenschaftler werden gern genommen — wichtig ist nur, dass man netzaffin ist. Weil SEOAgenturen immer mehr zum umfassenden Berater werden und auch Schulungen für die IT-Mitarbeiter der Kunden durchführen, ist nicht nur technisches Wissen, sondern unter anderem auch Kommunikationstalent gefragt. ANZEIGENSEITE (bleibt aus technischen Gründen leer) WISU 1/13 51 WISU-KARRIERE TÜV für Abschlussarbeiten ei wissenschaftlichen Arbeiten wurde bereits geschumB melt, als man noch mit Zettelkästen arbeitete und die benötigten Quellen nur in Bibliotheken zu finden waren. Doch seit es durch Google und die Digitalisierung viel einfacher geworden ist, relevante Texte zu finden und für die eigene Arbeit mittels Paste & Copy anzuzapfen, ist das Abschreiben ausgesprochen verlockend. Und so mancher kann der Versuchung nicht widerstehen. Laut Schätzungen finden sich in rund 90 Prozent aller wissenschaftlichen Arbeiten Indizien für abgekupferte Passagen, in 30 Prozent der Fälle erhärtet sich der Verdacht, und bei jeder zehnten Arbeit lassen sich Plagiate nachweisen. Wer sind die beliebtesten Arbeitgeber europäischer Absolventen? Die schwedische Firma Universum hat 85.000 von ihnen gefragt. An der Spitze liegen ein InternetKonzern, ein Kosmetikspezialist und eine WP-Gesellschaft. Beliebteste Arbeitgeber Google ist nicht zu schlagen Hochschulen und Professoren haben den Kampf gegen das Plagiieas Unternehmen ist vielen unheimlich, sie halten es für einen D gigantischen Datenstaubsauger, Plagiatjäger Uwe Kamenz ren längst aufgenommen. Allerdings wird Anti-Plagiat-Software wie Turnitin meist nur stichprobenartig eingesetzt, um die Schummler zu überführen. inen anderen und eventuell erfolgversprechenderen Weg E will jetzt der BWL-Professor und Plagiatjäger Uwe Kamenz von der FH Dortmund gehen. Er möchte grundsätzlich alle wissenschaftlichen Arbeiten überprüfen und setzt auf den Abschreckungseffekt flächendeckender Kontrollen. Da es dafür jedoch nicht genügend Geld gibt, hat Kamenz Plan B umgesetzt: Studenten können ihre Arbeit freiwillig und kostenlos durch die an seinem Institut entwickelte Software prüfen lassen und sich — hoffentlich — eine plagiatfreie Arbeit bescheinigen lassen. Eine Art AbschlussarbeitenTÜV, der — da Kamenz dabei auf Spenden angewiesen ist — derzeit allerdings nur den Studierenden von fünf Hochschulen angeboten wird. WISU 52 1/13 der gierig alle Informationen aufsaugt, die er bekommen kann, um damit ein von niemandem zu kontrollierendes und jeden Winkel ausleuchtendes Daten-Imperium zu errichten. Wegen seiner oft monopolartigen Stellung und fragwürdigen Geschäftspraktiken sind ihm zudem in mehreren Ländern die Kartellwächter auf den Fersen. Die Rede ist natürlich von Google, dem — laut einer Umfrage des schwedischen Marken-Beratungsunternehmens Universum — beliebtesten Arbeitgeber unter Europas Wirtschaftsabsolventen. Dass die Suchmaschinenfirma trotz ihres schlechten Rufes bei Datenschützern und Wettbewerbshütern in Arbeitgeber-Rankings regelmäßig vorn liegt, dürfte vor allem mit den dortigen Arbeitsbedingungen zu tun haben. Die sollen nämlich geradezu paradiesisch sein: von flexiblen Arbeitszeiten über freie Getränke und Snacks bis zu Fitness-Räumen und Lounges mit Massagesesseln, Xbox und Tischfußball reicht das Spektrum der Annehmlichkeiten. An strenge Dresscodes, wie es sie in anderen Firmen gibt, muss man sich auch nicht halten. Es sei denn, man hält Jeans und T-Shirt für eine Art Kleiderordnung. Während Google mit seiner entspannten und kreativen Arbeitsatmosphäre bei jungen Berufsein- steigern punktet, stehen andere Unternehmen wegen ihrer weltweit bekannten Produkte oder ihres internationalen Renommees als Arbeitgeber hoch im Kurs. Wie etwa der Zweit- und der Drittplatzierte des Rankings, der französische Kosmetikkonzern L’Oréal sowie die WP-Gesellschaft Ernst & Young. Insgesamt wurden für die Studie 85.000 Absolventen der Wirtschaftsund der Ingenieurwissenschaften befragt. Während bei den Wiwis Prüfungs- und Beratungsunternehmen die Top 15 dominieren — neben Ernst & Young finden sich dort auch noch KPMG (5.), McKinsey (7.), PricewaterhouseCoopers (9.), The Boston Consulting Group (11.) und Deloitte (15.) —, sind es bei den Ingenieuren IT-Konzerne wie IBM, Google und Microsoft. Auch die Konsumgüterindustrie ist bei den Wirtschaftsabsolventen stark ganz oben in der Rangliste vertreten. Außer L’Oréal haben es Procter & Gamble (4.), Unilever (8.), Nestlé (12.) und Coca-Cola (14.) unter die Top 15 geschafft. Bestplatziertes deutsches Unternehmen ist BMW (6.), das bei den Ingenieuren sogar die Spitzenposition innehat. Weitere deutsche Vertreter unter den Top 50 sind die Deutsche Bank (16.), Adidas (19.), Volkswagen (25.), Siemens (26.), Bosch (35.), Henkel (37.), Daimler (41.), Roland Berger (43.) und die Allianz (48.). Die Top 15 1. Google 2. L’Oréal 3. Ernst & Young 4. Procter & Gamble 5. KPMG 6. BMW 7. McKinsey & Company 8. Unilever 9. PricewaterhouseCoopers 10. Microsoft 11. The Boston Consulting Group 12. Nestlé 13. IKEA 14. The Coca-Cola Company 15. Deloitte Interessant, was den Europäern bei der Wahl ihrer Lieblingsfirmen besonders wichtig ist. Während bei Deutschen, Polen und Russen ein sicherer Arbeitsplatz im Vordergrund steht, sind es bei Franzosen, Italienern und Spaniern Internationalität und die Aussicht auf Auslandsreisen — angesichts der hohen Arbeitslosigkeit in Südeuropa eine kleine Überraschung. ANZEIGENSEITE (bleibt aus technischen Gründen leer) WISU 1/13 53 WISU-KARRIERE Die Gehaltslücke uf dem deutschen ArbeitsA markt gibt es bei den Gehältern nicht nur ein West-Ost-Gefälle, sondern bekanntlich auch ein Gefälle zwischen den Geschlechtern: Frauen bekommen für gleiche Arbeit meist weniger Geld als Männer. Begründet wird dies unter anderem damit, dass Frauen wegen der Kindererziehung oft weniger Berufserfahrung sammeln können. Auch bei MBA-Absolventen ist es in den letzten Jahren zu einer Gehaltslücke zwischen Männern und Frauen gekommen. Erhielten die Absolventinnen renommierter USBusiness-Schools 2002 noch 98 Prozent des Durchschnittsgehalts ihrer männlichen Kollegen, beträgt die Schere nach zehn Jahren 93 Prozent. Zu diesem Ergebnis Business School News Vor verschlossenen Türen Auch in den USA gibt es schwarze Schafe auf dem Markt für Business-Ausbildung. Das mussten die Studenten der Butler Business School im US-Bundesstaat Connecticut feststellen, als sie nach der Rückkehr aus den Weihnachtsferien vor verschlossenen Türen standen: Die private Einrichtung hatte ohne Vorwarnung Konkurs angemeldet und den Betrieb eingestellt. Ob die Studenten ihre bereits gezahlten Studiengebühren zurückbekommen, ist noch unklar. Die Butler Business School, an der man keinen Hochschulabschluss, sondern nur Fortbildungszertifikate erwerben konnte, hat damit gegen ein Gesetz des Bundesstaats verstoßen, wonach sie den drohenden Konkurs 60 Tage vor der Schließung hätte ankündigen müssen. MBAs und Luxusgüter Während viele MBA-Absolventen seit der Finanzkrise einen Bogen um die Finanzbranche machen, entscheiden sich immer mehr für eine Karriere in der Mode- und Luxusgüterindustrie (s. WISU 10/12, S. 1276). Das merken nicht nur B-Schools, die — wie die ESSEC — entsprechend spezialisierte MBAProgramme anbieten. Auch die Absolventen allgemeiner MBA-Programme entdecken zunehmend diese Branchen für sich. So wurden zuletzt mehrere erfolgreiche Mode-Startups im Internet von frischgebackenen MBA-Eleven gegründet. Etwa die beiden Online-Shops Quincy Apparel und The Fold, die von Absolventinnen der Harvard Business School bzw. der London Business School aus der Taufe gehoben wurden. Zurück nach Afrika kommt das amerikanische Wirtschaftsmagazin „Bloomberg Businessweek“, das regelmäßig tausende Absolventen der 30 besten Business Schools in den USA befragt. A llerdings gibt es große Unterschiede zwischen den einzelnen Management Schools. So beziehen Absolventinnen der „Class of 2012“ von Stanford nur 79 Prozent des Durchschnittsgehalts eines männlichen Stanford-MBAs, an der Cox School of Business der Southern Methodist University erhalten sie jedoch 103 Prozent. Die zunehmende Gehaltslücke ist auf die unterschiedlichen Karrierewege männlicher und weiblicher B-School-Absolventen zurückzuführen. Vor allem das Investment Banking — das allerdings auch bei männlichen MBAs stark an Attraktivität verloren hat — wird trotz der hohen Gehälter, die dort gezahlt werden, immer mehr von Frauen gemieden: Suchten sich 2002 hier noch 29 Prozent der Absolventinnen einen Job, waren es 2012 nur noch 16 Prozent. WISU 54 1/13 Der schwarze Kontinent hat Zukunft (vgl. WISU 12/12, S. 1535). Das wissen auch diejenigen aus afrikanischen Ländern, die in den USA oder Europa einen MBA machen. 70 Prozent von ihnen planen, nach dem Abschluss in ihre Heimat zurückzukehren. Das hat die ghanaische Private-Equity-Firma Jacana Partners herausgefunden. Die Hälfte der Rückkehrwilligen wollen sich mit einer eigenen Firma selbständig machen, die meisten in der Konsumgüteroder Finanzindustrie. GMAT hat die Nase vorn Immer mehr Business Schools in den USA bieten Bewerbern die Alternative, entweder den Graduate Management Admissions Test (GMAT) oder das Graduate Record Exam (GRE) abzulegen: Waren es 2009 nur 24 Prozent der B-Schools, sind es heute 69 Prozent, die beide Tests akzeptieren. Kaplan Test Prep, eine Organisation, die MBA-Bewerber auf GRE und GMAT vorbereitet, hat jedoch festgestellt, dass 2012 an fast der Hälfte der untersuchten Business Schools noch nicht einmal jeder zehnte Bewerber ein GRE-Ergebnis vorlegte. Das dürfte sich vor allem damit erklären, dass 29 Prozent der BSchools angaben, den GMAT dem GRE vorzuziehen. Darden: Kostenloser Online-Kurs Ed Hess, Professor an der Darden School of Business der University of Virginia, hat einen ungewöhnlichen Rekord aufgestellt: Sein kostenloser Online-Kurs „Smart Growth for Private Businesses“ wird von knapp 50.000 Teilnehmern belegt — das sind mehr Studenten, als in der fast 60-jährigen Geschichte dieser B-School ein MBA-Studium abgeschlossen haben. Der „Massively Open Online Course“ ist Teil des Angebots der neuen Online-Universität Coursera, die Mitte letzten Jahres ihre Pforten öffnete. Auch andere Business Schools bieten dort Kurse an. Zertifikate und Studienabschlüsse können bei Coursera allerdings nicht erworben werden. ANZEIGENSEITE (bleibt aus technischen Gründen leer) WISU 1/13 55 ANZEIGENSEITE (bleibt aus technischen Gründen leer) WISU 56 1/13 wisu Kompakt BASISWISSEN BWL Personalcontrolling er demografische Wandel, der Fach- und FührungsD kräftemangel, neue Technologien, die steigende internationale Mobilität der Arbeitskräfte und der weltweite Wettbewerbsdruck — all dies führt dazu, dass Personal eine immer wichtigere Ressource wird. Damit ist das Personalwesen nicht mehr wie früher eher administrativ, sondern zunehmend strategisch orientiert (vgl. Wunderer, S. 299). Der Kostensenkungs- und Rechtfertigungsdruck steigt und Personal wird zu einem knappen Erfolgsfaktor (vgl. Elšik, S. 407). Man erwartet vom Personalmanagement, dass es einen wesentlichen Beitrag zur Wertschöpfung im Unternehmen leistet (vgl. Gmür/Peterhoff, S. 235; Nicolai, S. 3 f.). Damit werden auch Informationen zum Wert des Personals und der Personalarbeit immer wichtiger, außerdem spielen ökonomische Ziele zunehmend eine Rolle beim Personalmanagement. Personalcontrolling als Antwort Das Personalcontrolling, wie es sich in den achtziger Jahren entwickelt hat, unterstützt die ökonomische und strategische Orientierung des Personalmanagement und verdeutlicht so dessen den Beitrag zum Unternehmenserfolg. Es befasst sich — mit dem Personal bzw. seinem Einsatz (faktororientiertes Personalcontrolling) und — mit der Personalarbeit (prozessorientiertes Personalcontrolling; vgl. Festerling/Möller, S. 868). Es gibt viele Definitionen des Personalcontrollings (vgl. Wimmer/Neuberger, S. 510 ff.). Bei enger Definition beschränkt es sich auf konkrete Funktionen, z.B. auf „die auf den Erfolg der Unternehmung ausgerichtete Planung, Kontrolle und Steuerung personalwirtschaftlicher Maßnahmen“ (Berthel, S. 1441). Bei weiter Definition kommt es zu Überschneidungen mit dem Personalmanagement, etwa wenn das Personalcontrolling dafür sorgen soll, dass „personalwirtschaftliche Entscheidungen und Maßnahmen zu den Unternehmenszielen und den überwiegend daraus abgeleiteten personalwirtschaftlichen Zielsetzungen beitragen“ (Scherm, S. 311). Die Aufgaben des Personalcontrollings leiten sich aus den klassischen Controlling-Aufgaben Planung, Kontrolle und Steuerung ab (vgl. Wimmer/Neuberger, S. 620) und berücksichtigen Wirtschaftlichkeits- und Wertschöpfungsüberlegungen beim Personalmanagement. Sie umfassen — die Evaluation und Bereitstellung von personalwirtschaftlichen Informationen zur Entscheidungsunterstützung und Effizienzüberprüfung, — die Koordination des Personalmanagements mit dem Gesamtunternehmen, — die Integration personalwirtschaftlicher und unternehmerischer Ziele sowie — die Planung, Steuerung und Kontrolle einschließlich der Früherkennung und Transparenz von personalwirtschaftlichen Chancen und Risiken (vgl. Scherm, S. 311; Berthel, S. 1443). Das Personalcontrolling hat eine ökonomische, reflexionsorientierte, strategische, legitimatorische und politische Perspektive. Ökonomische Perspektive Ausgangspunkt der ökonomischen Perspektive ist der Ökonomisierungsdruck und die Erwartung, dass das Personalmanagement einen Beitrag dazu leistet, dass das Unternehmen seine Ziele erreicht (vgl. Scherm, S. 311). Im Zentrum steht die Bewertung der Wertschöpfung von Personal und Personalarbeit (vgl. Gmür/Peterhoff, S. 235). Personalwirtschaftliche Aktivitäten müssen mithilfe ökonomischer Ziele und Instrumente gesteuert werden, da die Leistung der Mitarbeiter in einem Zweck-Mittel-Zusammenhang zum Unternehmenserfolg steht. Dabei werden Kosten, Wirtschaftlichkeit und Rentabilität miteinbezogen. Diese Dreistufigkeit findet sich in der Differenzierung nach Kosten-, Effizienz- und Effektivitätscontrolling wieder, wie man sie in der Literatur findet (vgl. z.B. Berthel, S. 1445 f.; Festerling/Möller, S. 867; Scherm/Süß, S. 223 ff.). Strategische Perspektive Die strategische Perspektive beruht auf der zunehmend unternehmerischen Bedeutung des Personalmanagements (vgl. Wunderer, S. 298), wonach Personal als strategischen Erfolgsfaktor gesehen wird. Das Personalcontrolling hat hier die Aufgabe, personalwirtschaftliche Strategien mit den Unternehmenszielen abzustimmen bzw. sowohl das Personal als auch die Personalarbeit in strategische Unternehmensentscheidungen einzubinden (vgl. Elšik, S. 408). Damit soll die strategische Bedeutung des Personals im Unternehmen erkannt und beachtet werden (vgl. Berthel, S. 1444). Entsprechend wird — wie beim Controlling — von operativem und strategischem Personalcontrolling gesprochen. Während das operative Personalcontrolling kurzfristige alltägliche Aufgaben des Personalmanagements unterstützt, geht es beim strategischen Personalcontrolling um die Unterstützung der langfristigen Unternehmensentwicklung. Hier stehen die enge Abstimmung der Planung, Steuerung und Koordination des Personals sowie personalwirtschaftlicher Maßnahmen mit den Personalmanagement- und Unternehmenszielen im VorderWISU 1/13 57 WISU-KOMPAKT grund. Das zeigt den strategischen Beitrag des Personals und der Personalarbeit bei der Erreichung der Unternehmensziele (vgl. Festerling/Möller, S. 868). Reflexionsorientierte Perspektive Was die reflexionsorientierte Perspektive anbelangt, unterstützt das Personalcontrolling die Führung des Unternehmens (vgl. Scherm/ Pietsch, S. 46). Dabei geht es um die systematische Reflexion personalwirtschaftlicher Entscheidungen, die erforderlich ist, um rationale Entscheidungen im Unternehmen sicherzustellen (vgl. Gmür/Peterhoff, S. 235). Entsprechend werden personalwirtschaftliche Entscheidungen hinsichtlich ihrer Konsequenzen für das Personalmanagement und das Unternehmen hinterfragt (vgl. Scherm/Süß, S. 221). Damit dient das Personalcontrolling der Komplexitätsbewältigung und unterstützt die Unternehmensleitung bei Entscheidungen und deren Reflexion zum Personaleinsatz und zur Personalarbeit (vgl. Festerling/Möller, S. 868; Scherm/Süß, S. 222). Legitimatorische Perspektive Diese Perspektive ist Folge des mit der Ökonomisierung verbundenen Drucks, wobei das Personalmanagement seinen Beitrag zum Unternehmenserfolg auch nachweisen muss (vgl. Gmür/Peterhoff, S. 235). Angesichts der Besonderheiten des Faktors Personal ist es jedoch nicht leicht, die Beiträge und eindeutige Ursache-/Wirkungszusammenhänge konkret festzustellen (vgl. Pietsch, S. 181). Das Personalmanagement versucht deshalb, mit dem Personalcontrolling ein Instrument bereitzustellen, das die personalwirtschaftlichen Entscheidungen rechtfertigt, um so seine eigene Stellung zu verbessern und seine Existenz zu sichern. So gesehen hat das Personalcontrolling nicht nur operativ-praktische Relevanz, sondern verfolgt auch einen legitimatorischen Zweck, da es dem Personalmanagement zu Akzeptanz und Ressourcen verhilft. Aufgrund seiner ökonomischen Fundierung und der Erwartung, dass rational gehandelt wird, stärkt das Personalcontrolling die Argumentation des Personalmanagements. Politische Perspektive Im Mittelpunkt der politischen Perspektive steht die Annahme, dass die Akteure in den Unternehmen eingeschränkt rational handeln, zudem versuchen, ihre individuellen Interessen und Ziele zu realisieren und nach Macht streben. Dabei werden vorhandene Freiräume genutzt. Mithilfe des Personalcontrollings können die Akteure eigene Interessen und Ziele verfolgen, Macht gewinnen und Einfluss auf Entscheidungen nehmen. Informationen über das Personal lassen sich politisch einsetzen, indem sie z.B. gefiltert, manipuliert, verschleiert, vorgetäuscht und zurückgehalten werden. So gesehen ist Personalcontrolling auch ein Instrument, die Macht- und Verhandlungsposition des Personalmanagements zu verbessern, womit es eine politische Funktion erfüllt (vgl. Wimmer/Neuberger, S. 602 ff.). Instrumente Da beim Personalcontrolling quantitative und qualitative Informationen erhoben und verarbeitet werden, kann auch zwischen quantitativen und qualitativen Instrumenten differenziert werden. Bei der Evaluierung der Auswirkungen personalwirtschaftlicher Entscheidungen auf den Unternehmenserfolg werden vor allem quantitative Instrumente genutzt: — Mithilfe der Kosten- und Leistungsrechnung wird die Wirtschaftlichkeit des Personals und des Personalmanagements erfasst (vgl. Festerling/Möller, S. 869). Dabei wird vorrangig eine Quantifizierung sowie bestenWISU 58 1/13 falls eine Monetarisierung angestrebt, indem in der Regel vergangenheitsbezogene Daten wie Personalkosten, Leistungsstunden, Fluktuationsraten oder Abwesenheitszeiten erhoben werden. — Wirtschaftlichkeits- und Rentabilitätsberechnungen finden im Rahmen der Investitionsrechnung Eingang in das Personalcontrolling und gehen über eine reine Kostenbetrachtung hinaus (vgl. Festerling/Möller, S. 869). — Die Bewertbarkeit des Personals steht im Mittelpunkt mathematisch komplexer Modelle zur Humanvermögensrechnung. Dabei wird auf die ökonomische Bedeutung des Personals im Sinne eines Vermögenswertes abgestellt (vgl. Pietsch, S. 179 f.). Qualitative Instrumente sind — Potenzial- und Portfolioanalysen, die sich beispielsweise auf die (künftige) Leistung des Personals beziehen (vgl. Berthel, S. 1450), — Leistungsbeurteilungen oder Mitarbeitergespräche (vgl. Festerling/Möller, S. 869) sowie — das Benchmarking, mit dessen Hilfe Personalmanagementprozesse bewertet werden. Dabei orientiert man sich an hervorragenden Vorbildern (Best Practice) innerhalb oder außerhalb des Unternehmens (vgl. Berthel, S. 1448 f.). Probleme Die Controlling-Instrumente bringen jedoch auch einige Herausforderungen mit sich. — So besteht eine Besonderheit des Personals darin, dass es kein passives Objekt ist, sondern aktiv über seine Arbeitsleitung bestimmt und dabei (auch) individuelle Interessen verfolgt, die angesichts der unternehmerischen Interessen zu Konflikten führen können (politische Perspektive). Damit ist eine rationale Planung, Steuerung und Kontrolle (der Leistung) des Personals, wie sie aus ökonomischer Sicht gefordert wird, nicht möglich. Stattdessen lässt sich die Leistung des Personals vom Unternehmen nicht vollständig bestimmen (vgl. Elšik, S. 406). Das gilt auch, wenn das Personalmanagement das Personalcontrolling nutzt, um sich zu legitimieren und dabei Effizienz- und Effektivitätsziele außer Acht lässt (legitimatorische Perspektive). — Das Personalcontrolling zeichnet sich durch Datenerhebungs- bzw. Messprobleme aus, die deshalb auftreten, weil sich Personal und Personalarbeit nicht immer quantitativ (eindeutig) erfassen lassen. Es sind auch qualitative Informationen erforderlich, die sich jedoch oftmals nicht (direkt) messen lassen, sondern unscharf und interpretationsbedürftig sind (vgl. Elšik, S. 406). Das kann dazu führen, dass sich die strategische Bedeutung des Personals nicht aufzeigen lässt (strategische Perspektive) und Interpretations- und Handlungsspielräume für politische Zwecke genutzt werden (politische Perspektive). Wegen der Schwierigkeiten, qualitative und quantitative Informationen zu erheben, lassen sich Zielerreichungs- oder -abweichungsgrade nur eingeschränkt bestimmen (vgl. Scherm, S. 311), was wiederum die vergangenheitsorientierte Reflexion erschwert (reflexionsorientierte Perspektive). — Da sich Kausalzusammenhänge nicht immer sicher nachweisen lassen, können die Wertbeiträge des Personals einzelnen personalwirtschaftlichen Entscheidungen bzw. Maßnahmen nicht eindeutig zugerechnet werden. Da der Unternehmenserfolg viele Ursachen hat, lässt sich nicht genau abzugrenzen, welcher Wertbeitrag auf das Personal und die Personalarbeit entfällt (Attributionsproblem). Außerdem wirken personalwirtschaftliche Maßnahmen erst mit zeitlicher Verzögerung, weshalb ihr Erfolg schwer zu antizipieren ist (Prognoseproblem; vgl. Pietsch, S. 181). Aufgrund dessen sind sowohl die WISU-KOMPAKT ÖKONOMIK INTERAKTIV Hier werden ökonomische Modelle erläutert und Aufgaben gestellt. Die ausführlichen Lösungen finden sich im WISU-Abonnentenbereich im Internet (www.wisu.de). Dort können auch interaktiv Veränderungen der Parameter vorgenommen und ihre Auswirkungen auf das Ergebnis beobachtet werden. Niveauproduktionsfunktion und Skalenertrag Output bei einer Verdoppelung der Faktorausstattung zu messen, berechnet man also g(2). Der Anstieg der Niveauproduktionsfunktion g'(s) = X s wird Skalenertrag genannt und entspricht somit dem Grenzertrag eines Bündels aller Faktoren bei konstanter Faktorintensität. Steigende Skalenerträge (Economies of Scale) weisen auf Betriebsgrößenvorteile bei der Produktion hin, sinkende Skalenerträge (Diseconomies of Scale) bedeuten dagegen, dass kleinere Betriebe produktiver sind. - Wie lautet die Niveauproduktionsfunktion für X = A . K ? - Hsieh (vgl. Hisieh, S. 286) schätzte für diese Funktion die Produktionselastizitäten und von verschiedenen Branchen in den USA (s. Abb.). Im Inernet lässt sich der Verlauf der Skalenerträge für die einzelnen Industriezweige bestimmen. m die Produktion in einem Betrieb bei gegebener Technologie zu steigern, muss die Einsatzmenge U an Produktionsfaktoren erhöht werden. Formal wird dieser Zusammenhang durch eine Produktionsfunktion dargestellt: z.B. X = f(A,K) mit X als Output und Arbeit A bzw. Kapital K als Input. Die Auswirkung einer partiellen Faktorvariation misst der Grenzertrag, der die Output-Steigerung bei Mehreinsatz eines Faktors bei Konstanz der übrigen Input-Mengen angibt. Dies entspricht den partiellen Ableitungen der Produktionsfunktion nach dem variierten Faktor. So gibt es also den Grenzertrag der Arbeit X A bzw. den Grenzertrag des Kapitals X K . Bei der partiellen Variation wird die Betriebsgröße durch die Kapazität der fixen Faktoren beschränkt. Um die Auswirkung einer Betriebsgrößenvariation vollständig zu erfassen, muss eine totale Faktorvariation betrachtet werden. Die Effekte willkürlicher simultaner Änderungen aller Input-Mengen lassen sich jedoch nicht sinnvoll miteinander vergleichen. Deshalb wird als Referenzpunkt eine bestimmte Faktorintensität (Relation der Input-Mengen) vorgegeben und bei der Faktorvariation beibehalten. Alle Faktoreinsatzmengen werden damit proportional zueinander verändert. Betragen die Input-Mengen in der Ausgangslage A1 und K1, lässt sich die Output-Menge bei gleichzeitiger Steigerung aller Faktoren um das s-fache bestimmen aus: X = f(s.A , s.K ) = g(s), 1 1 mit s > 0, wobei A1 = konstant, K1 = konstant und g(1) = f(A1, K1). Die Variable s heißt Prozessniveau oder Skalenniveau und die Funktion g(s) wird als Niveauproduktionsfunktion bezeichnet. Um den Legitimität des Personalmanagements (legitimatorische Perspektive) als auch die Reflexion personalwirtschaftlicher Entscheidungen gefährdet (reflexionsorientierte Perspektive). Der Nutzen ist unbestritten Die Diskussion um das Personalcontrolling zeigt, welche Relevanz es hat. Trotz der Probleme ist der Nutzen des Personalcontrollings für das Personalmanagement, aber auch für das Unternehmen, unbestritten. Er besteht darin, dass rationales Verhalten gesichert, die strategische Bedeutung des Personals und des Personalmanagements wahrgenommen wird, eine Reflexion stattfindet und sich die Legitimation erhöht. Dipl.-Kffr. Linda Amalou/ Prof. Dr. Stefan Süß, Düsseldorf Abb.: Schätzungen der Produktionselastizitäten von Arbeit und Kapital für Industriezweige in den USA (Quelle: Hsieh, S. 286) Prof. Dr. Andreas Thiemer, Kiel Literatur: Hoyer, W./Eibner, W.: Mikroökonomische Theorie. 4. Aufl., Stuttgart 2011. Hsieh, W.-J.: Test of Variable Output and Scale Elasticities for 20 US Manufacturing Industries. In: Applied Economics Letters, Vol. 2 (1995), S. 284 ff. Wied-Nebbeling, S./Schott, H.: Grundlagen der Mikroökonomik. 4. Aufl., Berlin et al. 2007. Literatur: Berthel, J.: Personalcontrolling. In: Gaugler, E. et al. (Hrsg.): Handwörterbuch des Personalwesens. 3. Aufl., Stuttgart 2004, S. 1441 ff. Elšik, W.: Personal-Controlling und strategisches Personalmanagement. In: Zeitschrift für Personalforschung, 4. Jg. (1990), S. 403 ff. Festerling, S./Möller, K.: Personalcontrolling. In: Scholz, C. (Hrsg.): Vahlens Großes Personallexikon. München 2009, S. 867 ff. Gmür, M./Peterhoff, D.: Überblick über das Personalcontrolling. in: Schäffer, U. et al. (Hrsg.): Bereichscontrolling. Funktionsspezifische Anwendungsfelder, Methoden und Instrumente. Stuttgart 2005, S. 235 ff. Nicolai, C.: Personalmanagement. 2. Aufl., Stuttgart 2009. Pietsch, G.: Humankapitalbewertung im Personalcontrolling — Jenseits der Verantwortlichkeitserosion. In: ZfCM Controlling & Management, 52. Jg. (2008), S. 179 ff. WISU 1/13 59 WISU-KOMPAKT Scherm, E.: Personal-Controlling. Eine kritische Bestandsaufnahme. In: Die Betriebswirtschaft, 52. Jg. (1992), S. 309 ff. Scherm, E./Pietsch, G.: Erfolgsmessung im Personalcontrolling — Reflexionsinput oder Rationalitätsmythos? In: Zeitschrift für Betriebswirtschaftliche Forschung und Praxis, 57. Jg. (2005), S. 43 ff. Scherm, E./Süß, S.: Personalmanagement. 2. Aufl., München 2010. Wimmer, P./Neuberger, O.: Personalwesen 2. Personalplanung, Beschäftigungssysteme, Personalkosten, Personalcontrolling. Stuttgart 1998. Wunderer, R.: Entwicklungstendenzen im Personal-Controlling und der Wertschöpfungsmessung. In: Personal: Zeitschrift für Human Resource Management, 52. Jg. (2000), S. 298 ff. BASISWISSEN WIRTSCHAFTSINFORMATIK Prozesse in der Wirtschaftsinformatik ufgabe der Wirtschaftsinformatik als interdisziplinäA rer Wissenschaft zwischen Betriebswirtschaftslehre und Informatik ist die Analyse, Gestaltung und Nutzung von Informationssystemen (vgl. Seidlmeier, S. 1439). Doch wie drückt sich diese Interdisziplinarität — vor allem in der betrieblichen Praxis — aus? Letzteres — auch als Business-/IT-Alignment bekannt — scheint ein „Dauerbrenner“ in den Fach- und IT-Abteilungen zu sein. Das „Praxisproblem“ findet seine Entsprechung — was nicht überrascht — auch in der Lehre. Denn natürlich ist es beispielsweise sinnvoll, ein Datenbanksystem (Informatik) bei großer Kundenzahl im Marketing (Wirtschaft) einzusetzen. Legt man jedoch — überspitzt ausgedrückt — ein IT- neben ein MarketingLehrbuch, ergibt sich daraus noch keine Wirtschaftsinformatik. Die Frage ist, was beides zusammenführt. Was ist der „Missing Link“? Hinweise finden sich bei den betrieblichen Prozessen. Worum handelt es sich dabei? Was haben sie mit der Interdisziplinarität der Wirtschaftsinformatik zu tun? Prozess und Prozessarten An Prozessdefinitionen herrscht kein Mangel (vgl. etwa Allweyer, S. 38 ff.; Fischermanns, S. 12 ff; Stahlknecht/ Hasenkamp, S. 206 ff.). Sieht man von Nuancen ab, wird ein Prozess-Input zielorientiert in einen Output transformiert. Das Wesen des Prozesses liegt in der Veränderung im Zeitablauf. Zur Transformation werden Ressourcen benötigt. Die Umwandlung vollzieht sich — zwischen dem eindeutigen Prozessanfang und -ende — durch eine Reihe festgelegter Prozessschritte. Für Unternehmensprozesse oder betriebliche Prozesse gilt beispielhaft: Aufgrund eines Auftrags (Input) entsteht ein Produkt (Output). Diese Leistungserstellung (Transformation) benötigt typischerweise Mitarbeiter, Maschinen, Material, Finanzmittel, Informationen etc. Es bestehen (un-/dokumentierte) Arbeitsanweisungen (auch in Form von Prozessmodellen). Am Anfang steht und am Ende wartet immer ein den Prozess auslösender externer oder interner Kunde, womit Prozessorientierung immer Kundenorientierung ist. Man unterscheidet zwischen verschiedenen Arten von Unternehmensprozessen: — Geschäftsprozesse dienen dem Geschäftszweck, erzeugen also die eigentlichen Unternehmensleistungen und damit den Kundennutzen bzw. Wert (z.B. Auftragsbearbeitung, Produktion, Logistik). Zu den Geschäftsprozessen können auch Prozesse gerechnet WISU 60 1/13 werden, die für das Unternehmen von erfolgskritischer Bedeutung sind (Forschung und Entwicklung, Strategie). — Unterstützungsprozesse führen zu keinem direkten Kundennutzen. Sie dienen aber der Durchführung und Aufrechterhaltung von Geschäftsprozessen (Angebotsabgabe, Instandhaltung, Gehaltsabrechnung etc.). — Geschäfts- und Unterstützungsprozesse werden durch Führungsprozesse geplant, gesteuert und kontrolliert, bei denen es sich in der Regel um rein informationsverarbeitende Prozesse handelt (Produktionsplanung, Controlling etc.). Geschäfts- und Unterstützungsprozesse können Informationen verarbeiten und Material verbrauchen. Am Ende entstehen informatorische oder materielle Leistungen (Prozess-Output). Neben der „Wertschöpfung“ gibt es weitere Unterscheidungskriterien wie Strukturierungsgrad, Wiederholfrequenz, organisatorische Reichweite, Prozessumfang und Prozessdauer. Prozesse verbinden Wirtschaft und Informatik Um zu zeigen, weshalb Prozesse bzw. Prozessmodelle geeignet sind, die Brücke zwischen Informatik und Betriebswirtschaft zu schlagen, kann man auf bekannte Überlegungen zurückgreifen: Betriebliche computergestützte Informationssysteme sind der zentrale Erkenntnisgegenstand der Wirtschaftsinformatik. Sie haben immer den Zweck, Unternehmensprozesse zu unterstützen, indem sie Planungs-, Steuerungs- und Kontrollinformationen bereitstellen. Ausgangspunkt der Analyse und Gestaltung von Informationssystemen sind — im Rahmen der Systementwicklung — die Systemanforderungen der künftigen Benutzer, die sich — zumindest zum Teil und im Überblick — aus den zu unterstützenden Prozessen ableiten lassen. Weist man die Systementwicklung eher der Informatik und die Definition der Anforderungen eher der Wirtschaft zu, sind Unternehmensprozesse das Verbindungsglied. Prozesse enthalten die fachlichen (betrieblichen) Anforderungen und kommunizieren diese verständlich an den Systementwickler (siehe unten). Um interdisziplinär zusammenarbeiten zu können, muss von Wirtschaft und Informatik ein gemeinsames, von beiden verstandenes und akzeptiertes Prozessmodell zugrundegelegt werden. Können Betriebswirte und Informatiker dies nicht allein bewerkstelligen, ist der Wirtschaftsinformatiker gefordert, indem er z.B. die notwendigen Prozessmodelle gestaltet und die kooperative Modellierung begleitet. WISU-KOMPAKT Prozessorientierte Wirtschaftsinformatik Prozessmodelle schaffen zunächst eine für beide Seiten verständliche Kommunikationsgrundlage: Man spricht über das Gleiche. Dies gelingt jedoch nur, wenn Modelle verwendet werden, die sowohl von Informatikern als auch von Betriebswirten verstanden werden. Dies ist umso eher der Fall, wenn die Prozessmodelle gemeinsam entwickelt werden. Prozessmodelle sind zudem eine geeignete Grundlage, um Informationssysteme zu entwickeln — und damit das „Kerngeschäft“ der Wirtschaftsinformatik. Das Modell zeigt auf einen Blick die zu unterstützenden Funktionen, die Systemnutzer und die zu verarbeitenden Informationen. Das Modell muss dann für die Systementwicklung verfeinert oder durch Detaillierungsmodelle ergänzt werden. — Funktionen können genauer modelliert werden, etwa um die automatisierbaren Schritte zu bestimmen und zwischen Eingabe-, Verarbeitungs- und Ausgabefunktionen zu unterscheiden. Damit werden die funktionalen Anforderungen im Rahmen des Requirements Engineering deutlich. — Die Modellierung der Organisationsseite lässt sich erweitern, indem z.B. Benutzergruppen und Zugriffsrechte festgelegt werden. Dokumente können mit Entity-Relationship-Modellen zur Datenstrukturierung und zur nachfolgenden Datenbankentwicklung hinterlegt werden. — Damit ein Mitarbeiter der IT-Abteilung den MarketingLeiter versteht, wenn dieser sagt, er benötige ein System, das die Werbekampagnen unterstützt, ist es notwendig, dass die Werbekampagne als Prozess mit Arbeitsschritten, Beteiligten und notwendigen Informationen begriffen wird. Die Modellierungsmethodik ARIS Wie kommen Wirtschaft und Informatik nun konkret zusammen? Wie muss ein Prozessmodell aussehen? Ein passender Modelltyp ist die ereignisgesteuerte Prozesskette (EPK; vgl. Scheer, S. 124 ff.; Seidlmeier 2010, S. 79 ff.). Abb. 1 zeigt einen Prozess als ereignisgesteuerte Prozesskette. Man erkennt die Start- und Endereignisse und die Prozessschritte (in der EPK: „Funktionen“; vgl. zu den Bestandteilen der EPK auch die vorige Prozessdefinition). Weiterhin verdeutlicht das Modell, dass jeder Prozessschritt ein ausführendes Organisationselement benötigt (außer es handelt sich um einen vollautomatisierten Schritt), z.B. einen Mitarbeiter, eine Stelle oder eine Abteilung. Weiterhin benötigt oder erzeugt jeder Schritt Informationen (in papiergebundener oder digitaler Form). Informations- bzw. Anwendungssysteme können die Prozessschritte dabei unterstützen. Charakteristisch für die ARIS-Modellierungsmethodik (Architektur integrierter Informationssysteme) — die EPK ist nur ein Modelltyp unter diesem „Methodendach“ — ist die Unterteilung der Prozesse in eine Funktions-, Organisations- und Daten-(Informations-)sicht. Für jede Sicht stehen zahlreiche passende Modelltypen zur Verfügung. Die drei Sichten sind die Bausteine für das zusammenfassende Prozessmodell der vierten Sicht, der Prozessoder Steuerungssicht (die EPK ist ein Modelltyp dieser Sicht). Abb. 1 bringt diese Sichten prägnant zum Ausdruck: Die Prozesse bestehen aus grünen Funktionen (Funktionssicht), gelben Organisationselementen (Organisationssicht) und graublauen Daten-/Informationsträgern bzw. Informations-/Anwendungssystemen (Datensicht. ARIS unterscheidet nicht konsequent zwischen Daten und Informationen). Aus Gründen der — hier unschädlichen — Vereinfachung wird nicht weiter auf die STICHWORT DES MONATS Armutsgrenze erzeit wird im reichen Deutschland wieder einmal intensiv über Armut diskutiert. Wann sind MenD schen arm bzw. durch Armut gefährdet? Aus ökonomischer Sicht gibt es mehrere Definitionen. Während die Weltbank global von (absoluter) Armut spricht, wenn jemand über weniger als 1,25 Dollar pro Tag verfügt, wird Armut bzw. Armutsgefährdung meist bezogen auf das mittlere Einkommen der jeweiligen Region definiert. Nach der EU-Definition ist jemand arm, der weniger als 40 Prozent des mittleren Einkommens der betreffenden Region zur Verfügung hat. Die Armutsgefährdungsgrenze liegt bei 60 Prozent des mittleren Einkommens. Der Armutsbegriff beruht hier also auf einer relativen Größe. Er orientiert sich nicht daran, was lebensnotwendig ist, sondern am mittleren Einkommen. In Deutschland lag die Armutsgefährdungsgrenze bei einem Ein-Personen-Haushalt 2011 laut dem Statistischen Amt der Europäischen Gemeinschaften (Eurostat) bei einem jährlichen Nettoeinkommen von 11.426 Euro, bei einem Vier-Personen-Haushalt (zwei Erwachsene mit zwei Kindern unter 14 Jahren) betrug sie 23.994 Euro jährlich. Danach sind in Deutschland aktuell 15,6 Prozent der Bevölkerung arm oder armutsgefährdet. Die Abbildung zeigt die Armutsgefährdungsgrenze und den Anteil der armutsgefährdeten Personen für einige europäische Länder im Jahr 2010. Dem zufolge liegt Deutschland etwas unter dem EU-Durchschnitt. Dass die so definierte Armut als relative Armut eher eine gefühlte als eine absolute Armut ist, zeigen zwei Beispiele. So sind in einer Region, falls alle dortigen Bewohner ihre Einkommen auf einmal verdoppeln, immer noch dieselben Personen arm. Zum anderen verringert sich in der Regel die Armut in einer Region, wenn beispielsweise die oberen zehn Prozent der Einkommensbezieher auswandern und die Einkommen ansonsten unverändert bleiben. Vollends problematisch wird der Armutsbegriff in einer Region, in der 40 Prozent ein hohes und die übrigen 60 Prozent alle dasselbe — aber ein niedrigeres — Einkommen oder in der sogar alle dasselbe Einkommen haben. Unabhängig von der Höhe dieser Einkommen wäre hier niemand armutsgefährdet oder sogar arm. Armut richtig zu messen ist also offenbar nicht einfach. Prof. Dr. Eckart Bomsdorf, Köln WISU 1/13 61 WISU-KOMPAKT Rolle der (violettfarbenen) ablaufsteuernden Ereignisse und auf die nicht abgebildete Ablauflogik eingegangen. (Start-) Ereignis Dokument (Daten/ Informationen) Schritt 1 (Funktion) Mitarbeiter 1 Anwendungssystem Schritt 2 Abteilung A Dokument (Daten/ Informationen) Schritt 3 Abteilung B (End-) Ereignis Abb. 1: Prozessmodell in EPK-Darstellung Prozessorientiertes Requirements Engineering Die Analyse bzw. das Management der Anforderungen der Benutzer an ein Anwendungssystem (Requirements Engineering) ist in der Regel die erste Aufgabe beim Systementwicklungsprozess. Idealerweise beruht sie auf relevanten Prozessmodellen (vgl. Hansen/Neumann, S. 345 ff.). Typischerweise wird zwischen funktionalen, vom System bereitzustellenden Fachfunktionen, und nicht-funktionale Anforderungen, d.h. technischen Systemeigenschaften wie Bedienbarkeit, Wartbarkeit, Zuverlässigkeit etc. unterschieden. Ein Prozessmodell — dargestellt in einer EPK — unterstützt vorrangig die Ermittlung funktionaler Anforderungen. Es ist nach wie vor eine Herausforderung, den Benutzern zu „entlocken“, welche Anforderungen sie an das System stellen. Sie können ihre Wünsche selten klar äußern, hinzu kommt, dass diese häufig geändert werden. Sie wissen zwar, welche Prozesse unterstützt oder automatisiert werden sollen. Wie das System insgesamt funktionieren soll, können sie jedoch meist nur schwer beschreiben. Dabei liegen die betrieblichen Prozesse und die fachlichen Anforderungen grundsätzlich nicht weit auseinander, so wie bei diesem Beispiel: Die Bearbeitung von Servicefällen, d.h. die Wartung und Reparatur technischer Geräte, die per Telefon, E-Mail oder Telefax gemeldet werden, soll mithilfe eines Systems verbessert werden. Das Prozessmodell (s. Ausschnitt in Abb. 2) zeigt, dass die Aufnahme und Überprüfung der kundenbezogenen Grunddaten (Name, Kundennummer etc.) die ersten Schritte sind. Diese Daten sind jedoch immer wieder inkorrekt und unvollständig, was aufwändige Berichtigungen notwendig macht. (Die Prozessschwachstellen sind durch rote Symbole gekennzeichnet). Das Modell zeigt auf den ersten Blick, dass das künftige System die Aufnahme, Überprüfung und Das generische Prozessmodell (Abb.1) veranschaulicht das Zusammenfließen von Wirtschaft und Informatik. (Grüner) Prozessablauf, (gelbe) Organisation und (graublaue) Informationen kommen in fachlicher, nichttechnischer Sicht vom Betriebswirt. Der InformaServicefall gemeldet über tiker versteht die Prozessschritte als SystemfunkTelefon tionen, die Beteiligten als Systembenutzer, die ausgewiesenen Dokumente als Grundlage der Datenstrukturierung und die dargestellten Anwendungssysteme als Unterstützung einzelner Prozessschritte oder als zu entwickelnde oder einzubindende Systeme. Offensichtlich ist das EPK-Modell nur sehr begrenzt in der Lage, Antworten auf umsetzungsnahe, DV-technische Fragen zu liefern. Diese Antworten können entsprechende Detailmodelle geben. So kann ein Prozessdokument genauer durch ein Entity-Relationship-Modell beschrieben werden. Informatiknähere Modelltypen aus dem UML- und BPMN-Umfeld werden von ARIS ebenfalls angeboten und können zur technischen Weiterentwicklung der Ausgangs-EPK verwendet werden (UML, Unified Modeling Language, und BPMN, Business Process Modeling Notation, sind weitverbreitete, standardisierte Modellierungssprachen- bzw. -notationen). Entscheidend ist jedoch, dass mit den Prozessmodellen wie der EPK Informatikern, Betriebswirten und Wirtschaftsinformatikern (als zusätzliche Mittler zwischen den Disziplinen) eine verbindende Sprach- und Kommunikationsgrundlage zur Verfügung steht, die in der Praxis allerdings oft zu wenig genutzt wird. Doppelmeldungen möglich Servicefall gemeldet über E-Mail Servicefall gemeldet über Telefax Kundenbezogene Grunddaten aufnehmen Hilfskraft Serviceabteilung Grunddaten überprüfen Grunddaten korrekt und vollständig Grunddaten nicht korrekt und vollständig Über die Kommunikation hinaus kann die ProzessGrunddaten idee in der Wirtschaftsinformatik aber auch — wie Aufwand berichtigen bereits angesprochen — Systementwicklungen unterstützen. Das Beispiel des prozessorientierten Requirements Engineering zeigt dies. Abb. 2: Prozessausschnitt zur Bearbeitung von Servicefällen WISU 62 1/13 Hilfskraft Serviceabteilung WISU-KOMPAKT Kundennummer erfassen Anforderung: "Intelligente Erfassung" Anforderung: Automatische Datenübernahme bei E-Mails E-Mail FAX Grunddaten Ansprechpartner erfassen Anforderung: "Intelligente Erfassung" Anforderung: Automatische Datenübernahme bei E-Mails Telefon Servicevertrag überprüfen Anforderung: Automatische Anzeige möglicher Serviceverträge Abb. 3: Detailschritte zur Aufnahme kundenbezogener Grunddaten Berichtigung der Grunddaten (funktionale Anforderungen) unterstützen soll. Ein Problem ist auch, dass Servicefälle von Kunden gelegentlich doppelt gemeldet werden (z.B. per Telefon und E-Mail, um „ja sicherzugehen“). Die Mitarbeiter im Service müssen dann erkennen, dass es sich um ein und denselben Fall handelt. Anhand der Detaillierung der Funktion „kundenbezogene Grunddaten aufnehmen“ in „Kundennummer erfassen“, „Ansprechpartner erfassen“ und „Servicevertrag überprüfen“ (Abb. 3) können weitere funktionale Anforderungen abgeleitet werden. Um Doppelmeldungen und Fehleingaben zu vermeiden, soll das System die „intelligente Erfassung“ von InputDaten ermöglichen. Das kann eine Auflistung der vorhandenen vollständigen Kundennummern nach Eingabe der ersten Ziffern sein. Damit lassen sich Fehleingaben reduzieren. Verbunden mit der geforderten automatischen Anzeige aller vorhandenen Serviceverträge — als Ergebnis von „Servicevertrag überprüfen“ — können die zuletzt gemeldeten Servicefälle aufgelistet werden, um Doppelmeldungen zu vermeiden. Im Ergebnis liefert das Prozessmodell klar nachvollziehbare funktionale Anforderungen: Das System muss die modellierten Prozessschritte („Grundaten aufnehmen“, „Servicevertrag überprüfen“ etc.) an sich vollständig oder auch teilweise unterstützen. Dies gilt auch für die Anforderungen, die sich aus der Durchführung dieser Schritte ergeben („intelligente Erfassung von Daten“, „automatische Datenübernahme bei E-Mails“ etc.). Das Beispiel zeigt, dass ein prozessbasiertes Requirements Engineering zum systematischen Vorgehen führt. Durch das Denken in Prozessen liefert die Wirtschaftsinformatik somit einen wertvollen Beitrag zum Unternehmenserfolg. Prof. Dr. Heinrich Seidlmeier, Rosenheim Literatur: Allweyer, T.: Geschäftsprozessmanagement. Herdecke 2005. Fischermanns, G.: Praxishandbuch Prozessmanagement. 10. Aufl., Gießen 2012. Hansen, H./Neumann, G.: Wirtschaftsinformatik 1. 10 Aufl., Stuttgart 2009. Scheer, A.-W.: ARIS — Modellierungsmethoden, Metamodelle, Anwendungen. 3. Aufl., Berlin 1998. Seidlmeier, H.: Prozessmodellierung mit ARIS. 3. Aufl., Wiesbaden 2010. Seidlmeier, H.: Zentrale Begriffe der Wirtschaftsinformatik. In: WISU, 41. Jg. (2012), S. 1439 ff. Stahlknecht, P./Hasenkamp, U.: Einführung in die Wirtschaftsinformatik. 11. Aufl., Berlin/Heidelberg/New York 2005. Schon gelesen? Alexander Kornrumpf: Collective Intelligence (WISU 11/11) Adrian Nowak: Die digitale Fabrik (WISU 5/12) Tim Kuster: E-Learning 2.0 — Social Media und Personalentwicklung (WISU 7/12) Patrick Delfmann: Informationssysteme und ihre Modellierung (WISU 10/12) WISU 1/13 63 WISU-KOMPAKT BASISWISSEN VWL Leistungsbilanzungleichgewichte und Mechanismen des Leistungsbilanzausgleichs eit Ende der neunziger Jahre haben sich weltweit hohe Außenhandelsungleichgewichte aufgebaut. In S der Theorie sind Leistungsbilanzdefizite und -überschüsse Ausland zur Verfügung gestellt werden, womit das Land einen Exportüberschuss aufweist. lediglich ein temporäres Phänomen, weil derartige Ungleichgewichte Anpassungsprozesse auslösen, die automatisch zu einem Leistungsbilanzausgleich führen. Ein Leistungsbilanzüberschuss hat darüber hinaus Auswirkungen auf den gesamtwirtschaftlichen Vermögensbestand: Wenn eine Volkswirtschaft einen Exportüberschuss erwirtschaftet, gibt sie im Außenhandel weniger Geld aus, als sie einnimmt. Das Einkommen der Volkswirtschaft wird also nicht komplett ausgegeben, die gesamtgesellschaftliche Ersparnis ist positiv. Ein Exportüberschuss hat somit für das betreffende Land einen Vermögensaufbau (V > 0) gegenüber dem Ausland zur Folge. Dieser kann entweder in Form von zusätzlichen Finanztiteln (F), also Aktien, Staatsanleihen, Forderungen etc. erfolgen oder in Form von Währungsreserven (W), d.h. Gold und Devisen. Da alle ausländischen Vermögenstitel in der Währung des Auslands bewertet sind, müssen die Vermögenswerte noch mit dem Wechselkurs (e) in die heimische Währung umgerechnet werden. Damit gilt: (EX – IM) = V = e . (F + W). Grundlagen Die Leistungsbilanz erfasst neben den Exporten und Importen von Gütern und Dienstleistungen auch grenzüberschreitende Einkommens- und Transferzahlungen. Da die Exporte und Importe jedoch den größten Teil der Leistungsbilanz ausmachen, werden die Begriffe Leistungsbilanzüberschuss und Exportüberschuss hier synonym verwendet. Aus der volkswirtschaftlichen Gesamtrechnung ergeben sich einige grundlegende makroökonomische Zusammenhänge (vgl. Petersen, S. 87 ff.): Die von einer Volkswirtschaft innerhalb eines Jahres produzierte Menge an Gütern — also das Bruttoinlandsprodukt (BIP) — kann entweder von den privaten Haushalten konsumiert (C), für die Vergrößerung des Produktionsapparates verwendet (I), vom Staat verbraucht (G) oder ins Ausland exportiert werden (EX). Die Konsummöglichkeiten des Inlands werden durch den Import von Gütern aus dem Ausland (IM) erweitert. Damit gelten definitionsgemäß diese Zusammenhänge: (1) (1') (2) (2a) (2b) BIP BIP BIP BIP BIP + IM = C + I + G + EX bzw. = C + I + G + EX – IM – (C + I + G) = (EX – IM) > (C + I + G) ==> (EX – IM) > 0 < (C + I + G) ==> (EX – IM) < 0 Im Fall (2a) lebt die Gesellschaft unter ihren Verhältnissen, weil sie nicht alle Güter verbraucht, die sie hergestellt hat. Die nicht verbrauchten Güter werden ins Ausland exportiert. Die Volkswirtschaft weist somit einen Exportüberschuss auf. Im Fall (2b) verbraucht die Volkswirtschaft mehr Güter, als sie hergestellt hat. Diese Gesellschaft lebt über ihre Verhältnisse und hat ein Leistungsbilanzdefizit. Gleichung (1') kann um die Staatseinnahmen (T) erweitert werden, indem auf jeder Seite der Gleichung die Staatseinnahmen abgezogen werden. (3) BIP – T = C + I + G – T + (EX – IM) Der Ausdruck (BIP – T) stellt das verfügbare Einkommen der Bürger dar. Der Teil dieses Einkommens, der nicht für Konsumausgaben verwendet wird, entspricht der volkswirtschaftlichen Ersparnis (S = BIP – T – C). Ersparnisse bedeuten ökonomisch gesehen einen Konsumverzicht. In Kombination mit Gleichung (3) resultiert daraus dieser Zusammenhang: (4a) BIP – T – C = I + G – T + (EX – IM) bzw. (4b) S = I + (G – T) + (EX – IM). Der Ausdruck (G – T) beschreibt den Saldo der staatlichen Ausgaben und Einnahmen. Wenn (G – T) positiv ist, gibt der Staat mehr Geld aus, als er einnimmt, d.h. es liegt ein Staatsdefizit vor. Die gesamtgesellschaftlichen Ersparnisse können im Inland folglich für zwei Zwecke verwendet werden: zur Bildung von Investitionen und zur Finanzierung des Staatsdefizits. Sofern nach der Bildung von Investitionen und der Finanzierung des staatlichen Defizits noch Güter übrig sind, können diese dem WISU 64 1/13 Umgekehrt muss ein Land mit einem Importüberschuss diesen finanzieren. Es muss sich dafür entweder im Ausland verschulden (durch eine Kreditaufnahme) oder seinen Konsum mit dem Verkauf von Vermögenstiteln finanzieren (Gold, Devisen oder Beteiligungen am Produktivkapital in Form von Aktien oder Direktbeteiligungen). Beides hat zur Folge, dass das Vermögen des Landes geringer wird — entweder direkt, weil Finanztitel oder Währungsreserven verkauft werden, oder indirekt, weil die Schulden des Landes gegenüber dem Ausland steigen und das Reinvermögen (also das Vermögen abzüglich der Verbindlichkeiten) schrumpft. Leistungsbilanzungleichgewichte haben auch Auswirkungen auf den Arbeitsmarkt. Ein Land mit einem Exportüberschuss produziert mehr Güter, als es verbraucht. Würde dieses Land nur diejenigen Dinge produzieren, die es selbst benötigt, wäre dies mit einem geringeren Einsatz von Produktionsfaktoren verbunden, also auch mit einem geringeren Arbeitseinsatz. Der Exportüberschuss wirkt sich daher positiv auf das gesamtwirtschaftliche Beschäftigungsniveau aus. Im Fall eines Importüberschusses ist das Beschäftigungsniveau hingegen geringer, was zur Arbeitslosigkeit führen kann. Aktuelle Leistungsbilanzungleichgewichte Seit Ende der neunziger Jahre haben sich weltweit hohe Leistungsbilanzungleichgewichte aufgebaut. In den USA betrug das Leistungsbilanzdefizit zwischen 2005 und 2008 jeweils rund 700 bis 800 Mrd. Dollar und damit fünf bis sechs Prozent des BIP. In Spanien und Portugal lagen die Defizite bei bis zu zehn Prozent, in Griechenland sogar zwischen zehn und 15 Prozent. Den Defizitländern stehen Überschussländer wie Deutschland, Japan und China gegenüber (s. Abb.). Angesichts der skizzierten Zusammenhänge wird deutlich, warum beispielsweise die USA in ihren aktuellen Leistungsbilanzdefiziten ein Problem sehen: Das Land lebt über seine Verhältnisse, was für die heimischen Konsumenten zunächst einmal positiv ist. Allerdings müssen sich die USA entweder im Ausland verschulden oder Tei- WISU-KOMPAKT le des heimischen Vermögens an das Ausland abtreten. Zudem hat das Leistungsbilanzdefizit eine negative Auswirkung auf den amerikanischen Arbeitsmarkt. Gleiches gilt für andere Defizitländer (EX – IM < 0) wie Griechenland, Portugal und Spanien. Umgekehrt sind die Konsequenzen für Überschussländer (EX – IM > 0) wie Deutschland, die Niederlande, Japan und China: Länder mit einem Exportüberschuss haben ein höheres Beschäftigungsniveau als ohne diesen Überschuss. 10 5 0 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 -5 -10 Leistungsbilanzungleichgewichten sind vor allem dauerhafte Leistungsbilanzdefizite. Sie haben einen Anstieg der Arbeitslosigkeit und der Verschuldung gegenüber dem Ausland zur Folge. Die steigende Auslandsverschuldung führt früher oder später zu einem Bonitätsverlust, der dann eine abrupte Reduzierung der Binnennachfrage verlangt, weil die Importüberschüsse nicht mehr finanziert werden können. Dies geht mit drastischen Abwertungen der Währungen von Defizitländern einher und schmälert so den Wert der Auslandsforderungen der Überschussländer. Über die abwertungsbedingten Vermögensverluste werden Leistungsbilanzungleichgewichte auch für ein Überschussland zu einem gravierenden Problem. Mechanismen des Leistungsbilanzausgleichs -15 Deutschland Griechenland Portugal Spanien Japan China Abb.: Entwicklung der globalen Leistungsbilanzungleichgewichte von 1995 bis 2010 in ausgewählten Ländern, Angabe: Leistungsbilanzsaldo in Prozent des Bruttoinlandsprodukts (Quelle: IMF World Economic Outlook Database, Oktober 2012) Zudem erwirtschaften Überschussländer im Außenhandel mehr Einnahmen als Ausgaben, was zu einem Vermögensaufbau gegenüber dem Rest der Welt führt. Aus den Vermögensbeteiligungen resultieren Einkommen, z.B. Dividenden oder Zinseinnahmen. Über die Finanzierung von Leistungsbilanzungleichgewichten sind z.B China und die USA auch ökonomisch verbunden: Ein Land mit einem Leistungsbilanzüberschuss bildet größere Ersparnisse als zur Finanzierung der heimischen Investitionen und des eigenen Staatsdefizits erforderlich sind. Die überschüssigen Ersparnisse werden verwendet, um dem Ausland einen Konsum über dessen Produktionsmöglichkeiten — also einen Importüberschuss — zu finanzieren. So gesehen finanzieren die chinesischen Bürger mit ihrem Konsumverzicht zu einem erheblichen Teil das Haushalts- und Leistungsbilanzdefizit der USA. Obwohl Leistungsbilanzungleichgewichte vor allem für Defizitländer ein Problem darstellen, sind die globalen Ungleichgewichte auch für Überschussländer nicht risikofrei. Die starke Exportabhängigkeit der Überschussländer führt zu einem raschen Rückgang der Beschäftigung, wenn der Welthandel infolge einer globalen Wirtschaftskrise einbricht oder die wichtigsten Exportländer einen Konjunktureinbruch erleiden. Der Zufluss von Goldund Devisenbeständen erhöht die monetäre Basis der Überschussländer, was zu inflationären Tendenzen führen kann. Das Vermögen gegenüber dem Ausland kann an Wert verlieren, wenn diese Forderungen wertlos werden (Bankrott der betreffenden Unternehmen oder sogar des Staates) oder wenn die Währung des Auslands stark abgewertet wird. In diesem Fall hätte das Überschussland seine Güter gegen wertlose Forderungen eingetauscht und damit letzlich verschenkt. Schließlich droht noch die Gefahr, dass es zu einem weltweit wachsenden Protektionismus kommt. Sofern die Leistungsbilanzungleichgewichte in den Defizitländern den ökonomischen Problemdruck — steigende Arbeitslosigkeit inklusive sozialer Folgeprobleme und steigende Verschuldung im Ausland — immer weiter erhöhen, besteht die Gefahr, dass einzelne Defizitländer dem permanenten Importüberschuss mit protektionistischen Maßnahmen begegnen. Die Einführung von Zöllen und anderen Handelsbeschränkungen durch ein Land führt häufig zu entsprechenden Maßnahmen der Handelspartner, die ihrerseits ebenfalls Handelsbeschränkungen einsetzen. Im Ergebnis kann dies zu einem weltweiten Protektionismuswettlauf führen, der die Exportmöglichkeiten der Überschussländer reduziert und damit deren Arbeitsmarkt negativ beeinflusst. Wie also sind die gegenwärtigen Leistungsbilanzungleichgewichte zu bewerten? Problematisch an den globalen Für die Außenwirtschaftstheorie sind dauerhafte Leistungsbilanzungleichgewichte kein gravierendes Problem, weil es eine Reihe von Anpassungsmechanismen gibt, die automatisch zu einem Leistungsbilanzausgleich führen. Dieser Ausgleich erfolgt in der Theorie über drei zentrale ökonomische Größen: Wechselkursanpassungen, Preisänderungen und Veränderungen der Zinssätze. Sind die Wechselkurse der beteiligten Volkswirtschaften flexibel, erfolgt ein Leistungsbilanzausgleich primär über eine Wechselkursänderung. Wenn ein Land einen Leistungsbilanzüberschuss aufweist, bedeutet dies, dass es eine hohe Nachfrage nach der Währung dieses Landes gibt, weil Exporte letztlich immer in der Währung des Exportlandes bezahlt werden müssen: Die Produzenten der Exportgüter müssen ihre Löhne, Steuern und Abgaben sowie die meisten Vorprodukte in der heimischen Währung zahlen. Der Exportüberschuss bewirkt damit eine Aufwertung der heimischen Währung, d.h. das Ausland muss nun einen höheren Preis für eine Einheit der Währung des Inlands bezahlen. Dies verteuert die Exporte, was zu einem Exportrückgang führt. Dazu ein Beispiel, bei dem der Wechselkurs zwischen Euro und Dollar bei 1,- Euro = 1,- Dollar liegt: Wenn Europa einen Exportüberschuss und die USA einen Importüberschuss aufweisen, kommt es zu einer Aufwertung der Euro. Diese Aufwertung könnte sich darin äußern, dass ein Euro nicht mehr einen Dollar kostet, sondern 1,25 Dollar. Ein europäischer PKW, dessen Preis 20.000 Euro beträgt, verteuert sich auf dem amerikanischen Markt infolge der Euro-Aufwertung von 20.000 Dollar auf 25.000 Dollar. Dies hat einen Rückgang der europäischen Exporte in die USA zur Folge. Zudem verbilligt die Euro-Aufwertung die Produkte aus dem Ausland, was zu einer Importzunahme führt. Beide Entwicklungen — sinkende Exporte und steigende Importe — wirken auf einen tendenziellen Ausgleich von Exporten und Importen hin. Im Fall eines Leistungsbilanzdefizits kommt es dagegen zu einer Abwertung, die die Exportchancen des Landes verbessert, die Importnachfrage wegen der Verteuerung der ausländischen Waren verringert und so das Leistungsbilanzdefizit über steigende Exporte und sinkende Importe abbaut. Die Abwertung der Währung eines Defizitlandes erschwert außerdem die Verschuldung dieses Landes im Ausland. Eine Abwertung reduziert aus Sicht der Gläubigerländer den Wert von Forderungen gegenüber dem Defizitland. Wenn also ein europäischer Sparer 1.000 Euro in USWertpapieren anlegen will, kann er bei einem Wechselkurs von 1,- Euro = 1,- Dollar amerikanische Wertpapiere im Wert von 1.000 Dollar erwerben. Sollte es dann zu der erwähnten Euro-Aufwertung kommen, ist dies gleichbedeutend mit einer Abwertung des Dollar. Ein Dollar ist dann nicht mehr einen Euro wert, sondern nur noch 0,80 Euro. Ein europäischer Anleger erhält daher für sein amerikanisches Wertpapier nach der Dollar-Abwertung nur noch 800 Euro. Kredite werden daher nur gegen höhere Zinsen gewährt, um so abwertungsbedingte VermögensWISU 1/13 65 WISU-KOMPAKT MANAGEMENT— DENKER UND MACHER Die wirtschaftliche Entwicklung wird entscheidend von Gründern und Managern beeinflusst, die neue Methoden und Strategien entwickeln oder sie in der Praxis umsetzen. Hier werden einige von ihnen vorgestellt. Walt Disney alt Disney revolutionierte wie kaum ein anderer die Unterhaltungsindustrie — er etablierte den W künstlerischen Trickfilm, die erzählende Dokumentation und erfand überdies den modernen Freizeitpark. Sein Credo war es, den Blick auf die Schönheiten der Welt zu lenken und Produkte anzubieten, die Erwachsene wie Kinder gleichermaßen ansprechen. Obwohl ihm immer wieder kitschige Scheinwelten vorgeworfen wurden, blieb er bei seiner Philosophie und ging als Unternehmer stets neue Wege. So wurde die Walt Disney Company zu einer führenden Weltmarke der Unterhaltungsindustrie. Walter Elias Disney, von Freunden und Mitarbeitern nur „Walt“ genannt, kam am 5. Dezember 1901 in Chicago zur Welt. Die Jugend verbrachte er in ländlicher Idylle in Missouri. Nach seiner Rückkehr vom Militärdienst in Frankreich beschloss Disney, Zeichner zu werden. Nach mehreren vergeblichen Versuchen, eine feste Anstellung zu finden und kurzen Phasen als Werbezeichner, macht er sich 1920 mit seinem Freund Ub Iwerks in Kansas City selbständig. Damals entstanden die ersten Zeichentrickfilme, die Disney „Laugh-O-Grams“ nannte. Sie mussten mühsam Bild für Bild fotografiert werden, waren in SchwarzWeiß, unvertont und würden heute eher als „animierte Cartoons“ bezeichnet werden. Später wagten sich Disney und Iwerks an kurze Märchenfilme, die jedoch kaum Geld brachten. Nachdem Disney erkannte, dass Kansas City für einen Trickfilmproduzenten das falsche Pflaster war, machte er sich 1922 mit 40 Dollar in der Tasche auf nach Hollywood. Der Vater der modernen Unterhaltungsindustrie war schon damals durchdrungen von seinen künstlerischen und geschäftlichen Visionen und fest entschlossen, sie in die Tat umzusetzen. In Los Angeles mieten sich Disney und sein Bruder Roy, der später der kaufmännische Leiter der Disney Company werden sollte, ein winziges Büro mit Zeichentischen und arbeiteten mit geliehener Kamera weiter an den Strichmännchen. Bis im Oktober 1923 der Durchbruch kam: Walt Disney schließt mit der einflussreichen Verleihfirma M.J. Winkler einen Vertrag über eine Serie von Trickfilmen, die als Vorfilme im Kino laufen sollen. Zu den Lieferanten der New Yorker Firma gehören die damaligen Stars des Zeichentrick-Metiers wie Pat Sullivan mit seiner populären Figur Felix the Cat. Das Datum des Vertragsschlusses gilt als der Start der Disney Company. Disney allerdings bestand — gegen den Widerstand seines Bruders — darauf, den Erlös jeder Folge in die nächste zu investieren, um diese technisch und künstlerisch noch besser zu machen. Die Firma florierte. Die Disneys heuerten weitere Zeichner an und bezogen schließlich ein eigenes Studio in der Hyperion Avenue in Los Angeles. Dort WISU 66 1/13 entsteht nicht nur die Idee zu Mickey Mouse, neben Donald Duck Disneys bekannteste Comic-Figur. Sie sollte eigentlich „Mortimer“ heißen, was ihm jedoch von seiner Frau ausgeredet wurde. Auch „Steamboat Willie“, der erste Zeichentrick-Tonfilm der Kinogeschichte, wurde hier 1928 geschaffen. Es folgte noch eine Pioniertat: Nachdem Technicolor das Drei-Farben-Verfahren entwickelt hatte, erblickte 1932 der erste Disney-Zeichentrickfilm in Farbe „Flowers and Trees“ das Licht der Welt. 1948 begann die Disney Company mit der Produktion von Dokumentar- und Spielfilmen. Disney lagen insbesondere Naturfilme am Herzen: Im selben Jahr erhält er für seinen ersten Dokumentarfilm „Seal Island“, eine Reportage über eine Robbeninsel, den Oscar. Es war der Auftakt zu den „True Life Adventures“, einer sehr erfolgreichen Naturfilmserie, zu der auch „The Living Desert“ („Die Wüste lebt“) zählte. Auch diesmal ließ man sich die Qualität des Films einiges kosten: Von dem Filmmaterial wurde am Ende nur ein Dreißigstel verwendet. Obwohl Disney bis heute in erster Linie mit Zeichentrickfilmen asoziiert wird, zählte er hier nicht zu den Pionieren. Umso mehr legte er jedoch Wert auf Qualität. Außerdem hatte er einen ausgeprägten Sinn für innovative Produktionstechnik. Als in den Kriegsjahren 1941 bis 1945 das Geld für Neuerungen fehlte, drehte man für das Verteidigungsministerium Schulungs- und Propagandafilme. Das brachte Geld für technische Innovationen wie das Cinemascope-Breitwandverfahren, das ebenso konsequent aufgegriffen wurde wie neue Kopierverfahren und Kameratechniken. Darüber hinaus experimentierte man bereits in den fünfziger Jahren mit 3D-Filmen und später dann mit roboterähnlichen Filmen und Computer-Animationen. Allein 13 seiner 51 (!) Oscars erhielten Disney und seine Techniker für Spezialeffekte und technische Neuerungen. Intern praktizierte Disney konsequente Arbeitsteilung. Die Zeichner waren in mehrere Gruppen eingeteilt und wurden unterschiedlich bezahlt: vom Hintergrund-Zeichner über die Koloristen bis zum professionellen Einzelkünstler für eine bestimmte Hauptfigur. Er selbst kümmerte sich um die Grundmotive und Erzählstrukturen, verzettelte sich jedoch nicht in Details, sondern konzentrierte sich bereits früh auf die nächsten Projekte. Disney war nicht nur ein Perfektionist, sondern verfügte auch über beachtliches Charisma. Es gelang ihm, seine Mitarbeiter nicht nur zu hoher Qualität anzuhalten, sie gaben auch kreativ ihr Bestes. Sein eigenes letztes Werk war das 1967 uraufgeführte „Dschungelbuch“. Walt Disney starb am 15. Dezember 1966, zehn Tage nach seinem 65. Geburtstag, an Lungenkrebs. In der Nach-Disney-Ära ging es nicht immer nur bergauf. 2001 kam es zur ersten Massenentlassung in der Firmengeschichte. Nach internen Querelen und schlechten Geschäftsergebnissen wurde CEO Michael Eisner im Oktober 2005 durch Robert A. Iger abgelöst. Iger stärkte die Autonomie der einzelnen Geschäftsfelder, indem er unter anderem den Zentralstab für die strategische Planung auflöste. Trotz aller Höhen und Tiefen ist Disney bis heute eine beeindruckende Erfolgsgeschichte. Laut eigenen Angaben ist der Konzern auf über hundert Geschäftsfeldern tätig. Schon 1999 stammten mehr als 60 Prozent der Einkünfte aus Geschäftsbereichen, die erst nach 1990 aufgebaut wurden. 2006 übernahm man WISU-KOMPAKT von Steve Jobs, einem der Apple-Gründer, das Animationsstudio Pixar, mit dem man bereits seit 1991 mehrere Filmhits wie „Findet Nemo“ produziert hatte. 2009 gelang mit der Akquisition von Marvel Entertainment — einem Spezialisten für Comic-Verfilmungen („Hulk“, „Spider-Man“) — ein weiterer Coup. Bereits 15 Jahre zuvor hatte man die Mediengruppe um den TV-Sender ABC — Eisners einstiger Arbeitgeber — erworben, um die Wertschöpfungskette bis zum Endverbraucher abzurunden. Walt Disney hatte das in den fünfziger Jahren aufgekommene Fernsehen nicht als Konkurrenz gesehen, sondern einzelne TV-Sender als Kooperationspartner gewonnen, um sich das gewaltige Potenzial des neuen Mediums zunutze zu machen. So wurde mit ABC ein Vertrag geschlossen, der unter anderem eine wöchentliche, von Disney produzierte TV-Show vorsah. Sie war nicht nur eine zusätzliche Einnahmequelle, sondern auch eine Werbeplattform für die Kinofilme. Später erwarb ABC sogar 34,5 Prozent der Anteile an der Disneyland Inc., dem Erbauer und Betreiber der Freizeitparks. In der Show, die Walt Disney selbst moderierte, wurde den Zuschauern auch die Arbeit hinter den Kulissen des Filmemachens gezeigt. Damit ist er auch der Erfinder des heute so beliebten „Making of“. Es war vor allem diese wöchentliche TV-Show, durch die er zu einer Ikone der amerikanischen Populärkultur wurde. Man setzte auch früh auf das Merchandising der Trickfilmfiguren und Filmrequisiten. Nach einer Fernsehserie zum Trapper David Crockett wurden über zehn Mio. Exemplare von dessen Bärenfellmütze verkauft. Dazu nahm die Disney Company 300 Mio. Dollar durch Lizenzverkäufe ein. Erhebliche Synergieeffekte werden auch mit dem Themenpark (Brand Park) Disneyland erzielt. Der erste entstand in Anaheim südlich von Los Angeles, später folgten Florida, Tokio, Paris und Hongkong. Die Themenparks ermöglichen ein Wiedersehen mit Disneys Comic- und Filmhelden. Dazu gehört auch die Zweitverwertung von Requisiten wie der Riesenkrake aus „20.000 Meilen unter dem Meer“. Hinzu kamen Disney Stores in vielen Städten. Später traten weitere Geschäftsfelder wie eine Kreuzfahrtlinie (Disney Cruise Line) und das eher bildungsorientierte DisneyQuest hinzu. Die Hauptsparten sind jedoch nach wie vor das Filmstudio, TV und Kabelfernsehen — Disney hält unter anderem 50 Pro- verluste zu kompensieren. Eine Zinssteigerung ergibt sich darüber hinaus, wenn die Verschuldung eines Defizitlands infolge dauerhafter Leistungsbilanzdefizite immer weiter steigt. Eine wachsende Verschuldung hat negative Auswirkungen auf die Bonität eines Landes, was in der Regel zu einer Zinssteigerung führt. Die Opportunitätskosten einer Verschuldung im Ausland nehmen damit zu, was eine Verschuldung im Ausland immer unattraktiver macht und so über die Finanzierungsseite das Leistungsbilanzdefizit abbaut. Auch im Fall fester Wechselkurse — bzw. im Fall einer Währungsunion mit einer Einheitswährung wie dem Euro — ist theoretisch ein Leistungsbilanzausgleich zu erwarten. Der Ausgleich erfolgt dabei vor allem über Preisänderungen. In einem Überschussland kommt es wegen der hohen Nachfrage nach Produkten dieses Landes tendenziell zu einer Preissteigerung, die die Exporte verteuert. Zudem bedeutet die hohe Exportnachfrage eine hohe Nachfrage nach Produktionsfaktoren, was zu einem Anstieg der Löhne und Zinsen führt und über stei- zent am deutschen Sender Super RTL — sowie die Themenparks und Disney Stores. Damit bilden Medien, Events und Merchandising eine nahezu perfekte Marketing-Einheit — eine Vermarktungsmaschine, bei der alle Rädchen ineinandergreifen. Schon lange bevor das Wort „Synergie“ in Mode kam, wurde es von Disney mit Leben erfüllt. Der Erfinder von Mickey Mouse Dass der Unterhaltungskonzern weiter auf Expansionskurs ist, zeigt nicht nur das für 2014 geplante Disneyland in Shanghai. Auch für Dubai ist eines geplant. Die Disney Company steht offenbar niemals still. Dem erfindungsreichen und umtriebigen Walt Disney hätte das mit Sicherheit gefallen. Prof. Dr. Dietrich von der Oelsnitz, Braunschweig Literatur: Eisner, M.D.: Disney ist jeden Tag ein Abenteuer. München 1999. Oelsnitz, D.v.d.: Walt Disney — ein Lehrstück in Sachen Management. In: Frankfurter Allgemeine Zeitung v. 3.12.2001, S. 28. Oelsnitz, D.v.d.: Produkt- und Timingstrategien am Beispiel der Walt Disney Company. In: Zentes, J./Swoboda, B. (Hrsg.): Fallstudien zum internationalen Management. 4. Aufl., Wiesbaden 2011, S. 573 ff. Platthaus, A.: Von Mann & Maus. Die Welt des Walt Disney. Berlin 2001. Schickel, R.: The Disney Version. The Life, Times, Art and Commerce of Walt Disney. New York 1985. Smith, D./Clark, S.: Disney. Die ersten 100 Jahre. Berlin 2001. gende Produktionskosten die Güterpreise erhöht. Die Preissteigerung führt zu einem Rückgang der Exportgüternachfrage. Gleichzeitig werden die heimischen Konsumenten verstärkt auf die — relativ gesehen — preiswerteren Produkte aus dem Ausland zurückgreifen, sodass die Importe zunehmen. In einem Defizitland stellen sich entgegengesetzte Preisentwicklungen ein, womit dort die Exportgüternachfrage steigt und die Importgüternachfrage sinkt. Ursachen dauerhafter Leistungsbilanzungleichgewichte Wenn sowohl im Fall flexibler als auch fester Wechselkurse theoretisch ein automatischer Ausgleich von Exporten und Importen zu erwarten ist, stellt sich die Frage, wie es in der Realität zu dauerhaften Leistungsbilanzüberschüssen und -defiziten kommen kann. Ursache ist vor allem die Blockierung der genannten Ausgleichsmechanismen. Exemplarisch lassen sich diese Blockierungen anhand einiger Überschuss- und Defizitländer erläutern: WISU 1/13 67 WISU-KOMPAKT — Die Leistungsbilanzüberschüsse Deutschlands beruhen zu einem erheblichen Teil auf der Lohnzurückhaltung der Gewerkschaften. Sie hat dazu geführt, dass die Lohnstückkosten in Deutschland von 1996 bis 2008 mehr oder weniger konstant blieben, während sie in den wichtigsten Vergleichsländern um 20 bis 30 Prozent stiegen. Die Lohnzurückhaltung verhindert einen Kostenanstieg, der zu steigenden Preisen führen würde. Hinzu kommt, dass ein Leistungsbilanzausgleich durch eine Aufwertung der heimischen Währung unterbleibt, weil Deutschland seit der EuroEinführung keine eigene Währung mehr besitzt. — Mit Blick auf China ist festzustellen, dass die Leistungsbilanzüberschüsse zum Teil auf dem Bevölkerungsreichtum dieses Landes beruhen. Der Arbeitsreichtum Chinas ist ein Wettbewerbsvorteil bei arbeitsintensiv produzierten Gütern und Dienstleistungen. Der Vorteil spiegelt die internationalen Faktorknappheiten wider und verhindert einen Lohnanstieg, was auch den Preisanstieg der Exportgüter dämpft. Daneben resultieren die Exportüberschüsse aber auch aus einer künstlichen Verbilligung chinesischer Waren durch die Bindung der chinesischen Währung an den Dollar. Dies verhindert die Aufwertung der chinesischen Währung und blockiert so einen Leistungsbilanzausgleich über Wechselkursanpassungen. — Japan weist seit Jahrzehnten Leistungsbilanzüberschüsse auf. In den letzten Jahren blieb die deshalb zu erwartende Aufwertung des Yen jedoch aus. Ein wesentlicher Grund dafür sind die „Carry Trades“: Nach dem Platzen der japanischen Immobilien- und Aktienblase 1990/91 senkte die Zentralbank die Leitzinsen massiv. Sie liegen im Bereich von 0,5 Prozent und weniger, womit sie geringer als die der wichtigsten Industrienationen sind. Damit lohnte es sich für internationale Investoren, Kredite in Yen aufzunehmen, da die Gelder auf den internationalen Kapitalmärkten zu höheren Zinsen angelegt werden können. Auf den Devisenmärkten führte das zu einem hohen Angebot an Yen bei gleichzeitig hoher Nachfrage nach Dollar, Euro, britischem Pfund etc. Dies hatte trotz der Exportüberschüsse Japans eine Abwertung des Yen zur Folge, was die japanischen Exporte weiter verbilligte und den Exportüberschuss erhöhte. — Bei den europäischen Defizitstaaten wie Portugal, Spanien und Griechenland sind die Leistungsbilanzdefizite vor allem auf die mangelnde internationale Wettbewerbsfähigkeit zurückzuführen. Seit der Einführung des Euro können diese Staaten ihre Wettbewerbsnachteile nicht mehr durch eine Abwertung der eigenen Währung kompensieren. Erforderlich sind stattdessen Preissenkungen und damit letztlich die Senkung der Produktionskosten. Dies hat auch Lohnsenkungen zur Folge. Sofern diese sozialpolitisch nicht gewollt sind und deshalb unterbleiben, äußern sich die geringen Produktivitätsfortschritte in einem Leistungsbilanzdefizit. Die Leistungsbilanzdefizite dieser Länder sind somit das Resultat einer geringen Produktivität bei gleichzeitiger Außerkraftsetzung des Wechselkurs- und Preismechanismus. — Das seit einigen Jahren größte Defizitland sind die USA. Die Ursachen dieser Entwicklung sind vielfältig. Zunächst einmal ist die expansive Geldpolitik (vor allem zwischen 2001 und 2005) zu nennen. Sie hatte geringe Zinsen zur Folge. Die niedrigen Zinsen ermöglichten einen kreditfinanzierten Konsumboom, der zu einer hohen Konsumquote und einer geringen Sparquote führte. Unterstützend kam eine expansive Fiskalpolitik hinzu. Auch sie steigerte über eine hohe Güternachfrage durch den Staat die Binnennachfrage. Die nachfrageseitig getriebene Steigerung der amerikanischen Leistungsbilanzdefizite wird unterstützt durch faktisch unbegrenzte Verschuldungsmöglichkeiten. Da der Dollar nach wie vor die einzig anerkannte Leitwährung der Welt ist, akzeptieren alle Exporteure Dollar. Damit sind die USA — anders als alle anderen Volkswirtschaften — nicht unmittelbar auf die Kreditbereitschaft des Rests der Welt angewiesen, da sie Dollar drucken und so ihre Leistungsbilanzdefizite mit eigener Währung bezahlen können. Dr. Thieß Petersen, Gütersloh Literatur: Moritz, K.-H./Stadtmann, G.: Monetäre Außenwirtschaft. 2. Aufl., München 2010. Petersen, T.: Fit für die Prüfung: Außenwirtschaft — Lernbuch. Konstanz/München 2013. Siebert, H./Lorz, J. O.: Außenwirtschaft. 8. Aufl., Stuttgart 2006. AKTUELLE PRÜFUNGSTIPPS Die Themen im Winter 2013 Wirtschaftspolitische Ereignisse und Diskussionen sind häufig Gegenstand mündlicher und schriftlicher Prüfungen. Wer demnächst in eine Prüfung geht, sollte sich mit den hier besprochenen Themen vertraut machen. Die angegebene Literatur bietet Gelegenheit, tiefer in den jeweiligen Problemkreis einzudringen. 1. Thema: Deutschland und Frankreich — ein wirtschaftlicher Vergleich Das 50-jährige Jubiläum der deutsch-französischen Zusammenarbeit ist von einem auffälligen wirtschaftliches Ungleichgewicht überschattet. Frankreichs Wirtschaftsmotor stottert spätestens seit der Finanzkrise 2008/09. Warum sind der französische Standort und WISU 68 1/13 die internationale Wettbewerbsfähigkeit des Landes so gering verglichen mit Deutschland? Welche Lehren ergeben sich für Frankreich aus den Erfahrungen, die Deutschland mit Strukturreformen gemacht hat? Ist die Umsetzung aktueller Forderungen des GalloisBericht aus dieser Sicht sinnvoll? Hintergrund: 1963 wurde durch den Élysée-Vertrag die bilaterale Zusammenarbeit zwischen Deutschland und Frankreich besiegelt, die alles in allem als erfolgreich gilt WISU-KOMPAKT BEGRIFFE DIE MAN KENNEN MUSS Preiselastizität der Nachfrage nter der (direkten) Preiselastizität der Nachfrage U versteht man das Verhältnis der relativen Änderung der Nachfragemenge x nach einem Produkt i (Wirkungsgröße) zu der sie verursachenden prozentualen Änderung des Preises p (Einflussgröße). Der Elastizitätskoeffizient ist in der Regel negativ, weil eine Preiserhöhung bzw. Preisminderung eine umgekehrte Mengenänderung auslöst. Beispiel: Wird der Preis für ein bestimmtes Automodell um 200 Euro auf 20.200 Euro erhöht, hat das kaum Auswirkungen auf die Nachfrage. Wird hingegen der Preis eines Mountainbikes um 200 Euro auf 600 Euro erhöht, wird sich die nachgefragte Menge spürbar reduzieren. Daraus lässt sich jedoch nicht schließen, dass Autokäufer nicht so stark auf Preisänderungen reagieren wie die Käufer nach Mountainbikes. Der Autopreis wurde nämlich nur um ein Prozent, der Preis des Mountainbike aber um 50 Prozent erhöht. Würde der Autopreis ebenfalls um 50 Prozent erhöht, würde die Nachfrage nach dem Automodell ebenfalls stark zurückgehen. Bei (infinitesimaler) Betrachtung ist die Preiselastizität der Nachfrage definiert als (1) x i p i dx i -------p dp xi = -------= ----i --------i . x i dx i dp i -------p1 Wertebereiche Der Wert der Preiselastizität der Nachfrage liegt normalerweise zwischen null und unendlich. Bei einer linear sinkenden Preis-/Absatzfunktion (2) ist die Preiselastizität der Nachfrage (3) stets negativ: (2) p i = a – bx i (3) i-. xi pi = – ----------b xi p Sie bezieht sich zudem immer auf einen bestimmten Punkt der Preis-/Absatzfunktion (Punktelastizität) und kann grundsätzlich alle Werte zwischen null und minus unendlich annehmen: - Bei einem Wert von null verändert sich die abhängige Variable (Menge) nicht, weshalb man von vollkommen unelastischer Nachfrage spricht. - Ein Elastizitätswert zwischen null und kleiner als eins bedeutet, dass die relative Änderung der Menge geringer ist als die relative Preisänderung. In diesem Fall handelt es sich um eine unelastische Nachfrage. (vgl. Miard-Delacroix). Es gibt jedoch Einschränkungen: „Seit Gründung der Währungsunion hatte sich ein wahrer Nicht-Dialog zwischen Frankreich und Deutschland entwickelt, weil die wiederholten französischen Forderungen nach einer ,Wirtschaftsregierung‘ in Berlin auf taube Ohren stießen und sich die Bundesregierung weigerte, über die Frage zu diskutieren“ (Uterwedde, S. 154). Tat- - Bei einem Wert von eins stimmen die relativen Änderungen überein, man spricht von einer isoelastischen Nachfrage. - Bei Elastizitätswerten größer als eins bis unendlich wird von einer elastischen Nachfrage gesprochen. - Hat die Preiselastizität einen Wert von unendlich, handelt es sich um eine vollkommen elastische Nachfrage. Die beiden Grenzfälle der vollkommen unelastischen Nachfrage und der vollkommenen elastischen Nachfrage sind eher theoretische Konstrukte, die in der Realität selten vorkommen: - Bei vollkommen elastischer Preiselastizität (bei der grafischen Darstellung verläuft die Nachfragekurve parallel zur Mengenachse) würde bei nur geringer Abweichung des Preises über den Prohibitivpreis die Nachfrage auf null sinken. Entspricht der Preis dagegen dem Prohibitivpreis oder liegt er nur minimal darunter, geht die Nachfrage gegen unendlich. - Der Fall einer vollkommen preisunelastischen Nachfrage ist dagegen eher vorstellbar. Gibt es etwa für eine lebensbedrohende Krankheit nur ein einziges Arzneimittel, können Patienten nicht auf ein Substrat ausweichen. Die Nachfrage nach dem Mittel ist unabhängig vom Preis konstant, die Nachfragekurve verläuft parallel zur Preisachse. Bestimmungsfaktoren der Elastizität Es gibt mehrere Faktoren, die für unterschiedliche Elastizitäten sorgen: - Notwendigkeit des Gutes: Je dringender ein Gut (z.B. Wasser) benötigt wird, desto unelastischer ist die Nachfrage. - Substitutionsmöglichkeiten: Je einfacher es ist, ein Gut durch ein anderes zu ersetzen, welches das Bedürfnis ebenfalls befriedigt, desto elastischer reagiert die Nachfrage auf Preisänderungen (z.B. Butter und Margarine). Sind hingegen keine vollwertigen Ersatzprodukte vorhanden, ist die Elastizität eingeschränkt. - Marktabgrenzung: Die Definition des Gutes oder eines Marktes hat ebenfalls Einfluss auf die Elastizität. So ist die Preiselestizität beim gesamten Automarkt eher gering, da sich ein Auto als solches nicht ohne weiteres durch andere Transportmittel wie Bus und Bahn ersetzen lässt. Geht es jedoch um ein bestimmtes Modell, ist die Elastizität wegen der Substitutionsmöglichkeiten höher. - Zeithorizont: Je größer die Zeitspanne ist, desto elastischer die Nachfrage. Kurzfristig sind Autofahrer z.B. an Benzin oder Diesel gebunden. Steigen deren Preise stark an wie bei der Ölkrise in den siebziger Jahren, müssen sie also die hohen Preise zahlen, um mobil zu bleiben. Langfristig haben sie jedoch die Möglichkeit, auf gasbetriebene oder Elektroautos umzusteigen. Dipl.-Volksw. Gerald D. Müller, Wiesbaden Literatur: Hoyer, W./Eibner, W.: Mikroökonomische Theorie. 4. Aufl., Konstanz/München 2011. Schierenbeck, H./Wöhle, C..: Grundzüge der Betriebswirtschaftslehre. 18. Aufl., München/Wien 2012. sächlich stehen sich zwei wirtschaftspolitische Grundüberzeugungen gegenüber (vgl. Uterwedde, S. 155). Der französische Interventionismus unterscheidet sich fundamental von der deutschen regelgebundenen Politik (vgl. Uterwedde, S. 156 ff.). Ordnungspolitik ist noch immer ein Fremdwort in Frankreich (vgl. Wohlgemuth, S. 4), unter anderem weil bei den dortigen führenden Ökonomen, WISU 1/13 69 WISU-KOMPAKT anders als bei der deutschen ordoliberalen Tradition, eher keynesianische Denkmuster vorherrschen (vgl. Burda/ Wyplosz, S. 23). Die Euro-Krise zwingt die Franzosen nun jedoch, ihre Wirtschaftspolitik dem Wettbewerb anzupassen. Produktionsstandorte im Vergleich: Dass derzeit zurecht vom „französischen Patienten“ (o.V., S. 1528) die Rede ist, zeigen auch besorgniserregende Entwicklungen bei zentralen wettbewerbsrelevanten Indikatoren im Vergleich zu anderen Ländern der Euro-Zone. Zu nennen sind vor allem (vgl. Schmieding/Schulz, S. 73 f.): — die Staatsausgaben, die den größten Anteil am Bruttoinlandsprodukt (BIP) haben (Staatsquote von 56 Prozent), — überdurchschnittliche Steigerungen der Lohnstückkosten, vor allem infolge eines stark regulierten Arbeitsmarktes, „which makes hiring and firing more difficult in France than in any other eurozone country except Slovenia“ (Schmieding/Schulz, S. 73), — ein sehr niedriges Trendwachstum von 0,4 Prozent, das in der Euro-Zone nur von Italien unterboten wird, — ein tendenziell abnehmender französischer Exportanteil, wobei auch die absolute Zahl der französischen Exportunternehmen abnimmt: Nach 124.049 im Jahr 2004 waren es 2011 noch 117.106 (zum Vergleich Deutschland: 205.980 gegenüber 248.165; vgl. Artus, S. 2). Jahr Land 2009 2012 F D F D Reales BIP* -3,1 -5,1 0,1 0,9 Schuldenstand (in % des BIP) 79,2 74,7 90,0 83,0 Haushaltssaldo (in % des BIP) -7,6 -3,2 -4,7 -0,4 Leistungsbilanzsaldo (in % des BIP) -1,3 5,9 -1,7 5,4 Arbeitslosenquote (in %) 9,1 7,8 10,7 5,4 Arbeitslosenquote der 15-24-Jährigen (in %) 23,2 11,0 25,5 8,1 Abb. 1: Ausgewählte Indikatoren zum deutsch-französischen Wirtschaftsvergleich (* prozentuale Veränderung des realen Bruttoinlandsprodukts gegenüber Vorjahr; Quelle: IW, S. 4.) Die Kennzahlen in Abb. 1 zeigen die Unterschiede zwischen den Ländern. Zwar wurde Deutschland von der Finanzkrise 2008/08 wegen seiner hohen Exportorientierung zunächst härter getroffen, seitdem schwächelt Frankreichs Wachstum jedoch, der Schuldenstand liegt höher als in Deutschland und die Budgetdefizite bleiben hoch. Gleichzeitig ist die Leistungsbilanz im Gegensatz zu Deutschland defizitär, ohne Aussicht auf Besserung, und die Arbeitslosigkeit ist doppelt so hoch wie in Deutschland. Die Jugendarbeitslosigkeit überschreitet — unter anderem wegen des besonders hohen nationalen Mindestlohns auch für Jugendliche — sogar 25 Prozent (vgl. IW; ausführlich IWF, S. 4 ff.; Burda/Wyplosz, S. 125; Cowen/Tabarrok, S. 233). Jahr 2007 2008 2009 2010 2011 F 2,4 3,0 2,7 1,8 2,1 D 2.7 3,0 2,2 1,8 2,2 Land Index der Tariflöhne F 102.4 105,5 108,3 110,3 112,6 D 102.7 105,8 108,1 110,1 112,5 Abb. 2: Vergleich der Tariflohnentwicklung (Anstieg in Prozent; Quelle: IW, S. 5) Kern des französischen Übels sind jedoch nicht die Tariflohnentwicklungen der letzten Jahre (vgl. den ähnlichen Verlauf in Deutschland in Abb. 2), sondern vor allem inWISU 70 1/13 direkte Kosten und Abgabenbelastungen. Lagen die durchschnittlichen Arbeitskosten pro Stunde in der für den Außenhandel besonders wichtigen Industrie 2009 noch bei 32,90 Euro und damit gleichauf mit denen in Deutschland, waren sie 2011 mit 35,30 Euro den deutschen (33,90 Euro) bereits spürbar voraus. Die starke Subventionierung vieler Wirtschaftsbereiche und die Arbeitskosten erhöhende Regulierungen — etwa bei der regulären Wochenarbeitszeit —, führen in Frankreich zu einem Teufelskreis aus steigenden Abgaben und Kosten, dadurch ausgelösten Beschäftigungsrückgängen und erhöhtem Subventionsbedarf sowie wiederum zu zunehmenden Abgaben und Kosten, wenn kein anderes Ventil zugelassen wird. Wirtschaftspolitische Alternativen: Aus Sicht vieler französischer Ökonomen befindet sich Frankreich in einer sehr schwierigen „Sandwich-Situtation“ (Artus, S. 1). Oben steht die französische Wirtschaft wegen der gestiegenen Wettbewerbsfähigkeit von Ländern wie insbesondere Deutschland unter Druck, das differenzierte und qualitativ hochwertige (Industrie-)Produkte zu wettbewerbsfähigen Preisen anbietet. Von unten gibt es Druck durch Schwellenländer und etwa das sich reformierende und kostengünstiger produzierende Spanien, das in preissensiblen Produktionssegmenten mittlerer und niedriger Qualität konkurriert. Das zwingt Frankreich, entweder die Produktionskosten — vor allem die Arbeitskosten — deutlich und nachhaltig zu senken (ohne die sehr hohen Abgabenlasten zu steigern), um im unteren und mittleren preiselastischen Produktionsbereich wieder wettbewerbsfähig zu werden (vgl. Artus, S. 3 f.) oder die Innovationsfähigkeit seiner Wirtschaft umfassend zu stärken, um über die Qualität konkurrieren zu können. Letzteres verspricht jedoch kaum schnelle Erfolge. Die Herausforderungen sind also beträchtlich. Deshalb ist es umso problematischer, dass Unternehen nun durch höhere Steuern aus dem Land getrieben werden (vgl. Schmieding/Schulz, S. 73). Zumindest scheint sich die französische Regierung von wirtschaftlich kontraproduktiven Wahlversprechen zu verabschieden (vgl. Moscovici). Anlass dürfte auch der im November veröffentlichte Plan des ehemaligen EADS-Chefs Louis Gallois für eine „Schocktherapie“ sein, der unter anderem eine Senkung der Lohnnebenkosten um 30 Mrd. Euro vorsieht (vgl. IW, S. 5). Lehren aus Deutschlands Reformen: Die wesentliche Lehre besteht darin, dass ein strategischer Kurswechsel (vgl. Funk 2010, S. 95 f.), durch den die systematische Überforderung der Verteilungsspielräume durch Überregulierung, einen zu hohen Staatsanteil und einen überbordenden Sozialstaat überwunden wird, Erfolg verspricht. Frankreichs Lage ist ähnlich wie die Deutschlands in den Jahren 2002 bis 2003, als es als „kranker Mann Europas“ galt. Durch ein Herumdoktern an den Symptomen, wie es die deutschen Regierungen vor der Agenda 2010 versuchten (vgl. Funk 2002, S. 270 ff.), lässt sich vielleicht noch etwas Zeit gewinnen, was im Ergebnis jedoch nur zu einer noch größeren Krise führen dürfte. Fazit: Frankreich schneidet zwar nicht bei allen Standortfaktoren schlechter ab als andere Länder der EuroZone. So ist die demografische Entwicklung besser, außerdem sind die Energiekosten niedriger. Bei den negativen Standortfaktoren besteht allerdings akuter wirtschaftspolitischer Handlungsbedarf. Die deutschen Reformerfolge im letzten Jahrzehnt zeigen, dass adäquate Strukturreformen, wie sie der Gallois-Bericht vorschlägt, schon nach wenigen Jahren Früchte tragen können. Die neue französische Regierung muss ihre Chancen angesichts der wettbewerbsstärkenden Strukturreformen in den europäischen Krisenländern wie Spanien nutzen, da die Lage des Landes sonst in Kürze noch schwieriger wird. WISU-KOMPAKT 2. Thema: Expansive Geldpolitik — die Kritik seitens der österreichischen Schule Die österreichische Schule der Nationalökonomie hat durch die Finanzkrise 2008/09 wieder an Bedeutung gewonnen. Erläutern Sie kurz die Entwicklung, ihre Hauptaussagen zur „lockeren“ Geldpolitik, die zentrale Kritik an diesem Ansatz und die sich daraus ergebenden wirtschaftspolitischen Folgerungen. Stellen Sie den Bezug zur Finanzmarktkrise her. Unterstellen Sie zur Vereinfachung eine geschlossene Volkswirtschaft. Hintergrund: Die traditionelle neoklassische Lehrbuchdarstellung der Geldpolitik im Fall einer Konjunkturbelebung besagt: Unter bestimmten Umständen — vor allem bei volkswirtschaftlichem Nachfragedefizit — kann eine gezielte expansive Geldpolitik helfen, die Wirtschaft aus einem konjunkturellen Tief herauszuführen, wenn sie die zinsabhängige Güternachfrage stimuliert (vgl. Funk/Voggenreiter/Wesselmann 2012, S. 1629 ff.). Im Gegensatz dazu hat die österreichische Denkschule die negativen Effekte dieser Politik schon beim Aufkommen des Keynesianismus in den Vordergrund gerückt (vgl. Burgin, S. 23 f.). In Deutschland hat der mögliche Konflikt zwischen der keynesianischen und der österreichischen Position angesichts der Erfahrungen mit der Finanzkrise 2008/09 und einer geldpolitischen Strategie, wie so vor allem in den USA praktiziert wird, erhöhte Aufmerksamkeit erlangt (vgl. Mayer 2012a und den Überblick bei Erlei 2012a). Keynesianisches Motto scheint zu sein, kleine konjunkturelle Einbrüche einfach mit expansiver Geldpolitik zu bekämpfen. Aus Sicht vieler Kritiker war jedoch gerade das eine wesentliche Ursache für die nachfolgende noch größere Krise, die aus der Perspektive der Verfechter einer expansiven keynesianischen Geldpolitik weitere monetäre Lockerungen erforderlich machte (vgl. Harris, S. 13 ff.). Diese aus Sicht der Kritiker verfehlte, allzu expansive Geldpolitik zur Konjunkturbelebung habe jedoch nicht nur „in die größte Finanzkrise aller Zeiten“ geführt, sondern „die Rolle des Kredits für die Märkte für Vermögenswerte und die reale Wirtschaft schlicht ignoriert“ (Mayer 2012b). Die österreichische Kritik an der expansiven Geldpolitik: Anders als die führenden, keynesianisch inspirierten Geldpolitiker und Makroökonomen, zu denen in den USA etwa Paul Krugman zählt, präferiert die österreichische Konjunkturtheorie, deren hauptsächliche Begründer die Österreicher Friedrich v. Hayek und Ludwig v. Mises sind, die zentrale These, wonach sich eine Geldpolitik zur Konjunkturbelebung neben ihren kurzfristigen konjunkturellen Impulsen vor allem durch einen negativen Struktureffekt auszeichne. Aus Sicht der österreichischen Denkschule bewirkt die „lockere“ Geldpolitik nicht nur erhöhte Investitionen, sondern hat in erster Linie Investitionen zur Folge, die langfristig zu Fehl- und Überkapazitäten führen. Der Grund ist die Senkung des Zinses auf ein Niveau, bei dem der Darlehnszins der Geschäftsbanken — der Zins, der sich auf dem Kreditmarkt durch Angebot und Nachfrage bildet — unter dem Niveau des natürlichen Zinses liegt, der nachhaltig wäre: „Dies ist zum einen der Zins, bei dem sich die Nachfrage nach Krediten für Investitionszecke und das Angebot an Ersparnissen gerade ausgleichen; dieser Zins entspricht zum anderen in etwa der erwarteten Rendite aus den neuen Investitionen“ (Issing 2007, S. 105). Der natürliche Zins ist folglich der gleichgewichtige Realzins, bei dem es sich allerdings um eine nicht beobachtbare Größe handelt (vgl. Issing 2008, S. 79). Durch ein niedrigeres Zinsniveau als dem gleichgewichtigen Realzins komme es zu Investitionen, bei denen die Einnahmeüberschüsse erst in ferner Zukunft liegen, dies gelte etwa für den Immobiliensektor und Finanzdienstleistungen. Die entsprechenden Projekte rechneten sich nur deshalb, weil sich die Zinsen auf einem niedrigen Niveau befinden und die Geschäftsbanken mehr Kredite vergeben als sich mit einer langfristigen Stabilität vereinbaren lässt. Bei nachhaltigem volkswirtschaftlichem Gleichgewicht wären diese Kredite nie vergeben und die damit finanzierten Vorhaben mangels Rentabilität auch nicht durchgeführt worden. Zudem verringert sich bei niedrigen Zinsen der Anreiz zum Sparen, wodurch sich auch die Kredite für Investitionen reduzieren. Stattdessen steigt die Konsumnachfrage. Indem die Konsumgüterbestände abgebaut und Anlagen intensiver genutzt werden, die Arbeitskräfte durch steigende Löhne in konsumfernen Stufen aus konsumnahen Bereichen abgezogen und die Reserven am Arbeitsmarkt durch die steigende Arbeitsnachfrage über ihr normales Niveau hinaus ausgeschöpft werden, lässt sich die damit verbundene Investitions- und Konsumnachfrage zunächst befriedigen. Die Überauslastung der Maschinen und Anlagen führt jedoch zu einer stärkeren Abnutzung, sie ist somit quasi ein ungeplanter Kapitalabbau. So kann jedoch kurzfristig die nun höhere Nachfrage nach neuen Investitionsgütern zunächst verwirklicht werden. Mittel- und längerfristig sind dieses realwirtschaftliche Ungleichgewicht (vgl. zur grafischen Ableitung Erlei 2012b, S. 18 f.) und diese Geldpolitik aus österreichischer Perspektive jedoch nicht geeignet, um eine dauerhafte Konjunkturbelebung oder gar mehr nachhaltiges Wachstum zu erreichen. Denn das dadurch induzierte Auseinanderklaffen zwischen gestiegener Investitionsnachfrage und gesunkener Bereitschaft zum Sparen wird letztlich aus österreichischer Perspektive unter sonst gleichen Bedingungen Zinserhöhungen zur Folge haben. Eine Alternative dazu ist eine immer stärkere expansive Geldpolitik, die längerfristig in höherer Inflation münden müsse (vgl. Mayer 2012b). Eine deutlich zunehmende Inflation und höhere Zinsen erfordern weitere Anpassungen, da die Notenbank eine dauerhaft steigende Inflation aufgrund ihres Auftrags bzw. wegen der negativen Inflationseffekte mit Zinsanhebungen bekämpfen muss. Steigende Zinsen signalisieren jedoch die Ineffizienz und mangelnde Rentabilität der zuvor aufgebauten Sachkapitalstruktur. Soweit eine Neubewertung der Vermögensobjekte zu Vermögensverlusten und Unternehmenspleiten sowie Entlassungen führt (wie etwa in den USA oder in Spanien infolge der Immobilienkrise), gerät auch die Realwirtschaft in die Krise. Zentrale Kritik: Die als Weiterentwicklung der neoklassischen Theorie, die eine vom Realzins abhängige steigende Spar- und fallende Investitionsfunktion unterstellt, entstandene und oben angenommene Loanable-FundsTheorie stellt im Gegensatz zur hier nicht weiter erläuterten Liquiditätspräferenztheorie des Zinses von Keynes (vgl. Funk/Voggenreiter/Wesselmann 2008, S. 208 ff.) die realen Determinanten des Zinses in den Vordergrund. Allerdings wird das ursprüngliche Modell um monetäre Einflüsse modifiziert. Da auch die Keynesianer die rein monetäre Erklärung des Zinses um realwirtschaftliche Einflüsse ergänzt haben, scheint es zu einem weitgehenden Konsens gekommen zu sein, wonach „beide Theorieansätze letztlich zu dem gleichen Ergebnis führen“ (Issing 2008, S. 128). Soweit dies zutrifft, ist die fundamentale österreichische Kritik am Keynesianismus in dieser Hinsicht überzogen. Die meist gewählte grafische Darstellung der LoanableFunds-Theorie erfolgt zudem unter einer sehr restriktiven Ceteris-paribus-Klausel, die in jüngerer Zeit vor allem die wirtschaftspolitisch relevante Debatte wieder angeheizt hat. „Indem … z.B. die Ersparnis ausschließlich in Abhängigkeit von der Zinshöhe abgebildet wird, werden andere Einflussfaktoren vernachlässigt bzw. als WISU 1/13 71 WISU-KOMPAKT gegeben unterstellt. Die Annahme eines gegebenen Volkseinkommens unabhängig von der Zinshöhe und der Größe der Investitionen ist natürlich mehr als problematisch“ (Issing 2008, S. 128). Darüber hinaus trifft die von der österreichischen Konjunkturtheorie üblicherweise unterstellte Hypothese, dass schon länger andauerndes inflationsarmes Wachstum regelmäßig als Alarmzeichen für eine zu expansive Geldpolitik zu sehen sei, keineswegs immer zu. Wirtschaftspolitisch besteht bei einer damit verbundenen möglichen Fehldiagnose die Gefahr, dass ein stabiler Aufschwung vorzeitig aus ungerechtfertigter Angst vor Inflationsgefahren durch Zinserhöhungen gestoppt wird. Diese heute vor allem von Edmund S. Phelps in seiner strukturalistischen Makroökonomik vertretene These beruht auf konjunkturtheoretischen Erwägungen von Vertretern der deutschen historischen Schule (vgl. vor allem Zimmermann 2007, S. 215 ff., und als neuerer Überblick Funk 2013). Wirtschaftspolitische Implikationen: Die Diagnose der österreichischen Konjunkturtheorie scheint die wesentlichen empirischen Regelmäßigkeiten von Finanzkrisen recht gut zu erklären, wie auch die jüngeren Erfahrungen bestätigen. Konkurrierende keynesianische Erklärungsansätze sind jedoch keineswegs so eindeutig widerlegt, wie dies bisweilen suggeriert wird (vgl. Krugman/Wells, S. 933 ff., vor allem S. 950 f.; Krugman). Folgt man jedoch der österreichischen Schule, so sind vor allem diese wirtschaftspolitischen Schlüsse relevant: Eine dauerhafte expansive Geldpolitik, die unangenehme strukturelle Wandlungsprozesse hinausschieben will, ist gefährlich (vgl. Erlei 2012b, S. 19 f.). Ein konjunktureller Abschwung geht oft mit Anpassungen einher, die die zuvor verzerrten Wirtschafts- und Kapitalstrukturen korrigieren. Volkswirtschaftliche Produktionsfaktoren sind dann aus obsolet gewordenen in neue Verwendungszwecke zu lenken, was das „Wirkenlassen des zwischenzeitlich leidvollen Marktprozesses“ voraussetzt, „an dessen Ende eine ökonomisch nachhaltige Wirtschaftsstruktur steht“ (Erlei 2012b, S. 20). Ein bloßes geldpolitisches Kurieren an den Symptomen ist hingegen kontraproduktiv, wenn gleichzeitig der nötige Strukturwandel blockiert ist. Allerdings ist auch aus Sicht der österreichischen Konjunkturtheorie eine expansive Geldpolitik nicht immer falsch: „Eine vorübergehende Ausweitung der Zentralbankkredite in der akuten Phase einer Finanzkrise ist ja durchaus zu vertreten. Dadurch kann verhindert werden, dass wegen akuten Mangels an Liquidität nicht nur faule, sondern auch viele gesunde Kredite abgeschrieben werden müssen“ (Mayer 2012b). Darüber hinaus müsste die Geldpolitik bei Vermögensblasen, deren Platzen erheblichen volkswirtschaftlichen Schaden anrichten kann, weniger expansiv gestaltet werden als dies etwa in den USA vor der Finanzkrise der Fall war — unter noch festzulegenden Bedingungen, auch um den Preis kurzfristiger konjunktureller Einbrüche. Denn nicht wenige wissenschaftliche Studien „have shown that nearly all bubbles in history have been accompanied or preceded by strong growth in money or credit“ (Issing 2012, S. 27). Folglich haben möglicherweise riskante makroökonomische Situationen in Form von Vermögensblasen und im Sinne der österreichischen Konjunkturtheorie eindeutig die Aufmerksamkeit der Zentralbanken verdient. Sie können durch adäquate Einflussnahme auf die gesamtwirtschaftliche Geldmengen- und Kreditvergabe zur Eindämmung finanzieller Instabilitäten beitragen: „A major contribution would be to avoid the emergence of unsustainable developments in money and credit“ (Issing 2012, S. 27). Prof. Dr. Lothar Funk, Düsseldorf WISU 72 1/13 Literatur: Zum 1. Thema: Artus, P.: France: The sandwich. In: Flash Economics. Natixis Economic Research, 17.12.2012, Nr. 851, Paris. Burda, M./Wyplosz, C.: Macroecoomics — A European Text. 6. Aufl., Oxford 2012. Cowen, T./Tabarrok, A.: Modern Principles: Macroeconomics. 2. Aufl., New York 2012. Funk. L.: Ohne Fortune und ohne Mut: Die verpassten Reformchancen rot-grüner Arbeitsmarktpolitik. In: Sozialer Fortschritt, 51. Jg. (2002), H. 11, S. 270 ff. Funk, L.: Social Market Economy at Sixty: Path Dependence and Path Changes. In: Glossner, C.L./Gregosz, D. (Hrsg.): Sixty Years of Social Market Economy: Formation, Development and Perspectives of a Peacemaking Formula. Berlin/Sankt Augustin 2010, S. 85 ff. IMF — International Monetary Fund: France 2012 Article IV Consultation. Washington, D.C., Dezember 2012. IW — Institut der deutschen Wirtschaft Köln: Nachbar unter Druck. In: IW-Dienst, 38. Jg. (2012), H. 50, S. 4 f. Miard-Delacroix, H.: Partner für Europa: 50 Jahre deutschfranzösische Zusammenarbeit — eine Analyse. In: DE Magazin Deutschland 2012, H.3, S. 20 f. Moscovici, P.: Das Jahr der Abrechnung. In: Handelsblatt v. 27.12.2012, S. 48. Schmieding, H./Schulz, C.: The 2012 Euro Plus Monitor: The Rocky Road to Balanced Growth. The Lisbon Council/Berenberg Bank, Brüssel/Hamburg 2012. Uterwedde, H.: Deutschland und die Gouvernanz des Euroraums. In: Konrad-Adenauer-Stiftung/ifri (Hrsg.): Der deutsche Weg aus der Krise — Wirtschaftskraft und Strukturschwächen des ‚Modells Deutschland'. Paris 2012, S. 154 ff. o.V.: Der französische Patient. In: WISU, 41. Jg. (2012), S. 1528 ff. Wohlgemuth, M.: Soziale Marktwirtschaft für Europa? Ordnungspolitik in der Krise. In: Schulten, M./Wohlgemuth, M./ Müller, C. (Hrsg): Ökonomische Bildung und Wirtschaftsordnung. Stuttgart 2012, S. 3 ff. Zum 2. Thema: Burgin, A.: The Great Persuasion. Reinventing Free Markets since the Depression. Cambridge (USA)/London 2012. Erlei, M.: Die Wirtschaftskrise aus der Sicht der Österreichischen Konjunkturtheorie. In: Held, M./ Kubon-Gilke, G./ Sturn, R. (Hrsg.): Normative und institutionelle Grundfragen der Ökonomik. Jahrbuch 11: Lehren aus der Krise für die Makroökonomik. Marburg 2012a, S. 183 ff. Erlei, M.: Finanzmarktkrise und Staatschuldenkrise. In: AMOS International, 6. Jg. (2012b), H. 3, S. 15 ff. Funk, L.: Edmund S. Phelps und die nicht-walrasianische Theorie natürlicher Arbeitslosigkeit. In: Leschke, M./Pies, I. (Hrsg.): Edmund S. Phelps’ strukturalistische Ökonomik. Tübingen 2013, S. 33 ff. Funk, L./Voggenreiter, D./Wesselmann, C.: Makroökonomik. 8. Aufl., Stuttgart 2008. Funk, L./Voggenreiter, D./Wesselmann, C.: Geldpolitik zur Konjunkturbelebung. In: WISU, 41. Jg., (2012), S. 1629 ff. Harris, E.S.: Ben Bernanke’s FED. The Federal Reserve after Greenspan. Boston 2008. Issing, O.: Der Euro. Geburt — Erfolg — Zukunft. München 2008. Issing, O.: Lessons for Monetary Policy. In: Blanchard, O./Romer, D./Spence, M./Stiglitz, J. (Hrsg.): In the Wake of the Crisis — Leading Economists Reassess Economic Policy, Cambridge (USA)/London 2012, S. 25 ff. Issing, O.: Einführung in die Geldtheorie. 14. Aufl., München 2012. Krugman, P.: When Prophecy Fails. In: New York Times v. 24.12.2012, S. A21. Krugman, P./Wells, R.: Economics. 3. Aufl., New York 2012. Mayer, T.: Im Zweifel für die Österreicher. In: Frankfurter Allgemeine Sonntagszeitung v. 10.6.2012a. www.faz.net/aktuell/ wirtschaft/mayers-weltwirtschaft/mayers-weltwirtschaftim-zweifel-fuer-die-oesterreicher-118315 53.html Mayer, T.: Play it again, Ben. In: Frankfurter Allgemeine Sonntagszeitung v. 17.6.2012. http://www.faz.net/aktuell/wirtschaft/ mayers-weltwirtschaft/mayers-weltwirtschaft-playit-again- ben-11831535.html Zimmermann, G.: Austrian Elements of Structuralist Unemployment Theory? In: Quarterly Journal of Austrian Economics, 10. Jg. (2007), S. 209 ff. WISU-KOMPAKT WISU-CHECK-UP ✓ Plankostenrechnung Der WISU-Check-up dient der Überprüfung des eigenen Kenntnisstandes und soll dazu anregen, Wissensund Verständnislücken aufzuspüren und ihnen anhand geeigneter Literatur nachzugehen. Die Fragen werden aus allen Bereichen der Betriebs- und Volkswirtschaftslehre gestellt und haben unterschiedlichen Schwierigkeitsgrad. Es ist möglich, dass mehrere Antworten richtig sind. Die Plankostenrechnung (PKR) a) ist ein zukunftsbezogenes Verfahren der Kosten- und Leistungsrechnung. b) beruht auf Erfahrungswerten, die sich als Durchschnittswerte aus den Ist-Kosten vergangener Perioden ergeben haben. c) ist die Rechnung mit künftigen Mengen (Planmengen) und tatsächlichen Preisen (Ist-Preisen). d) dient der Ermittlung und Vorgabe geplanter Kosten (Plankosten), die eine Kostenkontrolle ermöglichen und die Grundlage der innerbetrieblichen Steuerung sind. e) benötigt zur Kostenkontrolle auch die Ist-Kosten. Zu den Aufgaben der PKR zählen die a) Kontrolle der Wirtschaftlichkeit durch Soll-Ist-Vergleiche. b) Aufdeckung der Ursachen von Plan-Ist-Abweichungen. c) Ermittlung zukunftsbezogener Informationen für die Entscheidungsträger im Unternehmen. d) Durchführung der Produktkostenplanung. Systeme der PKR sind die a) b) c) d) Vollkostenrechnung auf Ist-Kostenbasis. Teilkostenrechnung auf Normalkostenbasis. Grenzkostenrechnung auf Ist-Kostenbasis. Plankostenrechnung auf Vollkostenbasis (starr/flexibel). e) Plankostenrechnung auf Teilkostenbasis (Grenzplankostenrechnung). Plankosten a) sind das Produkt aus geplanten Faktormengen und geplanten Faktorpreisen. b) werden häufig aufgrund fester Verrechnungspreise berechnet. c) ergeben sich aus der Summe aller variablen und fixen Plankosten einer Kostenstelle. d) haben Vorgabecharakter. Die Festlegung der Plankosten erfolgt aufgrund von a) bereinigten Ist-Daten der Vergangenheit unter Anwendung statistischer Verfahren (z.B. mittels Regressionsanalyse). b) technologischen und organisatorischen Abhängigkeiten. c) Verbrauchsmessungen. d) Kostenschätzungen/-prognosen durch Experten (z.B. Kostenstellenleiter). Die starre PKR a) ist eine Form der kurzfristigen Erfolgsrechnung, die auf einer Teilkostenrechnung aufbaut. b) berücksichtigt das Kostenverhalten bei Änderungen des Beschäftigungsgrades. c) ist ein einfaches, vergangenheitsorientiertes Verfahren der Kostenrechnung. d) erfordert keine Kostenauflösung in variable und fixe Kostenbestandteile. e) ist stets eine Vollkostenrechnung. In einem Industriebetrieb sind für die kommende Pe- riode Plankosten von 44.000 Euro vorgesehen. Die Planbeschäftigung beträgt 800 Stück. Die tatsächliche Beschäftigung liegt bei 600 Stück mit Ist-Kosten von 40.000 Euro. Wie hoch ist die Kostenabweichung der Ist-Beschäftigung bei Anwendung der starren PKR? a) 5.000 Euro b) 6.500 Euro c) 7.000 Euro Die starre PKR a) ermöglicht bei Abweichungen vom festgelegten Beschäftigungsgrad eine fundierte Kostenkontrolle. b) ist für die zur Kostenkontrolle notwendigen differenzierten Abweichungsanalysen zwischen Ist- und Plankosten wenig geeignet. c) ist für die Kostenkontrolle bei schwankender Beschäftigung ungeeignet. d) legt je Kostenstelle mehrere Beschäftigungsgrade fest. Zu den charakteristischen Merkmalen der flexiblen PKR zählt, dass a) die Kosten der Kostenstellen planmäßig in fixe und variable Bestandteile aufgespalten werden (Kostenauflösung). b) eine Umrechnung der Plankosten bei Planbeschäftigung auf die Ist-Beschäftigung vorgenommen wird. c) sich die gesamten Plankosten gegenüber Beschäftigungsabweichungen anpassen. d) auf Vollkostenbasis zwei Plankalkulationssätze errechnet werden (jeweils ein Plankalkulationssatz für die fixen und die variablen Kostenbestandteile). Bei einer flexiblen PKR a) können vom Kostenstellenleiter nicht zu vertretende Abweichungen nicht aus dem Soll-Ist-Vergleich eliminiert werden. b) wird eine Kostenstellenrechnung nicht mehr benötigt. c) zeigt die Abweichung zwischen Ist-Kosten und verrechneten Plankosten eine Kostenüberdeckung oder eine Kostenunterdeckung. d) werden die Plankosten der Kostenstellen für die einzelnen Abrechnungsperioden (z.B. Monate) an die jeweilige Ist-Beschäftigung angepasst. Anstelle der Vorgabe von verrechneten Plankosten mittels starrer Planverrechnungssätze pro Stück verwendet die flexible PKR Soll-Kosten. Diese a) geben an, welche Kosten zu erwarten sind, wenn die Beschäftigung von der Planung abweicht. b) umfassen die fixen Kosten, die vom Beschäftigungsgrad unabhängig sind, und die vom Beschäftigungsgrad abhängigen variablen Kosten. WISU 1/13 73 WISU-KOMPAKT c) werden auch als Gesamtkosten der Planbeschäftigung bezeichnet. d) sind auf die Ist-Beschäftigung umgerechnete Plankosten. e) entsprechen dem normalen (wirtschaftlichen) Verbrauch an Produktionsfaktoren. Die Soll-Kosten lassen sich so ermitteln: Plankosten Planbeschäftigung a) Variable ----------------------------------------------------------------------------------------------------------- + fixe Plankosten b) c) d) Ist-Beschäftigung Variable Plankosten Ist-Beschäftigung --------------------------------------------------------------------------------------------------------- + fixe Plankosten Planbeschäftigung Fixe Plankosten Planbeschäftigung ------------------------------------------------------------------------------------------------- + variable Plankosten Ist-Beschäftigung Fixe Plankosten Ist-Beschäftigung- + variable Plankosten --------------------------------------------------------------------------------------------Planbeschäftigung Im Rahmen der flexiblen PKR auf Vollkostenbasis bil- det die Differenz zwischen a) Soll-Kosten und verrechneten Plankosten die Verbrauchsabweichung. b) Soll-Kosten und verrechneten Plankosten die Beschäftigungsabweichung. c) Ist-Kosten und Soll-Kosten die Beschäftigungsabweichung. d) Ist-Kosten und Soll-Kosten die Kostenabweichung der Ist-Beschäftigung (Preis- und/oder Verbrauchsabweichung). e) Ist-Kosten und verrechneten Plankosten die Gesamtabweichung. Die flexible PKR auf Vollkostenbasis a) berücksichtigt nur die variablen Kosten. b) unterscheidet für unterschiedliche Beschäftigungsgrade variable und fixe Kosten. c) weist die Plankosten als Vollkosten aus. Eine Preisabweichung a) ist grundsätzlich vom Kostenstellenverantwortlichen beeinflussbar. b) ergibt sich aus der Differenz von (Ist-Verbrauchsmenge x Ist-Preis) und (Ist-Verbrauchsmenge x Planpreis). c) kann sich z.B. durch kurzfristig erhöhte Einkaufspreise für das Fertigungsmaterial ergeben. d) wird vermieden durch den Ansatz von Verrechnungspreisen. e) wird umgangen durch den Ansatz kalkulatorischer Kosten. b) trennt zwar im Rahmen der Kostenstellenrechnung variable und fixe Kosten, führt diese Trennung aber nicht bei der Kostenträgerrechnung durch. c) verwendet bei der Kostenträgerrechnung einen Vollkostensatz. d) verwendet bei der Kostenträgerrechnung einen Teilkostensatz. Die flexible PKR auf Teilkostenbasis a) berücksichtigt nur die variablen Kosten, weil nur diese den Kostenträgern verursachungsgerecht zugerechnet werden können. b) verrechnet ausschließlich Grenzkosten auf die Kostenträger. c) übernimmt die fixen Kosten als Block in die kurzfristige Betriebserfolgsrechnung. d) vermeidet nicht die rechnerische Proportionalisierung der Fixkosten. e) wird auch als Grenzplankostenrechnung bezeichnet. In der Grenzplankostenrechnung a) stimmen die proportionalen Soll-Kosten nie mit den auf Basis der Ist-Beschäftigung verrechneten Plankosten überein. b) gibt es keine Beschäftigungsabweichung, da SollKosten und verrechnete Kosten übereinstimmen. c) ist die Beschäftigungsabweichung immer null, da Fixkosten keine Berücksichtigung finden. d) kennzeichnet die Differenz zwischen den Soll-Kosten und den Ist-Kosten die Verbrauchsabweichung, die sich aus Preis- und/oder Mengenabweichung zusammensetzt. Die flexible PKR auf Grenzkostenbasis ist nicht ge- eignet für die a) Berechnung der Selbstkostenpreise bei öffentlichen Aufträgen. b) Festlegung des optimalen Produktionsprogramms. c) Optimierung betrieblicher Engpässe. d) Ermittlung der handelsrechtlichen Herstellungskosten. e) Bewertung von Lagerbeständen unfertiger und fertiger Erzeugnisse. Prof. Dr. Martina Wente, Braunschweig/Wolfenbüttel Die Beschäftigungsabweichung a) entfällt bei der flexiblen Plankostenrechnung auf Teilkostenbasis. b) weist auf eine Unter- oder Überdeckung der geplanten variablen Kosten hin, die durch den Beschäftigungsgrad verursacht wird c) ist gleich null, wenn Ist- und die Planbeschäftigung übereinstimmen. Die Verbrauchsabweichung a) steht im Mittelpunkt der unternehmensinternen Produktivitätskontrolle. b) ist dem jeweiligen Verantwortungsbereich nicht zurechenbar. c) ist ein Hinweis auf unwirtschaftliches Handeln, für das der Kostenstellenleiter verantwortlich ist. d) liegt vor, wenn die Soll-Kosten die Ist-Kosten übersteigen. e) entsteht z.B. durch höheren Verbrauch von Betriebsstoffen oder ungewohnt hohen Ausschuss. Die flexible PKR auf Vollkostenbasis a) ermöglicht eine aussagefähige Kostenkontrolle durch Berücksichtigung der Ist-Beschäftigung. WISU 74 1/13 Literatur: Däumler, K.-D./Grabe, J.: Kostenrechnung 3 — Plankostenrechnung und Kostenmanagement. 8. Aufl., Berlin/Herne 2009. Freidank, C.-C.: Kostenrechnung. 9. Aufl., München/Wien 2012. Haberstock, L.: Kostenrechnung 2: (Grenz-)Plankostenrechnung mit Fragen, Aufgaben und Lösungen. 10. Aufl., Berlin 2008. Kilger, W./Pampel, J. R./Vikas, K.: Flexible Plankostenrechnung und Deckungsbeitragsrechnung. 13. Aufl., Wiesbaden 2012. Langenbeck, J., Kosten- und Leistungsrechnung. 2. Aufl., Herne 2011. Schildbach, T./Homburg, C.: Kosten- und Leistungsrechnung. 10. Aufl., Stuttgart 2008. Die Lösungen stehen auf Seite 81. Betriebswirtschaftslehre Investitionsrechnung Zeitwert des Geldes Prof. Dr. Frank Schuhmacher / Dr. Benjamin R. Auer, Leipzig Bei Anlage- oder Investitionsentscheidungen müssen Geldbeträge verglichen werden, die zu unterschiedlichen Zeitpunkten anfallen. Ein heute verfügbarer Geldbetrag ist in der Regel mehr wert als ein künftig verfügbarer gleicher Höhe, da der heutige Betrag zinsbringend angelegt werden kann. Außerdem kann sich die Kaufkraft aufgrund von Inflation verringern. I. End- und Barwerte von Einmalzahlungen Verzinsungsarten Eine grundlegende Frage bei einfachen zinsbringenden Geldanlagen ist häufig, welcher Endwert sich bei einem bestimmten Zinssatz ergibt. Die Antwort darauf hängt von der Art der Verzinsung ab. Einfache Zinsrechnung Bei einfacher Zinsrechnung werden während des Anlagezeitraums anfallende Zinsen entweder dem Anlagekonto entnommen oder so darauf gutgeschrieben, dass die Zinsberechnung für jede Periode immer nur aufgrund des anfänglich angelegten Geldbetrags erfolgt. Zinseszinsrechnung Anders bei der Zinseszinsrechnung, bei der während des Anlagezeitraums anfallende Zinsen periodisch gutgeschrieben werden und damit sukzessive die Grundlage für die Berechnung weiterer Zinsen erhöhen. Im Gegensatz zur einfachen Verzinsung werden hier auch die Zinsen verzinst, womit sich ein höherer Endwert der Geldanlage im Vergleich zur einfachen Verzinsung ergibt. Da die Zinseszinsrechnung der Standardfall ist, wird sie auch hier unterstellt (zur einfachen Verzinsung vgl. Auer/Seitz, S. 70 ff.). Zur Vereinfachung wird zudem davon ausgegangen, dass das Geld für volle Jahre angelegt und jährlich verzinst wird. Das Formelwerk lässt sich unmittelbar in einen unterjährigen Kontext übertragen. Dazu muss z.B. bei monatlichen Anlagen nur der Jahreszinssatz in einen Monatszinssatz (Division durch 12) und die Anzahl der Jahre in Monate (Multiplikation mit 12) umgerechnet werden. Außerdem wird nicht mit gerundeten, sondern mit exakten Zwischenergebnissen weitergerechnet. Endwertbestimmung Formal kann man für den Endwert oder Future Value FV einer Einmalzahlung z0 nach n Perioden Verzinsung mit einem Periodenzinssatz i festhalten, dass (1) FV = z0 · (1 + i)n, wobei der Faktor (1 + i)n auch Aufzinsungsfaktor oder Endwert je Geldeinheit genannt wird. Werden also 100 Euro für zwei Jahre bei sechs Prozent Zinsen p.a. (per annum, pro Jahr) angelegt, erhält man über (1) einen Endwert von FV = 100 · (1 + 0,06)2 = 112,36 Euro. Nach einem Jahr weist das Anlagekonto einen um die erste Zinszahlung erhöhten Wert von 100 · (1 + 0,06) = 106 Euro auf, der Grundlage für die Zinsberechnung im zweiten Jahr ist. Im zweiten Jahr liegt der Zins damit bei 106 · 0,06 = 6,36 Euro, was zu einem Endwert von 106 + 6,36 = 112,36 Euro bzw. 106 · (1 + 0,06) = 112,36 Euro führt. Frage 1: Wie wirkt sich eine Erhöhung des Zinssatzes von zwei auf drei Prozent p.a. auf den Endwert einer 50-jährigen Anlage von 100 Euro aus? Barwertbestimmung Eine weitere Frage lautet, wie viel Geld man heute anlegen muss, um nach n Perioden bei einem Periodenzinssatz von i einen bestimmten Betrag zn zu erhalten. Es geht also um den Wert z0, für den nach (1) die Beziehung z0 · (1 + i)n = zn gilt. Eine Umstellung dieWISU 1/13 75 BETRIEBSWIRTSCHAFTSLEHRE ses Ausdrucks nach z0 liefert z0 = zn / (1 + i)n. Man bezeichnet z0 im Kontext einer solchen Frage auch als Barwert oder Present Value PV von zn und schreibt (2) zn PV = -----------------. 1 + i n Der Faktor 1 / (1 + i)n wird Abzinsungsfaktor, Diskontfaktor oder Present Value je Geldeinheit genannt. Eine Barwertberechnung der Form (2) heißt auch Diskontierung, der dabei verwendete Zinssatz Diskontrate. Vergleich von Zahlungen Formel (2) ist insbesondere beim Vergleich von Zahlungen wertvoll, die zu unterschiedlichen Zeitpunkten anfallen. Dazu ein Beispiel: Ein Student besitzt 6.000 Euro und möchte sich davon einen Pkw kaufen. Der befreundete Händler A bietet ihm an, dass er den gewünschten Pkw sofort haben kann und die 6.000 Euro erst in zwei Jahren zahlen muss. Händler B bietet hingegen an, dass der Pkw bei Sofortzahlung nur 5.500 Euro kostet. Welches Angebot ist bei fünf Prozent Zinsen p.a. günstiger? Beim Angebot von Händler B muss der Student heute 5.500 Euro aufbringen. Um beim Angebot von Händler A 6.000 Euro in zwei Jahren zahlen zu können, muss er heute nach (2) bei fünf Prozent 2 Zinsen p.a. jedoch nur PV = 6.000 / 1,05 = 5.442,18 Euro anlegen. Damit ist das Angebot von A günstiger. Frage 2: Ein Student hat noch 300 Euro auf seinem Girokonto und einen Schuldschein, wonach ihm ein Kommilitone in einem Jahr 100 Euro zahlen muss. Ist die Behauptung des Studenten korrekt, dass sein Vermögen derzeit 400 Euro beträgt? Der aktuelle Marktzins für einjährige Geldanlagen liegt bei 1,5 Prozent. II. End- und Barwerte von Zahlungsströmen Nach- vs. vorschüssige Zahlungsströme Neben End- und Barwerten von Einmalzahlungen sind insbesondere auch die End- und Barwerte von Zahlungsströmen, d.h. Abfolgen von in regelmäßigen Abständen anfallenden Zahlungen, relevant. Sie treten üblicherweise bei Einzahlungen bei Ratensparplänen oder bei Auszahlungen bei Rentenkonten auf. Man unterscheidet allgemein zwischen nach- und vorschüssigen Zahlungsströmen. Zahlungen sind dann nachschüssig, wenn sie jeweils am Ende einer Periode anfallen, und vorschüssig, wenn der Mittelfluss am Periodenanfang erfolgt (vgl. Auer/Seitz, S. 78 ff.). Grundlagen der Endwertbestimmung Zur Bestimmung des Endwerts eines Zahlungsstroms zunächst ein einfaches Beispiel: Ein Student entscheidet sich, in den nächsten drei Jahren jedes Jahr 100 Euro zu sparen. Erfolgen die Einzahlungen auf das Sparkonto nachschüssig, d.h. jeweils am Jahresende, ergibt sich bei fünf Prozent Zinsen p.a. der Endwert FVns = 100 · 1,052 + 100 · 1,051 + 100 = 315,25 Euro. Die erste Zahlung wird nur zwei volle Jahre verzinst, da sie erst nach einem Jahr eingezahlt wird. Die letzte Zahlung wird nicht mehr verzinst, da sie am Ende des dritten Jahres, d.h. zum Ende der Anlage, erfolgt. Bei vorschüssiger Einzahlung, d.h. zu Jahresbeginn, ergeben sich nach drei Jahren FVvs = 100 · 1,053 + 100 · 1,052 + 100 · 1,05 = 331,01 Euro, da jede Zahlung nun eine Periode länger verzinst wird. Für den Endwert gilt also FVvs > FVns. Dieser lässt sich auch unmittelbar aus den Ergebnissen der nachschüssigen Berechnung ableiten, da offensichtlich FVvs = FVns · (1 + i) gilt. Formelwerk zur Endwertbestimmung Für den Endwert eines nachschüssigen Zahlungsstroms gibt es eine kompakte Formel, womit sich auch bei langen Zahlungsströmen schnell der Endwert berechnen lässt (vgl. Bodie/Merton, S. 119; Brealey/Myers/Allen, S. 60 f.). Wird jeweils zum Ende von n Perioden der gleiche Geldbetrag von z Euro bei einem Periodenzinssatz von i auf ein Sparkonto eingezahlt, lautet der Kontostand bei Laufzeitende (3) FV ns = z EWF i n 1 + i n – 1 . mit EWF i n = --------------------------i EWF(i,n) wird hier auch Endwertfaktor genannt. Er gibt den Endwert einer n-maligen nachschüssigen Einzahlung von einem Euro bei einem Zinssatz von i an. WISU 76 1/13 BETRIEBSWIRTSCHAFTSLEHRE Der Endwert eines vorschüssigen Zahlungsstroms kann unmittelbar unter Rückgriff auf (3) angegeben werden, da (4) FVvs = FVns · (1 + i) = z · EWF(i, n) · (1 + i). Um Endwertberechnungen weiter zu vereinfachen, werden häufig Endwertfaktoren tabelliert. Abb. 1 zeigt eine solche Tabelle für typische Werte von n und i. So erhält man den Endwert eines Sparkontos mit einer Verzinsung von drei Prozent p.a., auf das 30 Jahre lang jeweils zum Jahresende 500 Euro eingezahlt werden, über (3) als FVns = 500 · 47,5754 = 23.787,71 Euro. Laufzeit n Auch solche Fragen lassen sich leicht beantworten: Welcher Betrag z muss bei einem Zins von vier Prozent p.a. zu jedem Jahresanfang angelegt werden, damit man nach 20 Jahren 20.000 Euro hat? Das lässt sich mithilfe von (4) beantworten, indem man zunächst festhält, dass 20.000 = z · 29,7781 · (1 + 0,04). Eine Umstellung nach z liefert den gesuchten Jahresbetrag von 645,80 Euro. 1 2 3 4 5 6 7 8 9 10 12 14 16 18 20 30 40 1% 1,0000 2,0100 3,0301 4,0604 5,1010 6,1520 7,2135 8,2857 9,3685 10,4622 12,6825 14,9474 17,2579 19,6147 22,0190 34,7849 48,8864 2% 1,0000 2,0200 3,0604 4,1216 5,2040 6,3081 7,4343 8,5830 9,7546 10,9497 13,4121 15,9739 18,6393 21,4123 24,2974 40,5681 60,4020 Zinssatz i 3% 1,0000 2,0300 3,0909 4,1836 5,3091 6,4684 7,6625 8,8923 10,1591 11,4639 14,1920 17,0863 20,1569 23,4144 26,8704 47,5754 75,4013 4% 1,0000 2,0400 3,1216 4,2465 5,4163 6,6330 7,8983 9,2142 10,5828 12,0061 15,0258 18,2919 21,8245 25,6454 29,7781 56,0849 95,0255 5% 1,0000 2,0500 3,1525 4,3101 5,5256 6,8019 8,1420 9,5491 11,0266 12,5779 15,9171 19,5986 23,6575 28,1324 33,0660 66,4388 120,7998 Abb. 1: Endwertfaktor für ausgewählte i und n Frage 3: Welcher Betrag steht einem Jugendlichen bei seinem 18. Geburtstag zur Verfügung, wenn seine Eltern bis dahin jedes Jahr vorschüssig 500 Euro auf sein Sparkonto bei einer Verzinsung von drei Prozent p.a. eingezahlt haben? Grundlagen der Barwertbestimmung Der Barwert eines Zahlungsstroms wird definiert als Summe der Barwerte seiner einzelnen Zahlungen. Er beantwortet allgemein die Frage, welcher Betrag heute zu einem Zinssatz i angelegt werden muss, um über die Laufzeit von n Perioden die n Zahlungen des Zahlungsstroms entnehmen zu können. Da solche Fragen meist im Zusammenhang mit der Altersvorsorge auftreten, bezeichnet man die regelmäßigen Auszahlungen z hier als Renten. Um die Unterschiede nachschüssiger und vorschüssiger Renten zu veranschaulichen, zunächst wieder ein einfaches Beispiel: Welcher Betrag muss heute eingezahlt werden, um nachschüssig, d.h. jeweils zum Jahresende, über einen Zeitraum von drei Jahren bei einem Zins von fünf Prozent p.a. 100 Euro entnehmen zu können. Den Betrag bzw. Barwert des Zahlungsstroms erhält man als 100 100 100 PV ns = ----------- + -------------- + -------------- = 272,32 Euro . 1,05 1,05 2 1,05 3 Da die ersten 100 Euro ein Jahr auf dem Konto liegen, bevor sie am Jahresende entnommen werden, werden sie genau eine Periode lang abgezinst. Entsprechend verbleiben die letzten 100 Euro ganze drei Jahre bzw. bis zum Ende des letzten Jahres auf dem Konto, sodass sie zur Barwertbestimmung drei Jahre lang abgezinst werden müssen. Erfolgen die Entnahmen vom Anlagekonto vorschüssig, d.h. wird die erste Zahlung bereits bei Kontoeröffnung entnommen, und findet jede weitere Auszahlung zum Jahresbeginn statt, erhält man den Barwert WISU 1/13 77 BETRIEBSWIRTSCHAFTSLEHRE 100- + ------------100- = 285,94 Euro . PV vs = 100 + ---------1,05 1,05 2 Wie sich erkennen lässt, wird die erste Zahlung hier nicht abgezinst, da sie unmittelbar entnommen wird und daher bereits einen Barwert darstellt. Generell liegen im Vergleich zur nachschüssigen Betrachtung alle Zahlungen eine Periode weniger auf dem Anlagekonto, sodass sie eine Periode weniger abgezinst werden müssen. Es gilt PVvs = PVns · (1 + i). Zudem ist PVvs > PVns. Vorschüssige Renten sind also stets teurer als nachschüssige. Zur Finanzierung einer nachschüssigen Rente muss damit heute weniger Geld angelegt werden. Dies ist unmittelbar einleuchtend, da bei vorschüssiger Entnahme auf eine mögliche zusätzliche Verzinsung und den damit verbundenen Zinseszinseffekt verzichtet wird. Frage 4: Wie lässt sich tabellarisch zeigen, dass bei einmaliger Anlage von 272,32 Euro auf einem Rentenkonto mit einem Zins von fünf Prozent p.a. über eine Dauer von drei Jahren jeweils am Jahresende 100 Euro entnommen werden können? Formelwerk zur Barwertbestimmung Wie bei der Endwertbestimmung gibt es auch für Barwerte kompakte Formeln (vgl. Bodie/Merton, S. 120; Brealey/Myers/Allen, S. 56 ff.). So ergibt sich der Barwert eines nachschüssigen Zahlungsstroms mit n Zahlungen von z Euro bei einem Zinssatz von i als PV ns = z RBF i n (5) 1 – 1 + i –n . mit RBF i n = ----------------------------i Der Ausdruck RBF(i,n) wird als Rentenbarwertfaktor bezeichnet. Er ist der Barwert eines Zahlungstroms aus n nachschüssigen Zahlungen von einem Euro bei einem Zinssatz von i. Wie bereits angemerkt, kann aus (5) direkt auf den Barwert eines vorschüssigen Zahlungsstroms geschlossen werden. Es gilt nämlich Laufzeit n (6) PVvs = PVns · (1 + i) = z · RBF(i, n) · (1 + i). 1 2 3 4 5 6 7 8 9 10 12 14 16 18 20 30 40 1% 0,9901 1,9704 2,9410 3,9020 4,8534 5,7955 6,7282 7,6517 8,5660 9,4713 11,2551 13,0037 14,7179 16,3983 18,0456 25,8077 32,8347 2% 0,9804 1,9416 2,8839 3,8077 4,7135 5,6014 6,4720 7,3255 8,1622 8,9826 10,5753 12,1062 13,5777 14,9920 16,3514 22,3965 27,3555 Zinssatz i 3% 0,9709 1,9135 2,8286 3,7171 4,5797 5,4172 6,2303 7,0197 7,7861 8,5302 9,9540 11,2961 12,5611 13,7535 14,8775 19,6004 23,1148 4% 0,9615 1,8861 2,7751 3,6299 4,4518 5,2421 6,0021 6,7327 7,4353 8,1109 9,3851 10,5631 11,6523 12,6593 13,5903 17,2920 19,7928 5% 0,9524 1,8594 2,7232 3,5460 4,3295 5,0757 5,7864 6,4632 7,1078 7,7217 8,8633 9,8986 10,8378 11,6896 12,4622 15,3725 17,1591 Abb. 2: Rentenbarwertfaktor für ausgewählte i und n Diese Formeln, unterstützt durch tabellierte Rentenbarwertfaktoren (Abb. 2), erlauben es, eine Reihe praktischer Frage schnell zu beantworten. Will man etwa wissen, welchen Geldbetrag eine Person zum Ruhestandsbeginn angespart haben muss, um damit eine vorschüssige jährliche Rente von 20.000 Euro über einen Zeitraum von 20 Jahren bei einem Zinssatz von drei Prozent p.a. zu finanzieren, so erhält man ihn nach (6) als PVvs = 20.000 · 14,8775 · (1 + 0,03) = 306.475,98 Euro. Statt zu fragen, wie viel man bis zu einem bestimmten Zeitpunkt ansparen muss, um eine bestimmte gegebene Rente zu erhalten, kann man auch fragen, welche Rente man in Zukunft mit einem gegebenen Geldbetrag erzielen kann. So lässt sich z.B. mit 200.000 Euro (etwa aus einer Kapitallebensversicherung) über einen Zeitraum von 30 Jahren bei einer Verzinsung von vier Prozent WISU 78 1/13 BETRIEBSWIRTSCHAFTSLEHRE p.a. eine jährliche nachschüssige Rente von 11.566,02 Euro finanzieren. Nach (5) gilt nämlich 200.000 = z · 17,2920. Die Umstellung nach z liefert die Rente. Frage 5: Welchen Geldbetrag muss ein heute 35-jähriger Arbeitnehmer bis zu seinem Ruhestand im Alter von 65 Jahren jährlich nachschüssig beiseitelegen, um mit der angesparten Summe 20 Jahre lang eine nachschüssige Rente von jährlich 20.000 Euro finanzieren zu können? Der Zinssatz in der Spar- und Rentenphase beträgt drei Prozent p.a. Rentenbarwertfaktor und der Vergleich von Zahlungsströmen Der besondere Wert von (5) und (6) liegt ähnlich wie bei Barwerten von Einmalzahlungen darin, dass sich damit unterschiedliche Zahlungsströme vergleichen und so optimale Entscheidungen treffen lassen. Dazu ein Beispiel: Der Student hat jetzt 8.000 Euro und möchte sich wieder einen Pkw kaufen. Der befreundete Händler A bietet ihm an, in einem Jahr 4.000 Euro und in zwei Jahren die restlichen 4.000 Euro zu zahlen. Händler B würde ihm den Pkw gegen Zahlung von 7.800 Euro sofort überlassen. Welches Angebot bei vier Prozent Zinsen p.a. günstiger ist, lässt sich so herausfinden: Aufgrund nachschüssiger Zahlung erhält man nach (5) für den zweiperiodigen Zahlungsstrom einen Barwert von PVns = 4.000 · 1,8861 = 7.544,38 Euro. Mit einer heutigen Anlage in dieser Höhe könnte der Student also die beiden künftigen Zahlungen finanzieren. Bei Händler B müsste er heute hingegen 7.800 Euro > 7.544,38 Euro aufbringen, womit das Angebot des A günstiger ist. Rentenbarwertfaktor und Kredittilgung Da Kredite üblicherweise die Rückzahlung der ursprünglich zur Verfügung gestellten Summe (PV) in periodisch konstanten Beträgen (z) vorsehen, können die Formeln (5) und (6) auch hier eingesetzt werden (vgl. Bodie/Merton, S. 124 f.). In der Praxis wird meist ein periodisch konstanter Betrag (Annuität) bezahlt, der sich aus dem Zins auf die Restschuld und der Tilgungsleistung zusammensetzt. Da nach jeder Zahlung die Restschuld durch die Tilgungsleistung sinkt, nimmt der Anteil der Annuität, der auf die Zinsen entfällt, im Laufe der Zeit ab. Gleichzeitig nimmt damit aufgrund der Konstanz der Annuität der Tilgungsanteil zu. Ein Beispiel: Ein Kredit von 100.000 Euro mit einem vereinbarten Zins von fünf Prozent soll in fünf Jahren zurückgezahlt werden. Die jährlich konstante nachschüssige Zahlung ergibt sich nach (5) durch Umstellung von 100.000 = z · 4,3295 zu 23.097,48 Euro. Abb. 3 zeigt den Tilgungsplan des Kredits, d.h. die Entwicklung der Restschuld sowie der Zins- und Tilgungsbestandteile der berechneten Annuität. So erhält man im ersten Jahr den Tilgungsbestandteil der Annuität, indem man von ihr den Zins des ersten Jahres subtrahiert. Diesen erhält man als 100.000 · 0,05 = 5.000 Euro, womit die Tilgung bei 23.097,48 5.000 = 18.097,48 Euro liegt. Den Kreditstand am Jahresende bzw. die Restschuld, die in der nächsten Periode Grundlage der Zinsberechnung wird, erhält man damit als 100.000 18.097,48 = 81.902,52 Euro. Wie zu erkennen ist, sinkt (steigt) der Zinsanteil (Tilgungsanteil) jedes Jahr. Bei Laufzeitende entspricht die Summe der Tilgungsleistungen der anfänglichen Kreditsumme von 100.000 Euro. Kreditstand Jahr Jahresanfang 1 100.000,00 2 81.902,52 3 62.900,17 4 42.947,69 5 21.997,60 Annuität 23.097,48 23.097,48 23.097,48 23.097,48 23.097,48 115.487,40 Kreditstand Zinsanteil Tilgungsanteil Jahresende 5.000,00 18.097,48 81.902,52 4.095,13 19.002,35 62.900,17 3.145,01 19.952,47 42.947,69 2.147,38 20.950,10 21.997,60 1.099,88 21.997,60 0,00 15.487,40 100.000,00 Abb. 3: Beispielhafter Tilgungsplan Rentenbarwertfaktor und Endwerte Abschließend sei darauf hingewiesen, dass die Formeln (3) und (4) zur Endwertbestimmung auch in Abhängigkeit von Rentenbarwertfaktoren formuliert werden können, sodass genau genommen auf eine Tabellierung von Endwertfaktoren bzw. die Kenntnis der Formeln zu ihrer Berechnung verzichtet werden kann (vgl. Brealey/Myers/Allen, S. 60 f.). Für die Endwerte nachschüssiger und vorschüssiger Zahlungsströme gilt nämlich auch (7) FVns = z · RBF(i, n) · (1 + i)n, (8) FVvs = z · RBF(i, n) · (1 + i)n+1. Den Endwert des nachschüssigen 500-Euro-Sparplans, der im Beispiel zu (3) ermittelt wurde, hätte man also auch mittels (7) als FVns = 500 · 19,6004 · (1 + 0,03)30 = 23.787,71 Euro bestimmen können. WISU 1/13 79 BETRIEBSWIRTSCHAFTSLEHRE III. Inflation Preissteigerung und Kaufkraft Neben der Verzinsung muss bei Anlagen auch die Inflationrate berücksichtigt werden, will man sinnvolle Anlageentscheidungen treffen. Dazu ein Beispiel: Legt man als 20Jähriger 100 Euro zu acht Prozent Zinsen p.a. an, hat man im Alter von 65 Jahren 3.192,04 Euro. Sollten die Preise in diesem Zeitraum jährlich um acht Prozent steigen, haben die 3.192,04 Euro die gleiche Kaufkraft wie einst die 100 Euro. Die Geldanlage hätte also nicht zu zusätzlicher Kaufkraft geführt, sondern sie lediglich erhalten. Liegt die Inflationsrate noch höher, kommt es sogar zu einem Kaufkraftverlust. Geht der Anleger also davon aus, dass die Inflationsrate über dem Zinsertrag der Anlage liegt, ist es besser, er gibt das Geld heute aus, statt es zu sparen. Nominal- vs. Realzinssatz Um die Berücksichtigung der Inflation zu gewährleisten, wird zwischen nominalen und realen Zinssätzen unterschieden (vgl. Bodie/Kane/Marcus, S. 138 f.). Der nominale Zinssatz i ist in den Anlageverträgen vereinbart und misst die periodische prozentuale Erhöhung des Vermögens aufgrund der Anlage. Der reale Zinssatz r berücksichtigt die Inflationsrate und bringt damit die prozentuale Erhöhung der Kaufkraft durch die Anlage zum Ausdruck. Beide Zinssätze stehen in der Beziehung (9) 1 + i- , 1 + r = -----------1+ approximativ kann man auch sagen (10) r = i . Ein Anleger, der sein Vermögen zu einem Nominalzins von fünf Prozent p.a. angelegt hat und mit einer Inflationsrate von zwei Prozent p.a. rechnet, kann mit diesen Formeln berechnen, dass seine Kaufkraft dadurch jährlich um r = (1 + 0,05) / (1 + 0,02) 1 = 0,0294 = 2,94% bzw. näherungsweise r = 0,05 0,02 = 0,03 = 3% steigt. Frage 6: Wie erhält man anhand von (9) die Approximation in (10)? Anlageentscheidungen im realen Kontext Die Berechnungen bei II. und III. lassen sich unmittelbar in einen realen Kontext übertragen. Dazu müssen in den Formeln lediglich die nominalen Zinssätze und nominalen Zahlungen durch reale ersetzt werden (vgl. Brealey/Myers/Marcus, S. 139 ff.). Dazu ein Beispiel: Ein Rentner erwartet, dass die jährliche Inflationsrate während seines Ruhestands zwei Prozent beträgt. Seine Bank gewährt ihm für sein Rentenkonto einen Nominalzins von fünf Prozent p.a. Um seinen Lebensstandard aufrecht zu erhalten, möchte er seinem Konto zehn Jahre lang jährlich nachschüssig einen nominalen Betrag entnehmen, der ihm dieselbe Kaufkraft wie 20.000 Euro zum Zeitpunkt der Kontoeröffnung bei Rentenbeginn sichert. Er fragt sich, welchen Betrag er heute einzahlen muss, damit dies gewährleistet ist. Das lässt sich leicht errechnen, indem man den bereits im letzten Absatz berechneten Realzinssatz von 2,94 Prozent und den realen Wert von 20.000 Euro in (5) einsetzt. Man erhält dann PVns = 20.000 · (1 (1 + 0,029)–10) / 0,0294 = 171.117,36 Euro. Jahr Kontostand Jahresanfang Zwischenstand nach Zins 1 2 3 4 5 6 7 8 9 10 171.117,36 159.273,22 146.428,88 132.526,17 117.503,83 101.297,41 83.839,03 65.057,27 44.876,95 23.218,94 179.673,22 167.236,88 153.750,33 139.152,48 123.379,03 106.362,28 88.030,98 68.310,13 47.120,79 24.379,89 Jährliche Auszahlung real 20.000,00 20.000,00 20.000,00 20.000,00 20.000,00 20.000,00 20.000,00 20.000,00 20.000,00 20.000,00 Faktor 1,021 2 1,02 1,023 1,024 5 1,02 1,026 1,027 8 1,02 1,029 10 1,02 nominal 20.400,00 20.808,00 21.224,16 21.648,64 22.081,62 22.523,25 22.973,71 23.433,19 23.901,85 24.379,89 Kontostand Jahresende 159.273,22 146.428,88 132.526,17 117.503,83 101.297,41 83.839,03 65.057,27 44.876,95 23.218,94 0,00 Abb. 4: Reale vs. nominale Kontoentnahmen beim Beispiel Abb. 4 zeigt die Entwicklung des Rentenkontos bei dieser Eröffnungssumme. Zur Erklärung der Tabelleneinträge werden beispielhaft die Werte des ersten Jahres herausgegriffen: Der Kontostand zu Beginn des ersten Jahres entspricht der anfängWISU 80 1/13 BETRIEBSWIRTSCHAFTSLEHRE lichen Einzahlung von 171.117,36 Euro. Am Jahresende wird nach Verzinsung dieser Einzahlung, die zu einem Zwischenkontostand von 171.117,36 · 1,05 = 179.673,22 Euro führt, ein nominaler Betrag von 20.000 · 1,02 = 20.400 Euro entnommen. Dies führt zum Jahresendstand von 179.673,22 20.400 = 159.273,22 Euro. Den nominalen Betrag erhält man hier aufgrund der Überlegung, dass die Preise in einem Jahr um zwei Prozent höher sind und daher ein um den Faktor 1,02 höherer nominaler Geldbetrag erforderlich ist, um die gewünschte Kaufkraftkonstanz zu erhalten. Die Kaufkraft von 20.400 Euro zu Ende des ersten Jahres ist genau so groß wie die Kaufkraft von 20.000 Euro zu Anlagebeginn. Analoges gilt auch für die weiteren Jahre, da hier in n Jahren die Preise um den Faktor 1,02n höher sind. Für die Umrechnung von nominalen in reale Größen und umgekehrt lässt sich daher festhalten, dass z nnominal = z nreal 1 + n und z nreal = z nnominal 1 + n . Wie sich erkennen lässt, erlaubt also die Kenntnis der Inflationsrate allgemein die Berechnung der richtigen nominalen Entnahmen, um die gewünschte Kaufkraft zu erhalten. Frage 7: Ein Student möchte sich in drei Jahren ein neues Auto kaufen. Er weiß, dass das gewünschte Modell heute 20.000 Euro kostet, wegen der jährlichen Preissteigerung von zwei Prozent in drei Jahren jedoch teurer sein wird. Welchen Betrag muss er heute bei einem Nominalzins von vier Prozent anlegen, um das Auto in drei Jahren kaufen zu können? IV. Ausblick Hier konnten naturgemäß nicht alle mit dem Zeitwert des Geldes verbundenen relevanten Fragen abgedeckt werden. So gibt es noch eine Reihe spezieller Renten, für welche die Bestimmung von Erstanlagesummen oder daraus resultierender Auszahlungsstrukturen von besonderem Interesse ist. Dazu zählen etwa Renten, die periodisch mit gewissen Raten wachsen (vgl. Auer/Seitz, S. 83). Zudem gibt es neben Verzinsung und Inflation noch weitere Faktoren, die dazu führen können, dass eine Zahlung heute mehr wert ist als eine Zahlung gleicher Höhe zu einem künftigen Zeitpunkt. Dazu gehört etwa, dass künftige Zahlungen generell mit Unsicherheit behaftet sind, da das Risiko besteht, dass sie nicht erfolgen (vgl. Bodie/Merton, S. 102). Zudem sind die Barwertformeln bei der Bewertung von Anleihen und Aktien ein Thema, das sich weiter vertiefen lässt, da beide Wertpapiergattungen als Strom künftiger Zahlungen (Kupons, Dividenden) abgebildet werden können (vgl. Brealey/Myers/Marcus, S. 158 ff., 184 ff.). Literatur: Auer, B.R./Seitz, F.: Grundkurs Wirtschaftsmathematik: Prüfungsrelevantes Wissen — Praxisnahe Aufgaben — Komplette Lösungswege. 3. Aufl., Wiesbaden 2011. Bodie, Z./Kane, A./Marcus, A.J.: Investments. 6. Aufl., New York 2005. Bodie, Z./Merton, R.C: Finance. Internationale Auflage, Upper Saddle River 2000. Brealey, R.A./Myers, S.C./Allen, F.: Principles of Corporate Finance. 10. Aufl., New York 2011. Brealey, R.A./Myers, S.C./Marcus, A.J.: Fundamentals of Corporate Finance. 7. Aufl., New York 2012. Die Fragen werden im WISU-Repetitorium beantwortet. Lösungen des WISU-Check up von Seite 73: a,d,e a,b,c,d d,e a,b,c,d a,b,c,d d,e c b,c a,b,d d a,b,d b b,d,e b, b,c,d a,c a,c,e a,b,c a,b,c,e b,c,d a,d,e WISU 1/13 81 BETRIEBSWIRTSCHAFTSLEHRE Finanzierung Risikomanagement bei Projektfinanzierungen Prof. Dr. Jens Kümmel / Prof. Dr. Elke Kottmann / Dipl.-Betrw. (FH) Henny Höfer, Lemgo Großprojekte sind mit erheblichen Risiken verbunden, die ermittelt, gemessen und bewertet werden müssen. Um die Risiken zu reduzieren und den Beteiligten entsprechend ihrer Risikotragfähigkeit zuzuordnen, werden bestimmte Techniken angewandt. I. Überblick Risiko und Risikostruktur Unter Risiko wird hier das negative Abweichen einer Zielgröße von ihrem geplanten Wert verstanden. Projektfinanzierungen (vgl. Kümmel/Kottmann/Höfer) sind naturgemäß mit vielfältigen Risiken in den jeweiligen Projektphasen behaftet. Die Risikostruktur verändert sich je nach Phase, d.h. ein und dasselbe Risiko kann unterschiedliche Ausmaße annehmen. Vierstufiger Managementprozess Die Projektrisiken lassen sich mithilfe eines vierstufigen interdependenten Risikomanagementprozess ermitteln, bewerten, reduzieren und den Beteiligten zuteilen. Darüber hinaus müssen übergeordnete Maßnahmen des Risikomanagement implementiert werden (vgl. Böttcher/Blattner, S. 33 ff.). II. Ermittlung der Risiken Projektendogene und -exogene Risiken Bei den meisten Projektfinanzierungen gibt es typische projektendogene und -exogene Risiken. Während sich projektendogene Risiken zumindest teilweise von den am Projekt Beteiligten steuern lassen, liegen die projektexogenen Risiken regelmäßig außerhalb deren Einfluss (vgl. Böttcher/Blattner, S. 45 f.). Beeinflussbare Risiken 1. Projektendogene Risiken Zu den projektendogenen Risiken zählen in der Regel (vgl. Böttcher, S. 73 ff.; Reuter, S. 75 ff.; Tytko 1999, S. 142 ff.) — das Fertigstellungsrisiko, d.h. alle Risiken aufgrund der Erstellung des Projekts. Sie ergeben sich daraus, dass möglicherweise die vereinbarten Leistungswerte nicht oder nicht dauerhaft erzielt werden, oder dass das Projekt zu spät, zu höheren Kosten oder überhaupt nicht fertiggestellt wird. — das Betriebs- und Managementrisiko, d.h. alle Risiken aus der laufenden Produktion, die im Extremfall zur Betriebsunterbrechung oder zum Stillstand der Anlage führen können. Mögliche Ursachen sind Mängel beim Betrieb, Fehler des Personals bei Betrieb oder Wartung der Anlagen, aber auch fehlende Kompetenz und Erfahrung des Managements. — das technische Risiko, d.h. die Gefahr, dass aufgrund unausgereifter oder veralteter Technologien nicht die zugesagte Qualität und Quantität der von der Anlage herzustellenden Produkte erzielt werden. — das Zulieferrisiko, d.h. Vormaterialien werden nicht termingerecht bzw. in den vereinbarten Mengen, Qualitäten und/oder teurer geliefert. Dies kann zu Kapazitätsunterauslastungen, Produktionsstörungen und Produktmängeln führen. — das Markt- und Absatzrisiko, d.h. die Marktfähigkeit der Projektprodukte. Es kann dazu führen, dass die Preis- und/oder Mengenentwicklungen der Produkte hinter den Prognosen zurückbleiben. — das Abandon-Risiko, d.h. dass das Projekt vom Eigentümer aufgegeben bzw. eingestellt wird. Dazu kann es dann kommen, wenn es sich nachhaltig negativ entwickelt, womit seine Fortführung nicht mehr sinnvoll ist. Frage 1: Welches weitere Risiko kann sich aus dem Fertigstellungsrisiko ergeben? 2. Projektexogene Risiken Nicht von den Beteiligten beeinflussbare Risiken WISU 82 1/13 Zu den projektexogenen Risiken zählen in der Regel (vgl. Böttcher/Blattner, S. 74 ff.; Clifford Chance, S. 41 ff.; Schulte-Althoff, S. 112 ff.): BETRIEBSWIRTSCHAFTSLEHRE — das Reserve- und Ressourcenrisiko. Darunter wird die Gefahr verstanden, dass Rohstoffe und andere natürliche Ressourcen nicht in der geplanten Menge und/oder Qualität am Projektstandort vorhanden sind. Ein Risiko, das häufig bei Öl- und Gasförderungen, Rohstoffminen sowie Projekten im Zusammenhang mit erneuerbaren Energien auftritt. — das Wechselkursrisiko. Darunter versteht man die Gefahr von Wechselkursverlusten, weil die Einnahmen und Ausgaben des Projekts in verschiedenen Währungen anfallen. Währungen können sehr volatil sein. Fallen die Einnahmen bzw. Ausgaben eher in weichen bzw. harten Währungen an, verschärft sich das Problem nochmals. — das Zinsänderungsrisiko aufgrund schwankender Kapitalmarktzinsen. Bei einer variabel verzinslichen (fest verzinslichen) Fremdfinanzierung des Projektes können steigenden Finanzierungskosten zu den Zinsanpassungsterminen (bei der Refinanzierung) entstehen. — das Inflationsrisiko. Darunter versteht man die Auswirkungen eines durchschnittlichen Preisniveauanstiegs auf die Einnahmen und Ausgaben des Projekts, die nicht zwingend gleichermaßen steigen müssen. Steigen die Ausgaben relativ stärker als die Einnahmen, kann dies zu erheblichen negativen Abweichungen von den prognostizierten Projekt-Cash-Flows führen. — das Vertragsrisiko. Bei länderübergreifenden Projekten können unterschiedliche Rechtsordnungen der jeweiligen Staaten dazu führen, dass die Beteiligten ihre Rechte nicht wie in ihrem Heimatstaat durchsetzen können. — das politische Länderrisiko. Instabile politische Verhältnisse im Projektstaat können das Projekt beeinträchtigen. Dazu zählen Probleme bei den Genehmigungsverfahren, den Konzessionsvergaben sowie veränderte Gesetze und Regulierungsvorschriften, die sich nachteilig auswirken. — das wirtschaftliche Länderrisiko. Dazu gehören alle Risiken, die sich aus einer erheblich verschlechterten Wirtschaftslage im Projektstaat ergeben. So können Beschränkungen des Zahlungsverkehrs dazu führen, dass Gewinnausschüttungen an Projektbeteiligte zeitlich und/oder der Höhe nach eingeschränkt werden. — das Force-Majeure-Risiko. Darunter versteht man alle Risiken aufgrund höherer Gewalt. Dazu zählen Naturkatastrophen wie Sturm, Brände, Überflutungen und Erdbeben sowie politisch-soziale Ereignisse wie Enteignung, Sabotage, Terrorismus, Generalstreik, Aufstände oder Krieg. Frage 2: Auf welchen Teil der Planung wirkt sich das Zinsänderungsrisiko vor allem aus? III. Bewertung der Risiken 1. Finanzmodelle als Grundlage für die Risikobewertung Lässt sich das Projekt durchführen? Treten einzelne oder mehrere projektspezifische Risiken ein, kann das erhebliche Folgen für das Projekt haben. Die Risiken wirken als negative Parameter unmittelbar oder mittelbar auf die für die Projektlaufzeit prognostizierten Projekt-Cash-Flows ein. Die Analyse der Wirtschaftlichkeit und Risikostruktur des Projekts erfolgt daher üblicherweise in Form einer Cash-Flow-basierten Tragfähigkeitsanalyse, bei der die Höhe des Barwertes der erwarteten Projekt-Cash-Flows der wesentliche Indikator ist. Finanzmodell Die Tragfähigkeitsanalyse wird regelmäßig durch ein Finanzmodell abgebildet. Dabei handelt es sich um ein umfangreiches, komplexes, IT-basiertes Entscheidungsmodell, mit dessen Hilfe die wirtschaftlichen Aspekte der Projektfinanzierung ex ante geplant, strukturiert und optimiert sowie ex post kontrolliert werden. Es wird meist mithilfe einer Tabellenkalkulations-Software wie Microsoft Excel erstellt. Anhand des Finanzmodells werden die Wirtschaftlichkeit, die Kreditfähigkeit und die Risikostruktur des Projekts analysiert und beurteilt, um seine Durchführbarkeit zu ermitteln (vgl. Decker, S. 60 ff.; Wolf/Hill/Pfaue, S. 106 ff.; Yescombe, S. 251 ff.). 2. Prognose der Projekt-Cash-Flows Deckung des Kapitaldienstes durch Cash-Flow-Szenarien Die Prognose der Projekt-Cash-Flows bildet den Kern der Risikobewertung. Diese Cash Flows resultieren aus der Differenz der Projekteinzahlungen (z.B. Projekterlöse) und der Projektauszahlungen (z.B. Betriebs- und Finanzierungskosten sowie Steuern). In der Praxis werden die Cash Flows regelmäßig mithilfe der Szenariotechnik für drei verschiedene, als realistisch eingeschätzte künftige Umweltzustände prognostiziert: Beim Base-Case-Szenario wird angenommen, dass der wahrscheinlichste Umweltzustand WISU 1/13 83 BETRIEBSWIRTSCHAFTSLEHRE eintritt — auf ihm beruht das Finanzierungskonzept. Das Best-Case-Szenario (WorstCase-Szenario) zeigt die günstigste (ungünstigste) Umweltentwicklung auf. Auf der Grundlage der jeweiligen Annahmen wird so implizit der Nichteintritt bzw. Eintritt bestimmter Projektrisiken wiedergegeben. Es muss geprüft werden, ob der Kapitaldienst (d.h. Zinsen und Tilgungen) während der Projektlaufzeit auch im schlechtesten Fall durch die erwarteten Cash Flow abgedeckt wird oder ob die Finanzierung angepasst werden muss, Reservekonten eingerichtet oder Nachschussverpflichtungen der Projekteigentümer vereinbart werden müssen. Die Fremdkapitalgeber entscheiden erst nach einer detaillierten Analyse der drei Szenarien, ob das Projekt aus ihrer Sicht kreditwürdig und damit „bankfähig“ ist (vgl. Böttcher/Blattner, S. 109 f.; Wolf/Hill/Pfaue, S. 111 f.). 3. Verfahren der Risikobewertung Bei der Risikobewertung wird vorwiegend auf die Kennzahlenanalyse, Szenariotechnik und Sensitivitätsanalyse zurückgegriffen (vgl. Decker, S. 110 ff.; Tytko 1999, S. 155 ff.; Wolf/Hill/Pfaue, S. 106 ff.). Analyse relevanter Kennzahlen Die für die Eigenkapitalgeber wesentlichen Kennzahlen sind z.B. der Kapitalwert (Net Present Value, NPV) und der interne Zinsfuß (Internal Rate of Return, IRR) des Projekts. Für die Fremdkapitalgeber sind Kennzahlen relevant, die eine Aussage dazu ermöglichen, ob und inwieweit die prognostizierten Projekt-Cash-Flows vor Abzug des Kapitaldienstes ausreichen, um den erforderlichen Kapitaldienst während der Projektlaufzeit zu finanzieren. Dazu zählt zum einen das maximale Verschuldungspotenzial als Barwert der für die Projektlaufzeit prognostizierten Projekt-Cash-Flows vor Abzug des Kapitaldienstes. Zum anderen wird mittels der Annual Debt Service Cover Ratio (ADSCR) jährlich gemessen, wie hoch der Quotient aus Projekt-Cash-Flow vor Abzug des Kapitaldienstes und dem Kapitaldienst selbst ist. Schließlich wird mit der Loan Life Cover Ratio (LLCR) das Verhältnis des Barwerts der prognostizierten Projekt-Cash-Flows vor Abzug des Kapitaldienstes bis zur vollständigen Rückzahlung des Kreditbetrags zu dem zu diesem Zeitpunkt insgesamt noch ausstehenden Kreditbetrag ermittelt. Eine Variante der LLCR ist die Project Life Cover Ratio (PLCR), bei der die bis zum Ende der Projektlaufzeit prognostizierten Projekt-Cash-Flows vor Abzug des Kapitaldienstes ins Verhältnis zum zu diesem Zeitpunkt insgesamt noch ausstehenden Kreditbetrag gesetzt werden. Bei den Fremdkapitalgeber-Kennzahlen werden regelmäßig Benchmark-Größen herangezogen, wobei je nach Risikostruktur der Branche und des Projekts Quotienten von jeweils deutlich über 1,0 gefordert werden. Abb.: Die wesentlichen Kennzahlen für Eigen- und Fremdkapitalgeber (NPV: Net Present Value, IRR: Internal Rate of Return, Vmax: maximales Verschuldungspotenzial, LLCR: Loan Life Cover Ratio, PLCR: Project Life Cover Ratio, t: Projektperiode, m: bestimmte Projektperiode (mit 0 m T bzw. n), T: Kreditlaufzeit, n: Projektlaufzeit, CFEK: Cash Flow nach Abzug des Kapitaldienstes, CFGK: Cash Flow vor Abzug des Kapitaldienstes, i: Kalkulationszinssatz, I: Zinszahlung, R: Tilgungszahlung, K: ausstehender Kreditbetrag) Sensitivitätsanalyse WISU 84 1/13 Neben den genannten Kennzahlen und der Szenariotechnik wird die Sensitivitätsanalyse angewandt. Bei Sensitivitätsanalysen wird mit verschiedenen Annahmen (z.B. hinsichtlich Zinsen, Wechselkursen oder Inflation) sowie Input- und Output-Größen (z.B. Roh- BETRIEBSWIRTSCHAFTSLEHRE stoff- und Absatzpreise und -mengen, Bauzeiten und -kosten) gearbeitet, um zu ermitteln, welchen Einfluss dies auf die Cash Flows, die Kennzahlen und damit auf die wirtschaftliche Tragfähigkeit und Risikostruktur des Projekts hat. Ferner wird ermittelt, wo die kritischen Schwellenwerte der Annahmen und Größen liegen. Frage 3: Welcher wesentliche Aspekt muss beim Worst-Case-Szenario überprüft werden? Welche Maßnahmen sind ggfs. zu treffen? IV. Reduzierung und Zuordnung der Risiken Risikoübernahme und Risikotragfähigkeit Die Projektrisiken müssen — soweit möglich — durch geeignete Maßnahmen reduziert und den Projektbeteiligten zugeordnet werden. Bei dieser Risikoallokation müssen die Projektbeteiligten durch entsprechende Anreize zur vertraglichen Risikoübernahme motiviert werden. Zuvor müssen jedoch ihre wirtschaftliche Leistungsfähigkeit und ihre Kreditwürdigkeit ermittelt werden. Die Zuteilung der Risiken hängt letztlich auch von deren rechtlichen Durchsetzbarkeit und der Verhandlungsstärke der Beteiligten ab (vgl. Böttcher/Blattner, S. 35 f.; Tytko 2003, S. 16 ff.). 1. Projektendogene Risiken Die projektendogenen Risiken werden üblicherweise so reduziert und zugeordnet (vgl. Böttcher, S. 73 ff.; Reuter, S. 75 ff.; Schulte-Althoff, S. 112 ff.): Fertigstellungsrisiko Betriebsund Managementrisiko Technisches Risiko im engeren Sinn Zuliefer-, Marktund Absatzrisiko Abandon-Risiko — Die Anlagen werden unter Androhung von Vertragsstrafen von leistungsstarken Dritten zum Festpreis erstellt, womit das Fertigstellungsrisiko weitgehend auf diese abgewälzt wird. Die Projekteigentümer müssen den Fremdkapitalgebern oft Fertigstellungsgarantien einräumen und/oder sich ihnen gegenüber zu Nachschüssen verpflichten. — Das Betriebs- und Managementrisiko wird entweder von Projektbeteiligten wie den Projekteigentümern oder Anlagenlieferanten getragen, die diese Tätigkeiten übernehmen. Es kann auch auf externe Projektmanagementgesellschaften übertragen werden. Variable Vergütungsanteile und Vertragsstrafen sollen sicherstellen, dass das Projekt erfolgreich abgeschlossen wird. — Durch Expertengutachten, moderne Technologien, Leistungsgarantien und die Vereinbarung von Vertragsstrafen wird versucht, das technische Risiko im engeren Sinn zu beherrschen. — Die Zuordnung des Zuliefer-, Markt- und Absatzrisikos hängt von den jeweiligen Marktverhältnissen und davon ab, in welchem Maße die Lieferanten und Kunden in das Projekt eingebunden sind. Aufgrund umfassender Unternehmens-, Branchenund Marktanalysen werden Preise, Mengen und Qualitäten der Vormaterialien und der Projektprodukte in Zuliefer- bzw. Abnahmeverträgen möglichst langfristig festgelegt. Der Risikoteilung dienen häufig Preisbindungsklauseln und Höchstpreisvereinbarungen. — Das Abandon-Risiko kann den Projekteigentümern zugeordnet werden, indem diese die Projektgesellschaft zum einen angemessen mit Eigenkapital ausstatten und sich zum anderen zu einer Mindesthaltedauer und Mindestbeteiligung verpflichten müssen. 2. Projektexogene Risiken Die projektexogenen Risiken werden in der Regel so reduziert und zugeordnet (vgl. Böttcher/Blattner, S. 74 ff.; Reuter, S. 75 ff.; Schulte-Althoff, S. 112 ff.): Reserveund Ressourcenrisiko Technisches Risiko im weiteren Sinn Wechselkursrisiko Zinsänderungsrisiken Inflationsrisiko — Dem Reserve- und Ressourcenrisiko wird im Vorfeld durch Sachverständigengutachten zur Qualität des Standortes und z.B. zu Probebohrungen entgegengewirkt. Soweit möglich werden oft die Nachlieferung oder der Ankauf gleichartiger Reserven bzw. Rohstoffe zwischen den Projektbeteiligten vereinbart. — Durch neuartige, jedoch bereits in der Praxis erprobte Anlagen wird versucht, das technische Risiko im weiteren Sinn zu reduzieren. — Das Wechselkursrisiko kann in der Errichtungsphase durch Liquiditätsnachschüsse der Projekteigentümer sowie durch Währungsderivate abgesichert werden. — Mithilfe von Festzinsvereinbarungen, Zinsderivaten und Zinsbegrenzungen lassen sich die Zinsänderungsrisiken zwischen Projekteigentümern und Fremdkapitalgebern verteilen. — Wird das Inflationsrisiko nicht durch Preisanpassungsklauseln in den Projektverträgen abgefedert, verbleibt es bei den Projekteigentümern und Fremdkapitalgeber. WISU 1/13 85 BETRIEBSWIRTSCHAFTSLEHRE Vertragsrisiko Politische und wirtschaftliche Länderrisiken Force-Majeure-Risiken — Dem Vertragsrisiko wird begegnet, indem die Anwendung eines bestimmten Rechts (z.B. deutsches Recht), ein bestimmter Gerichtsstand oder ein Schiedsverfahren vereinbart wird. — Politische und wirtschaftliche Länderrisiken lassen sich durch die Einbeziehung von Länder-Ratings, durch staatliche Exportkreditversicherungen, die Einbindung des Projektstaates und internationaler Organisationen sowie durch Investitionsschutzabkommen zwischen den einzelnen Staaten beherrschen. — Force-Majeure-Risiken müssen zum einen genau vertraglich bestimmt werden. Zum anderen muss festgelegt werden, welche Projektbeteiligten bei Eintritt welcher Ereignisse in welchem Umfang und für welchen Zeitraum von ihren Verpflichtungen freigestellt werden und in welchen Fällen und in welchem Umfang Projektbeteiligten Garantien gewährt werden. V. Übergeordnete Maßnahmen des Risikomanagement Die Risiken einer Projektfinanzierung können häufig nur zum Teil von den einzelnen Projektbeteiligten übernommen und wirtschaftlich getragen werden. Darüber hinaus sind übergeordnete Maßnahmen des Risikomanagement erforderlich (vgl. Böttcher/Blattner, S. 99 ff.). — Es muss ein umfassendes, auf dem Finanzmodell beruhendes Informationssystem eingerichtet werden, das die Eigen- und Fremdkapitalgeber anhand kritischer Kennzahlen rechtzeitig über ungünstige Entwicklungen des Projekts informiert. — Es ist eine Finanzierungsstruktur zu entwickeln, die den Präferenzen der Eigen- und Fremdkapitalgeber hinsichtlich Renditeerwartung und Risikobereitschaft entspricht. — Es bedarf anreizkompatibler Verträge, die bei den Projektbeteiligten zu einem angemessenen Ausgleich zwischen ihren Leistungen (einschließlich ihres Risikos) und ihren Vorteilen (d.h. Rendite und sonstige Vorteile) führt und die so dafür sorgen, dass alle gleichermaßen am Projekterfolg interessiert sind. — Es müssen Versicherungen (Sach-, Montage-, Betriebsunterbrechungs-, Exportkredit-, Force-Majeure-Versicherungen etc.) abgeschlossen und die üblichen Kreditsicherheiten (Pfandrechte, Sicherungsübereignungen, Forderungsabtretungen, Garantien Dritter etc.) gestellt werden, um die Risiken der Projektbeteiligten weiter zu reduzieren. Frage 4: Ist es sinnvoll, eine Art Frühwarnsystem bei Projektfinanzierungen zu schaffen? Worauf kann dabei zurückgegriffen werden? Literatur: Böttcher, J.: Finanzierung von Erneuerbare-Energien-Vorhaben. München 2009. Böttcher, J ./Blattner, P.: Projektfinanzierung. 2. Aufl., München 2010. Clifford Chance (Hrsg.): Project Finance. London 1991. Decker, C.: Internationale Projektfinanzierung. Konzeption und Prüfung. Norderstedt 2008. Kümmel, J./Kottmann, E./Höfer, H.: Projektfinanzierung. In: WISU, 41. Jg. (2012), S. 1465 - 1470. Reuter, A.: Projektfinanzierung. Anwendungsmöglichkeiten, ÖPP und Infrastrukturfinanzierung, Risikomanagement, Vertragsgestaltung, Kapitalmarkt, bilanzielle Behandlung. 2. Aufl., Stuttgart 2010. Schulte-Althoff, M.: Projektfinanzierung. Ein kooperatives Finanzierungsverfahren aus Sicht der AnreizBeitrags-Theorie und der Neuen Institutionenökonomik. Münster/Hamburg 1992. Tytko, D.: Grundlagen der Projektfinanzierung. In: Backhaus, K./Werthschulte, H. (Hrsg.): Projektfinanzierung. Wirtschaftliche und rechtliche Aspekte einer Finanzierungsmethode für Großprojekte. 2. Aufl., Stuttgart 2003, S. 11 - 36. Tytko, D.: Grundlagen der Projektfinanzierung. Stuttgart 1999. Wolf, B./Hill, M./Pfaue, M.: Strukturierte Finanzierungen. Grundlagen des Corporate Finance, Technik der Projekt- und Buy-out-Finanzierung, Asset-Backed-Strukturen. 2. Aufl., Stuttgart 2011. Yescombe, E.R.: Principles of Project Finance. Amsterdam et al. 2002. Die Fragen werden im WISU-Repetitorium beantwortet. WISU 86 1/13 BETRIEBSWIRTSCHAFTSLEHRE Logistik Grüne Logistik Prof. Dr. Edeltraud Günther, Dresden Neben Wertschöpfungsstufen wie Beschaffung, Produktion und Absatz kommt der Logistik als übergreifender Wertschöpfungsstufe eine besondere Rolle bei der Verfolgung von Umweltzielen zu. I. Einleitung Wenn sich Unternehmen Umweltziele setzen und sie realisieren wollen, können die Wertkette von Porter (vgl. Porter, S. 67 ff.) bzw. der darauf aufbauende Wertschöpfungskreis (vgl. Günther, S. 172 ff.) als Orientierungshilfen dienen. Hier geht es um die Wertschöpfungsstufe Logistik. Zur richtigen Zeit, in der richtigen Menge, am richtigen Ort Die Aufgabe der Logistik ist es, die Verfügbarkeit von Gütern, Ressourcen, Personen und Informationen zur richtigen Zeit in der richtigen Menge am richtigen Ort zur Verfügung zu stellen. Damit kann sie generell als das Management von Güter-, Ressourcen-, Personen- und Informationsströmen verstanden werden (vgl. Stölzle/Jung, S. 31). Mithilfe der Logistik werden die unternehmensinternen Abläufe „Planung, Ausführung und Steuerung der Bewegung und der Bereitstellung von Menschen und/oder Waren und der unterstützenden Tätigkeiten in Bezug auf diese Bewegung und Bereitstellung innerhalb eines zum Erreichen spezieller Ziele organisierten Systems“ (DIN EN 14943, Punkt 3.575) optimiert. Bereichsübergreifende Ausrichtung Um alle primären Funktionen des Leistungserstellungsprozesses zu verknüpfen, müssen diese Aktivitäten bereichsübergreifend ausgerichtet werden. Zu den Logistikaufgaben gehören entsprechend ihrer Zielsetzung alle operativen und dispositiven Tätigkeiten, die räumlich-zeitliche Gütertransfers einschließlich der damit verbundenen Veränderungen der Gütermengen und -sorten bewirken. Auf diese Weise sollen die Güter bedarfsgerecht und kosteneffektiv bereitgestellt werden. Multivariates Netzwerk Logistik ist somit keine exakt definierte Unternehmensfunktion, sondern ein multivariates Netzwerk, um diese Ziele zu erreichen. Üblicherweise wird sie in Beschaffungs-, Produktions- und Distributionslogistik untergliedert. — Die Beschaffungs- und Distributionslogistik nehmen die externen Aufgaben der Beschaffung von Einsatzfaktoren bzw. des Vertriebs der Produkte wahr. — Die Produktionslogistik beschäftigt sich primär mit internen Aufgaben, d.h. der Planung, Steuerung und Kontrolle von Warenflüssen innerhalb des Unternehmens. Logistikmanagement Zur Umsetzung der Logistikaufgaben bedarf es eines Logistikmanagements, das diese Aufgaben wahrnimmt (vgl. Stölzle/Jung, S. 31 ff.; Pfohl/Stölzle, S. 572): — — — — — — — Minimierung der Bestände, Minimierung der Durchlaufzeiten, Minimierung von Terminabweichungen, Minimierung von Fehlern und Störungen, Minimierung der Umrüstzeiten, Minimierung der Kosten sowie Optimierung des administrativen und operativen Handlings. Frage 1: Wie beschreibt die Norm DIN EN 14943 die Aufgaben der Logistik? II. Umweltrelevanz Die Umweltrelevanz der Logistik lässt sich aus dem Anteil des Energieverbrauchs und der Emissionen des Güterverkehrs, aber auch des Personenverkehrs, soweit es um Dienstreisen geht, ableiten. Transportketten im Güterverkehr in Verbindung mit Lieferanten-, Produktions- und Kundenstandorten können bei Einsatz verschiedener Verkehrsträger und Verkehrsmittel, die einen spezifischen Ressourcenverbrauch und spezifische Umweltwirkungen haben, geplant werden. Perspektive des Entscheidungsträgers Um die Umweltleistung von Transportprozessen zu bestimmen, wird die Perspektive eines Entscheidungsträgers, der diese optimieren will, gewählt, wobei die Beschaffung einer umweltfreundlichen Transportleistung im Zentrum der Überlegungen steht. WISU 1/13 87 BETRIEBSWIRTSCHAFTSLEHRE Besonderheiten Die Leistungserstellung und die Rahmenbedingungen können mehrere Besonderheiten aufweisen, die in die Überlegungen einbezogen werden müssen: — — — — — Wesentliche Umweltaspekte vielfältige Geschäftsfelder, mehrere Standorte, besondere Reglementierung der Entsorgungsbranche, Übernahme öffentlicher Aufträge, beschränkte Ressourcen des Unternehmens bei verstärkter Konkurrenz. Bei umweltfreundlichen Logistikprozessen und Teilprozessen wie Transport, Umschlag, Lagerung und Entsorgung von Hilfs- und Betriebsstoffen, Verpackungen und Behältern geht es in erster Linie um diese Umweltaspekte (vgl. Maibach/Peter/Seiler, S. 19): — — — — — Emissionen in der Luft (CO, CO2, N2O, NOx, CH4, NMVOC, SO2, Partikel), Wasser- und Bodenbelastungen (Kraft- und Betriebsstoffe), Lärm (Lärmemissionen), Flächenverbrauch (Infrastruktur), Unfälle (Schadstoffe im Transportgut). Frage 2: Welche Umweltaspekte spielen bei Logistikprozessen eine besondere Rolle? III. Ökologieorientierte Logistik Bei ökologieorientierter Logistik (Green Logistics) lassen sich zwei Wirkungsrichtungen unterscheiden: — Logistik beim Umweltschutz (Entsorgungslogistik) und — Umweltschutz bei der Logistik (Logistik aller anderen Funktionsbereiche). Die Abbildung gibt einen Überblick über die funktionelle Einordnung der Entsorgungslogistik und ihre Verbindung zu den anderen betrieblichen Funktionsbereichen (vor allem im Hinblick auf die systemische Konzeption der Entsorgungslogistik; vgl. Stahlmann, S. 125). Abb.: Einordnung der Entsorgungslogistik (in Anlehnung an Lasch/Günther, S. 154, 160) Frage 3: Wodurch unterscheiden sich die beiden Perspektiven „Logistik beim Umweltschutz“ und „Umweltschutz bei der Logistik“? IV. Entsorgungslogistik Durch die ökologische Orientierung des Unternehmens werden die traditionellen Bereiche der Logistik um die Funktionen Entsorgungs- und Informationslogistik ergänzt bzw. erweitert. WISU 88 1/13 BETRIEBSWIRTSCHAFTSLEHRE Ökonomische und ökologische Ziele Unter Entsorgungslogistik wird die Anwendung der Logistikkonzeption auf die Kondukte (von lat. conducere = mitführen) verstanden, d.h. des unerwünschten Outputs, der mit den Produkten entsteht, um einen ökonomisch und ökologisch effizienten Konduktkreislauf zu erzielen. Die Entsorgungslogistik verfolgt damit sowohl ökonomische als auch ökologische Ziele. Zu den ökonomischen Zielen, d.h. der Frage, wie sich entsorgungslogistische Abläufe wirtschaftlicher gestalten lassen, gehört z.B. der Ausbau logistischer Dienstleistungen und die Kostenreduzierung durch Rationalisierungsmaßnahmen. Bei den ökologischen Zielen geht es um eine verminderte Inanspruchnahme natürlicher Ressourcen, z.B. durch Recycling-Maßnahmen (Input) oder die verminderte Inanspruchnahme der natürlichen Umwelt (Output). Mithilfe der Entsorgungslogistik soll also das richtige Kondukt zum richtigen Zeitpunkt am richtigen Ort im richtigen Zustand abgenommen bzw. angeliefert werden. Entsorgungsservice Beim Entsorgungsservice kann zwischen input- und output-orientierter Sicht unterschieden werden: Die input-orientierte Sicht bezieht sich auf die Anlieferung von Kondukten an die Orte ihrer Verwertung bzw. Beseitigung, während sich die output-orientierte Sicht auf die Entsorgung der Kondukte an den Anfallorten konzentriert (vgl. Stölzle/Jung, S. 33; Pfohl/Stölzle, S. 575 f.). V. Konzeption der Entsorgungslogistik Handlungsmaxime Die Logistik des Versorgungsbereichs wird durch die Handlungsmaxime System-, Gesamtkosten-, Service- und Effizienzdenken bestimmt. Übertragen auf die Entsorgungslogistik bedeutet dies a) im Hinblick auf das Systemdenken: Entstehung, Sammlung, Lagerung, Umschlag, Transport und Behandlung von Kondukten können als Vorgänge eines unternehmens- oder funktions- bzw. bereichsübergreifenden Systems in der Entsorgungslogistik gesehen werden. Zur Umsetzung dieser bereichsübergreifenden Aufgaben bedarf es automatisierter Systeme in den Bereichen Sammlung, Lagerung und Transport sowie eines entsorgungslogistischen Informationssystems. Dessen Aufgabe ist es, die am Logistikprozess beteiligten internen Unternehmensbereiche miteinander zu verbinden und ihnen mithilfe vernetzter Datensysteme die notwendigen Informationen zur Verfügung zu stellen. b) im Hinblick auf das Gesamtkostendenken: Auch bei der Entsorgungslogistik treten ökonomische Zielkonflikte auf. So verursacht die Reduzierung des Konduktevolumens einerseits direkt höhere Kosten (z.B. durch Presseinrichtungen an Sammelfahrzeugen), andererseits kann der Transport wegen des dann besseren Volumen-Gewicht-Verhältnisses der Kondukte kostengünstiger durchgeführt werden. Darüber hinaus kann es auch zu Konflikten zwischen den ökonomischen und ökologischen Zielen kommen, etwa bei der Entsorgung von Nuklearabfällen, ein wegen der noch nicht absehbaren Umwelteinwirkungen ökologisches Problem. Dies macht deutlich, dass bei entsorgungslogistischen Entscheidungen ökonomische und ökologische Einflussgrößen berücksichtigt werden müssen. c) im Hinblick auf das Service-Denken: Das Service-Denken kann sich bei einer entsorgungslogistischen Konzeption auf die Abnahme der Kondukte am Ort im Unternehmen, an dem sie auftreten, beziehen, wie auch auf die Lieferung von Behandlungs-, Aufbereitungs- und Produktionsanlagen. In beiden Fällen gilt es, das richtige Kondukt in der richtigen Art und Menge zur richtigen Zeit am richtigen Ort und im richtigen Zustand (im Sinne von sicherem Zustand) abzunehmen bzw. anzuliefern. Damit sind die wesentlichen Service-Komponenten Zeit, Zuverlässigkeit, Beschaffenheit und Flexibilität bei den entsorgungslogistischen Leistungen zu beachten. d) im Hinblick auf das Effizienzdenken: Bei dieser Maxime spielen insbesondere technische, ökonomische und ökologische Einflussgrößen eine Rolle. So hängt die Gestaltung entsorgungslogistischer Abläufe einerseits wesentlich vom Stand der Umwelttechnik ab, andererseits entscheiden wirtschaftliche und ökologische Überlegungen darüber, welche entsorgungslogistische Technik eingesetzt wird. Frage 4: Welche Handlungsmaxime bestimmen die Entsorgungslogistik? WISU 1/13 89 BETRIEBSWIRTSCHAFTSLEHRE VI. Aufgaben der Entsorgungslogistik Logistikprozesse des Beschaffungsbereichs sind ausschlaggebend Die Aufgaben der Entsorgungslogistik leiten sich aus den Logistikprozessen des Beschaffungsbereichs ab, wobei hier teilweise andere Schwerpunkte bei der Erfüllung der Aufgaben gesetzt werden müssen und neue Tätigkeitsbereiche hinzutreten (z.B. die Sammlung und Trennung von Kondukten). Es geht um die Lagerung, den Transport und Umschlag von Kondukten als typische logistische Aufgaben und um ihre Sammlung und Trennung sowie um die Behälterwahl und die Auftragsabwicklung als neue Aufgaben. Aufbereitung und Behandlung gehören nicht zur Logistik im eigentlichen Sinn, jedoch zu den Aufgaben eines Entsorgungslogistikunternehmens (vgl. Pfohl/Stölzle, S. 581). Die Kondukttransformationen hängen insofern zusammen, als jede Transformationsstufe die jeweils vorherige(n) einschließt. Ebenso sind die entsorgungslogistischen Prozesse nicht voneinander zu trennen, sondern weisen Interdependenzen auf, z.B. ist der Umschlag mit den Transportvorgängen verbunden. Die Zuordnung der Transformationsstufen zu den Logistikprozessen erfolgt somit nach dem jeweiligen Schwerpunkt der Prozesse. Lagerung — Lagerbestände von Kondukten sind Puffer zwischen den verschiedenen Konduktflüssen, d.h. Puffer zwischen dem Zeitpunkt der Entstehung und dem Zeitpunkt des Abtransportes zu den Verwertungs-/Beseitigungsanlagen. Sie können somit vor Unsicherheit schützen, etwa wenn die Belieferung ausfällt, sie können aber auch die Spezialisierung unterstützen oder der Spekulation bei erwarteten Preissteigerungen dienen. Die Standortwahl bei Konduktlägern ist davon abhängig, wo die Kondukte anfallen, von einem kostengünstigsten Umschlagplatz hinsichtlich der Verkehrswege und -träger sowie vom Standort der Entsorgungsanlagen. Bei der Standortwahl eines Konduktlagers geht es darum, Transport- und Lagerhauskosten im Sinne einer Gesamtkostenbetrachtung gegeneinander abzuwägen und den Standort zu ermitteln, der zu minimalen Kosten führt. Transport — Es kann zwischem innerbetrieblichem und außerbetrieblichem (zu den Entsorgungsanlagen) Transport unterschieden werden. Aufgrund des Kreislaufwirtschaftsund Abfallgesetz (KrW-/AbfG) ergeben sich für den Transport ebenfalls neue Aufgaben: Die gesetzliche Kreislaufführung der Kondukte kann die Frage nach neuen bzw. zusätzlichen (inner- und außerbetrieblichen) Transportwegen und -mitteln aufwerfen. Bei der ökologieorientierten Bewertung der Transportprozesse können verschiedene Software-Tools wie UMBERTO, SimaPro, EcoTransIT oder ETIENNE verwendet werden. Umschlag — Mit dem Umschlag wird aufgrund des Zusammenfassens und Auflösens von Kondukten durch Verlade-, Umlade- und Entladeprozessen die Menge geändert. Umschlagvorgänge können dort, wo die Kondukte entstehen, beim Wechsel von Transportmitteln auf Umschlagplätzen bzw. in Aufbereitungs- und Beseitigungsanlagen erfolgen. Durch neuere Techniken können sich Rationalisierungspotenziale ergeben, etwa wenn die Sammelbehälter für die Kondukte gleichzeitig als Einheiten für den Transport benutzt werden, womit auf den Umschlagplätzen nur noch die Behälter selbst umgeladen werden müssen. Sammlung und Trennung — Sammlung und Trennung sind Vorgänge, bei denen die Sortenreinheit der Kondukte erhöht werden soll. Ihre getrennte Sammlung hat eine derartige Bedeutung erlangt, dass Sammlung und Trennung gemeinsam betrachtet werden müssen. Die Trennung ist notwendig, um Konduktgemische in ihre Bestandteile aufzulösen. So können nach KrW-/AbfG Abfälle zur Verwertung und die Abfälle zur Beseitigung ermittelt werden. Die Kondukte können auf verschiedenen Stufen des Entsorgungslogistikprozesses gesammelt und getrennt werden. Die getrennte Sammlung erfolgt dort, wo sie im Unternehmen anfallen, und die so erzielte Sortenreinheit schafft gleich am Anfang des Entsorgungsprozesses die besten Voraussetzungen für Wieder- und Weiterverwendungs- sowie Weiterverwertungsmöglichkeiten. Behälterwahl — Behälter sind in zweierlei Hinsicht von Bedeutung: Zum einen können sie selbst als Kondukte gesehen werden, womit sie zum entsorgungslogistischen Objektbereich gehören. Zum anderen üben sie wesentlichen Einfluss auf die Lager-, Transportund Umschlageigenschaften der Kondukte aus. Die Behälter erfüllen als Lager-, Transport- und Umschlageinheiten logistische Funktionen für die Kondukte, weiterhin auch Umweltschutzfunktionen, da die Behälter verhindern, dass Kondukte am Anfallort oder beim Transport in die natürliche Umwelt gelangen und diese belasten. Hinzu kommen Informationsfunktionen (speziell bei Containern), da an den Behältern Hinweise zur Art der enthaltenen Kondukte und deren Versand- und Bestimmungsort angebracht sind (Kennzeichnungspflicht bei Gefahrgut) sowie Manipulationsfunk- WISU 90 1/13 BETRIEBSWIRTSCHAFTSLEHRE tionen, da die Behälter durch die Art ihrer Beschaffenheit (z.B. standardisierte Form; universell auf Straße, Schiene, Schiff transportierbar) großen Einfluss auf die Kosten der Sammlung und Trennung sowie des Transports haben. VII. Auftragsabwicklung Entsorgungslogistisches Informationssystem Für die Auftragsabwicklung, d.h. die Bearbeitung und Übermittlung von Aufträgen, muss ein entsorgungslogistisches Informationssystem geschaffen werden. Es muss insbesondere diese Aufgaben wahrnehmen, sollen Auftragsabwicklung bzw. Kondukttransport zum Erfolg führen: — Information über die nach § 49 KrW-/AbfG vorgeschriebene Transportgenehmigung, — Informationen über Sonderabfälle und ihre Behandlung (§§ 41 ff. KrW-/AbfG), — Nachweise zur Art, Menge und Beseitigung der Abfälle (Nachweisverfahren für die stets überwachungsbedürftigen „Abfälle zur Beseitigung“ (§§ 42, 43 KrW-/ AbfG) sowie für überwachungsbedürftige „Abfälle zur Verwertung“ (§§ 45, 46 KrW-/AbfG), — Bereitstellung von Unfallmerkblättern, je nach Art des zu transportierenden Konduktes, — Einholung einer Bescheinigung der besonderen Zulassung, — Einholung einer Erlaubnis für die Beförderung bestimmter gefährlicher Güter, — Bereitstellung eventuell erteilter Ausnahmegenehmigungen. Aufbau zwischenund überbetrieblicher Strukturen Im Hinblick auf das KrW-/AbfG ist die wesentliche Herausforderung der Entsorgungslogistik und ihrer einzelnen Aufgabenbereiche der Aufbau von zwischen- und überbetrieblichen Strukturen, um die produktinduzierten Abfälle zurückzuführen (§ 22 KrW-/ AbfG Produktverantwortung). Das erfordert ein flächendeckendes Sammelnetz. Um es zu schaffen, können interindustrielle Kooperationen und damit interindustrielle Logistiknetzwerke wie im Fall des Dualen Systems Deutschland (Grüner Punkt) aufgebaut werden (vgl. Stölzle/Jung, S. 32; Pfohl/Stölzle, S. 580 ff.). Beschaffungs-, Produktionsund Absatzlogistik Der Umweltschutz bei der Logistik bezieht sich auf alle Bereiche außerhalb der Entsorgungslogistik, d.h. auf die Beschaffungs-, Produktions- und Absatzlogistik. Möglichkeiten bieten sich intern bei der Produktionslogistik, etwa durch die Schadstoffreduzierung beim betrieblichen Fuhrpark, oder extern bei der Beschaffungs- und Absatzlogistik, indem auf umweltfreundliche Transportmittel zurückgegriffen wird, und die Verkehrsmittel stärker ausgelastet werden, etwa indem Leerfahrten vermieden oder Routen zusammengelegt werden (Netzplantechnik). Auf diese Weise wird das Transportvolumen reduziert und es werden Transporte vermieden. Konflikt mit just-in-time Die Vermeidung von Transporten erscheint in der Praxis schwierig, da es dem Just-intime-Konzept widerspricht, wonach „ein Produkt oder eine Dienstleistung durch eine geeignete Planung, Steuerung und Kontrolle aller Materialströme und der dazugehörigen Informationsströme just-in-time“ zu erstellen ist, d.h. es ist „ohne Verschwendung von Zeit, Material, Arbeitskraft und Energie entsprechend den Wünschen des Kundes bezüglich Preis, Qualität und Lieferservice bereitzustellen“ (Pfohl, S. 130). Vor- und Nachteile von just-in-time Just-in-time hat insofern Vorteile, als es die Lagerkapazitäten und damit — wegen des geringeren Raumbedarfs — die versiegelte Fläche und auch den Energiebedarf verringert. Ökologische Nachteile ergeben sich durch die Verlagerung der Kapazitäten auf die Straße, was zu höherem Transportaufkommen und Energiebedarf und damit zu mehr Emissionen führt. Just-in-time spielt vor allem beim Gefahrguttransport eine Rolle. Aufgrund der strikten gesetzlichen Auflagen bei der Lagerung von Gefahrstoffen wird versucht, die Lagerung durch Just-in-time-Produktion zu umgehen. Deshalb wird ein Gefahrgutbeauftragter, eine Aufsichtsperson, gem. § 1 Gefahrgutbeauftragten-Verordnung (GbV) bestellt, wenn ein Unternehmen innerhalb eines Jahres mindestens 50 Tonnen netto gefährliche Güter (worunter bestimmte radioaktive Stoffe und nicht nur gelegentlich gefährliche Güter fallen) mit Eisenbahn-, Straßen-, Wasser- und Luftfahrzeugen versendet, befördert, verpackt und/oder verlädt. VIII. Umweltschutz bei der Logistik Frage 5: Nennen Sie Beispiele für den Umweltschutz bei der Logistik. Literatur: Günther, E. Ökologieorientiertes Management, Stuttgart 2008. Lasch, R./Günther, E.: ETIENNE — Effiziente Transportketten in Entsorgungsnetzwerken modular und umweltgerecht gestaltet. Schlussbericht gem. Nr. 3.2 BNBest-BMBF 98. Dresden 2004. WISU 1/13 91 BETRIEBSWIRTSCHAFTSLEHRE Maibach, M./Peter, D./Seiler, B.: Ökoinventar Transporte. Grundlagen für den ökologischen Vergleich von Transportsystemen und den Einbezug von Transportsystemen in Ökobilanzen. Zürich 1999. Pfohl, H.-C.: Logistikmanagement. Berlin 2004. Pfohl, H.-C./Stölzle, W.: Entsorgungslogistik. In: Steger, U. (Hrsg.): Handbuch des Umweltmanagements, S. 571 - 591. München 1992. Porter, M.: Wettbewerbsvorteile. Spitzenleistungen erreichen und behaupten. Frankfurt/Main 2000. Stahlmann, V.: Umweltorientierte Materialwirtschaft. Wiesbaden 1988. Stölzle, W./Jung, K. P.: Strategische Optionen der Entsorgungslogistik zur Realisierung von Kreislaufwirtschaftskonzepten. In: UmweltWirtschaftsForum, H. 1, 4. Jg. (1996), S. 31 - 36. Die Fragen werden im WISU-Repetitorium beantwortet. Die Fallstudie Aktivierung von latenten Steuern auf Verlustvorträge Prof. Dr. Thorsten Jöhnk, Cottbus I. Der Fall Die Umsatzerlöse der Muster GmbH sind in den Jahren 2011 und 2012 gegenüber dem Geschäftsjahr 2010 deutlich zurückgegangen. Während 2011 aufgrund hoher sonstiger Erträgen noch ein ausgeglichenes Jahresergebnis ausgewiesen wurde, ist das vorläufige Jahresergebnis des Geschäftsjahres 2012 deutlich negativ (vgl. Abb. 1). Das bilanzielle Eigenkapital zum 31.12.2012 sinkt entsprechend. MoG) die Möglichkeit eröffnet hat, latente Steuern auf Verlustvorträge zu aktivieren. Er überlegt, ob sich der Rückgang des bilanziellen Eigenkapitals zum 31.12.2012 so mindern lässt. LQ7¼ Umsatzerlöse LQ7¼ Umsatzerlöse Sonstige betriebliche Erträge 2010 2011 2012 Ist Ist vorl. Ist 100.000 97.440 95.932 245 2.270 30 Sonstige betriebliche Erträge 2013 2014 2015 2016 2017 Plan Plan Plan Plan Plan 102.244 103.779 105.334 106.918 108.522 20 0 0 0 0 Materialaufwand -50.355 -51.108 -51.880 -52.388 -53.180 Personalaufwand -30.907 -30.907 -30.907 -32.143 -32.624 -9.417 -9.488 -9.155 -9.364 -7.261 -7.372 -7.482 -7.595 Materialaufwand -50.000 -48.720 -47.966 Abschreibungen -9.345 Personalaufwand -30.000 -30.450 -30.907 Abschreibungen -8.857 -8.929 -8.595 Sonstiger betrieblicher Aufwand -7.154 Sonstiger betrieblicher Aufwand -7.350 -7.420 -7.501 Betriebsergebnis Zinsaufwand Betriebsergebnis Zinsaufwand Ergebnis der gewöhnlichen Geschäftstätigkeit 4.038 4.191 993 -3.740 -3.879 -4.027 298 312 -3.034 0 0 -1.500 Sonstige Steuern -100 -110 -120 Steuern vom Einkommen und vom Ertrag -186 -193 0 12 9 -4.654 Ergebnis der gewöhnlichen Geschäftstätigkeit 4.503 5.086 5.687 5.750 5.759 -4.406 -4.396 -4.393 -4.334 -4.336 97 690 1.294 1.416 1.423 Abb. 2: Geplante Ergebnisse der gewöhnlichen Geschäftstätigkeit a. o. Ergebnis Jahresüberschuss/fehlbetrag Abb. 1: Ergebnisse der Geschäftsjahre 2010 bis 2012 Aufgrund der eingeleiteten Sanierungsmaßnahmen sollen die Ergebnisse der gewöhnlichen Geschäftstätigkeit in den kommenden Jahre deutlich besser ausfallen (Abb. 2). Außerordentliche Ergebnisse werden in diesen Jahren nicht erwartet. Dem Geschäftsführer der Muster GmbH ist auf einer Tagung zu Ohren gekommen, dass das Bilanzrechtsmodernisierungsgesetz (Bil- WISU 92 1/13 II. Aufgaben a) Erläutern Sie dem Geschäftsführer die relevanten handelsrechtlichen Normen bei der Aktivierung von latenten Steuern auf Verlustvorträge. b) Legen Sie ihm die relevanten steuerrechtlichen Vorschriften zu Nutzung von Verlustvorträgen bei Kapitalgesellschaften dar. c) Ermitteln Sie, in welcher Höhe die Muster GmbH maximal latente Steuern auf Verlustvorträge im Jahresabschluss des Geschäftsjahres 2012 ansetzten darf. (Runden Sie auf TEUR auf). Gehen Sie dabei von diesen steuerlichen Rahmenbedingungen für die Muster GmbH aus: Die sonstigen Steuern belaufen sich ab 2013 auf 90.000 EUR p.a. Der Körperschaftssteuersatz inklusive Solidaritätszuschlag beträgt 15,825 Prozent. Die Gewerbesteuermesszahl beträgt 3,5 Prozent, der relevante Gewerbesteuerhebesatz liegt bei BETRIEBSWIRTSCHAFTSLEHRE 400 Prozent. Die Hinzurechnungen und Kürzungen gem. §§ 8 f. GewStG betreffen ausschließlich den Zinsaufwand. III. Lösungen triebs der Körperschaft unbeachtlich“ (Sanierungsklausel). Die EUKommission sieht darin jedoch eine unerlaubte Beihilfe (Entscheidung der EU-Kommission vom 26.1 2011 zur Sanierungsklausel als unzulässige Beihilfe). Die Rechtslage ist deshalb derzeit unklar. Aufgabe a): Aufgabe c): Durch die Neuformulierung des § 274 HGB im Zuge des BilMoG wurde die Berücksichtigung latenter Steuern in handelsrechtlichen Jahresabschlüssen grundlegend geändert. Die Regelung bezieht sich sowohl auf latente Steuerschulden als auch auf latente Steueransprüche. Erstere führen zum Ansatz passiver latenter Steuern in der Bilanz, für die eine Passivierungspflicht besteht (§ 274 Abs. 1 S. 1 HGB). Letztere führen zu aktiven latenten Steuern, für die ein Aktivierungswahlrecht gilt (§ 274 Abs. 1 S. 2 HGB). Bei dem entsprechenden Aktivposten handelt es sich jedoch nicht um einen Vermögensgegenstand, sondern um eine Bilanzierungshilfe. Der Ausweis der passiven und der aktiven latenten Steuern darf sowohl saldiert als auch unsaldiert erfolgen. Die genannten Regelungen zur Nutzung von Verlustvorträgen sind bei der Ermittlung der Steuern vom Einkommen und vom Ertrag der Geschäftsjahre 2013 bis 2017 zu berücksichtigen. Die Ermittlung muss getrennt für die Körperschaftsteuer einschließlich Solidaritätszuschlag und die Gewerbesteuer erfolgen. Die Abb. 3 zeigt die Berechnung für die Körperschaftsteuer einschließlich Solidaritätszuschlag. Gem. § 274 Abs. 1 S. 4 sind steuerliche Verlustvorträge grundsätzlich bei der Ermittlung der aktiven latenten Steuern einzubeziehen. Allerdings dürfen sie nur in der Höhe berücksichtigt werden, in der innerhalb der folgenden fünf Geschäftsjahre voraussichtlich eine Verrechnung mit den erwarteten steuerlichen Gewinnen möglich ist (§ 274 Abs. 1 S. 4 HGB). Die maßgebliche Voraussetzung für die Aktivierung der latenten Steuern auf Verlustvorträge ist demnach der Nachweis, dass entsprechende Verrechnungsmöglichkeiten in Zukunft existieren. Die Beträge sind nicht abzuzinsen (§ 274 Abs. 2 S. 1 HGB). Die Ermittlung der Aktivierungsbeträge hat mit den unternehmensindividuellen Steuersätzen getrennt nach Körperschaftsteuer inklusive Solidaritätszuschlag und Gewerbesteuer zu erfolgen. Steuerrechtsänderungen sind im Allgemeinen zu berücksichtigen, sobald der Bundesrat sie verabschiedet hat. Die Aktivierung der latenten Steuern auf die Verlustvorträge erfolgt erfolgswirksam. Ihr Ausweis erfolgt gesondert in der Gewinn- und Verlustrechnung unter dem Posten „Steuern vom Einkommen und Ertrag (§ 274 Abs. 2 S. 3 HGB). Die Aktivierung von latenten Steuern auf Verlustvorträge hat somit eine Ergebnisverbesserung und eine Erhöhung des bilanziellen Eigenkapitals zur Folge. Es ist allerdings darauf hinzuweisen, dass die Verwendung von Jahresergebnissen aufgrund der Aktivierung von latenten Steuern durch die neu geschaffene Ausschüttungssperre nach § 268 Abs. 8 HBG eingeschränkt wird. Aufgabe b): Relevante steuerrechtliche Vorschriften bei der Nutzung von Verlustvorträgen bei Kapitalgesellschaften sind der § 8 KStG i.V.m. § 10 d EStG und § 10 a GewStG, die zur Mindestbesteuerung führen, sowie der „Verlustuntergang“ nach § 8 c KStG. Gem. § 8 Abs. 1 KStG sind bei der Ermittlung des körperschaftsteuerpflichtigen Gewinns die Gewinnermittlungsvorschriften laut EStG anzuwenden, womit sind die Vorschriften für den Verlustabzug gem. § 10 d EStG relevant sind. Danach sind Verluste zunächst innerperiodisch auszugleichen. Ein verbleibender Verlust darf bis zu 511.500 EUR in den unmittelbar vorangegangenen Veranlagungszeitraum zurückgetragen werden (§ 10 d Abs.1 S. 1 EStG, Verlustrücktrag). Nicht ausgeglichene Verluste, bei denen ein innerperiodischer Ausgleich und ein Verlustrücktrag nicht möglich sind, können gem. § 10 d Abs. 2 EStG zeitlich unbegrenzt bis zu eine Mio. EUR (Sockelbetrag) unbeschränkt, darüber hinaus bis zu 60 Prozent des den Sockelbetrag übersteigenden Gesamtbetrages der Einkünfte abgezogen werden (Verlustvortrag). § 10 a GewStG enthält analoge Regelungen für die Behandlung von Verlusten bei der Gewerbesteuer. Der Verlustuntergang ist in § 8 c KStG geregelt. Gemäß dieser Vorschrift gehen Verlustvorträge grundsätzlich anteilig unter, wenn innerhalb von fünf Jahren mehr als 25 Prozent und bis zu 50 Prozent der Anteile unmittelbar oder mittelbar übertragen werden (§ 8 c Abs. 1 S. 1 KStG). Werden mehr als 50 Prozent unmittelbar oder mittelbar übertragen, gehen sie ganz unter (§ 8 c Abs. 1 S. 2 KStG). Zwar hat der Gesetzgeber eine Erleichterung für Sanierungsfälle gem. § 8 c Abs. 1 a KStG vorgesehen. Danach ist § 8 c Abs. 1 KStG bei einem „Beteiligungserwerb zum Zweck der Sanierung des Geschäftsbe- Ergebnis der gewöhnlichen Geschäftstätigkeit sonstige Steuern Bemessungsgrundlage I Verlustvortrag 2013 2014 2015 2016 2017 7¼ 7¼ 7¼ 7¼ 7¼ 97 690 1.294 1.416 1.423 -90 -90 -90 -90 -90 7 600 1.204 1.326 1.333 4.654 4.647 4.047 2.925 1.729 Verlustnutzung I -7 -600 -1.000 -1.000 -1.000 Verlustnutzung II 0 0 -122 -196 -200 Bemessungsgrundlage II 0 0 82 130 133 Körperschaftsteuer (15,825%) 0 0 13 21 21 Körperschaftsteuer ohne Verlustvorträge (15,825%) 1 95 191 210 211 Differenz 1 95 178 189 190 Abb. 3: Ermittlung der Körperschaftsteuern der Jahre 2013 bis 2017 Zur Ermittlung der Steuerbemessungsgrundlage sind die geplanten Betriebsergebnisse um den Zinsaufwand und die sonstigen Steuern zu reduzieren. Ausgehend von der daraus resultierenden Bemessungsgrundlage I sind die Verlustvorträge zu beachten. In den Planjahren 2013 und 2014 liegt die Bemessungsgrundlage unterhalb des Sockelbetrags von einer Mio. EUR. Es ist eine vollständige Verrechnung mit dem Verlustvortrag möglich, der sich entsprechend reduziert. Die Regelungen zur Mindestbesteuerung haben keine Bedeutung. Körperschaftsteuern fallen in den beiden Jahren nicht an. 2015 ist die Bemessungsgrundlage hingegen um 204 TEUR höher als der Sockelbetrag. Von diesem übersteigenden Betrag können nur 60 Prozent (122 TEUR) mit dem Verlustvortrag verrechnet werden, der Restbetrag von 82 TEUR unterliegt der Besteuerung. Daraus resultieren Körperschaftsteuern von 13 TEUR. Entsprechende Überlegungen sind auch für die Jahre 2016 und 2017 anzustellen. Ohne den Verlustvortrag wäre die Körperschaftsteuer durch Multiplikation der Bemessungsgrundlage I mit dem Körperschaftsteuersatz inklusive Solidaritätszuschlag abzuleiten. Die entsprechenden Werte sind ebenfalls in Abb. 3 wiedergegeben. Von dem körperschaftsteuerlichen Verlustvortrag können bei Realisierung der Planergebnisse in den Jahren 2013 bis 2017 4.125 TEUR genutzt werden. Damit können für Körperschaftsteuer inklusive Solidaritätszuschlag latente Steuern von 653 TEUR (4.125 TEUR · 15,825%) aktiviert werden. Dieser Betrag entspricht auch der Differenz der Körperschaftsteuer einschließlich Solidaritätszuschlag der Jahre 2013 bis 2017 mit und ohne Berücksichtigung des Verlustvortrags. Die Ableitung der Gewerbesteuer bei Berücksichtigung der Nutzung des Verlustvortrags aus dem Geschäftsjahr 2012 kann grundsätzlich in analoger Weise erfolgen. Allerdings sind die Unterschiede zwischen den Bemessungsgrundlagen für Körperschaft- und Gewerbesteuer, die aus den Hinzurechnungen und Kürzungen gem. §§ 8 f. GewStG resultieren, zu berücksichtigen. Entsprechend der Aufgabe sind hier nur diejenigen Zinsaufwendungen relevant, die — nach Beachtung des Freibetrags von 100 TEUR — zu 25 Prozent hinzuzurechnen sind. WISU 1/13 93 BETRIEBSWIRTSCHAFTSLEHRE Dieser Sachverhalt führt auch dazu, dass der gewerbesteuerliche Verlustvortrag aus dem Jahr 2012 eine andere Höhe hat als der körperschaftsteuerliche Verlustvortrag. Bei einem Zinsaufwand im Geschäftsjahr 2012 von 4.027 TEUR beläuft sich der Unterschied auf rund 982 TEUR ((4.027 TEUR 100 TEUR)/4), womit der gewerbesteuerliche Verlustvortrag 3.672 TEUR beträgt. Unter Berücksichtigung der Zinsaufwendungen sowie der Mindestbesteuerung stellt sich die Ermittlung des Gewerbesteueraufwandes so dar (Abb. 4): Ergebnis der gewöhnlichen Geschäftstätigkeit 2013 2014 2015 2016 2017 7¼ 7¼ 7¼ 7¼ 7¼ 690 1.294 1.416 1.423 -90 -90 -90 -90 -90 7 600 1.204 1.326 1.333 4.406 4.396 4.393 4.334 4.336 -100 -100 -100 -100 -100 Zwischensumme II 4.306 4.296 4.293 4.234 4.236 Hinzurechnungsbetrag (25%) 1.077 1.074 1.073 1.059 1.059 Bemessungsgrundlage I 1.084 1.674 2.277 2.385 2.392 Zwischensumme I 2014 2015 2016 2017 7¼ 7¼ 7¼ 7¼ 7¼ 1.167 1.019 728 379 190 Steuern vom Einkommen und vom Ertrag, davon 153 329 510 544 546 Buchung gegen aktive latente Steuern 148 291 349 189 190 5 38 161 355 356 1.019 728 379 190 0 Zahlungswirksam 97 sonstige Steuern Bestand aktive latente Steuern am 1.1. 2013 Bestand aktive latente Steuern am 31.12. Abb. 5: Entwicklung des Postens „Aktive latente Steuern auf Verlustvorträge“ Literatur: Zinsaufwand Freibetrag Verlustvortrag 3.672 2.622 1.218 0 0 Verlustnutzung I -1.000 -1.000 -1.000 0 0 Verlustnutzung II -50 -404 -218 0 0 34 270 1.059 2.385 2.392 Gewerbesteuer (14,0%) 5 38 148 334 335 Gewerbesteuer ohne Verlustvorträge (14,0%) 152 234 319 334 335 Differenz 147 196 171 0 0 Bemessungsgrundlage II Abb. 4: Ermittlung der Gewerbesteuern der Jahre 2013 bis 2017 Wegen der Hinzurechnung des Zinsaufwandes liegt die Bemessungsgrundlage II durchgängig über dem Sockelbetrag, sodass die Regelungen der Mindestbesteuerung hier bereits ab 2013 wirken. Im Jahr 2013 übersteigt die Bemessungsgrundlage I den Sockelbetrag um 84 TEUR. Davon können nur 60 Prozent (50 TEUR) mit dem Verlustvortrag verrechnet werden, der Restbetrag von 34 TEUR unterliegt der Besteuerung. Daraus ergeben sich Gewerbesteuern von fünf TEUR. 2015 wird der vorhandene Verlustvortrag aufgebraucht, sodass in den Jahren 2016 und 2017 kein Unterschied zwischen Bemessungsgrundlage I und II besteht. Ohne den Verlustvortrag wäre die Gewerbesteuer durch Multiplikation der Bemessungsgrundlage I mit dem Gewerbesteuersatz abzuleiten. Die entsprechenden Werte sind ebenfalls in Abb. 4 wiedergegeben. Der gewerbesteuerlichen Verlustvortrag kann bei Realisierung der Planung in vollem Umfang genutzt werden, Damit können für Gewerbesteuern latente Steuern von 514 TEUR (3.672 TEUR · 14,0%) aktiviert werden. Dieser Betrag entspricht auch der Differenz der Gewerbesteuer der Jahre 2013 bis 2017 mit und ohne Berücksichtigung des Verlustvortrages. Insgesamt könnte die Muster GmbH per 31.12.2012 aktive latente Steuern für Verlustvorträge von 1.167 TEUR ausweisen. Die entsprechende Buchung würde lauten: Aktive latente Steuern an Steuerertrag. In den Folgejahren sind die Steuern vom Einkommen und vom Ertrag für die Gewinn- und Verlustrechnung ohne Berücksichtigung der Verlustvorträge zu ermitteln. Sie sind jedoch nur in Höhe der Ermittlungen unter Berücksichtigung der Verlustvorträge zu zahlen. Die Differenzbeträge werden gegen die aktiven latenten Steuern gebucht. Die Entwicklung des Postens Aktive latente Steuern auf Verlustvorträge in den Jahren 2013 bis 2017 bei Realisierung der Planungsrechnung stellt sich demnach so dar (Abb. 5): WISU 94 1/13 Bethmann, I./Mammen, A./Sassen, R.: Analyse gesetzlicher Ausnahmetatbestände zum Erhalt körperschaftsteuerlicher Verlustvorträge. In: Steuerberater, 63. Jg. (2012), S. 148 - 157. Bitz, M./Schneeloch, D./Wittstock, W.: Der Jahresabschluss — Nationale und internationale Rechtsvorschriften, Analyse und Politik. 5. Aufl., München 2011. Jöhnk, T.: Eigenkapitalerhöhung durch das BilMoG: Aktivierung latente Steuern auf Verlustvorträge — eine Hilfe in der Krise? In: Neue Wirtschaftsbriefe — Betriebswirtschaftlicher Berater, 8. Jg. (2012), S. 277 - 282. Jöhnk, T.: Fallstudien zur Finanzwirtschaft — Praxisfälle mit Lösungshinweise. Herne 2013. Kuntschik, N.: Ausgewählte Einzelfragen zur Steueroptimierung bei M&A-Transaktionen. Teil 2: Besonderheiten beim Erwerb von Krisenunternehmen. In: Corporate Finance Law, 2. Jg. (2011), S.359 - 363. Marx, F.J./Kläne, S./Korff, M./Schlarmann, B.: Unternehmensbesteuerung. Herne 2008. Meyer, C.: Bilanzierung nach Handels- und Steuerrecht. 22. Aufl., Herne 2011. Wulf, I./Müller, S.: Bilanztraining. 13. Aufl., Freiburg/Berlin/München 2011. Wirtschaftsinformatik Digitale Medien Klassifikation digitaler Medien durch Metadaten Prof. Dr. Rainer Thome / Dipl.-Kfm. Ludwig Habersetzer, Würzburg Während Texte von Suchmaschinen schon seit vielen Jahren automatisch verarbeitet werden können, bereiten die Klassifikation und damit das Auffinden von multimedialen Informationen bis heute Probleme. Ein wichtiger Aspekt bei der Problemlösung ist die Anreicherung der digitalen Medien mit Metadaten. Dieser Ansatz hat jedoch Grenzen. 1. Das Informationsparadoxon Informationsflut und Informationsdefizit Während der Mensch im digitalen Zeitalter über mehr Informationen verfügt als je zuvor, wird gleichzeitig über die nicht mehr zu kontrollierende Informationsflut geklagt. Können die vielen Informationen nicht mehr sinnvoll verarbeitet werden, kann es paradoxerweise sogar zu einem Informationsmangel kommen (vgl. Köninger/Reithmayer, S. 13 f.). Die Datenfülle ist unter anderem auf den stetigen Preisverfall bei Chip- und Speichertechniken zurückzuführen, wodurch der Endverbraucher immer mehr digitale Inhalte selbst erzeugen, verarbeiten und speichern kann. Hohe Bandbreiten und hocheffiziente Kompressionsverfahren ermöglichen es zudem, die Inhalte schnell und günstig über das Internet zu verbreiten (vgl. Kretzschmar/Dreyer, S. 75). Besonders die Zahl digitaler Bilder, Musik- und Videodateien auf privaten Festplatten und großen InternetDomains erreicht unüberschaubare Ausmaße. Sie zu organisieren, um sie gezielt wiederzufinden, wird zunehmend schwieriger. Unzureichende Strukturierung der Informationsobjekte Der hauptsächliche Grund für das Informationsdefizit trotz Informationsflut ist jedoch die unzureichende Strukturierung der Informationsobjekte. Die Auseinandersetzung mit dieser Problematik führt zu den Themen Klassifikation und Strukturierung von Information sowie Metadaten und Metainformation. 2. Grundlegende Definitionen Digitale Medien Allgemein ist ein Medium ein Hilfsmittel, um Informationen zu speichern, zu verarbeiten oder zu übertragen. Klassische Medien sind z.B. Bücher und Zeitungen. Restriktionen der einzelnen Medien wirken sich auch auf die Form des Inhalts aus. So kann eine Zeitschrift nur Texte und Bilder, der Hörfunk nur Töne, das Fernsehen jedoch beides übertragen (vgl. Stickel, S. 436). Klassifikation Eine Klassifikation bzw. Klassifizierung ist eine Systematik, mit deren Hilfe Dinge und Begriffe anhand gemeinsamer Merkmale eingeteilt und in Klassen gebündelt werden. Durch die stufenweise Unterscheidung der Elemente nach immer feineren Merkmalen lassen sich Unterklassen bilden. Diese hierarchische Ordnung und Abgrenzung der Elemente macht ein Themengebiet in praktischer und wissenschaftlicher Hinsicht überschaubarer (vgl. Christ, S. 126; Heinrich/Roithmayr, S. 290; Stickel, S. 367). Die Klassenbildung hängt vom Anwendungs- bzw. Problemzusammenhang ab. Dies bedeutet auch, dass sich Klassifikationsobjekte selten nur einer Klasse, sondern meist mehreren Klassen zuordnen lassen (vgl. Stickel, S. 367). Metadaten Durch den Zusatz „Meta“ bei Objekten oder Phänomenen wird darauf hingewiesen, dass sie selbst nicht Gegenstand der Betrachtung sind, sondern dass über sie reflektiert wird (vgl. Heinrich/Roithmayr, S. 346). Vereinfacht ausgedrückt sind Metadaten daher Daten „über“ Daten und Metainformationen Informationen „über“ Informationen. MetaWISU 1/13 95 WIRTSCHAFTSINFORMATIK daten beschreiben strukturierte und unstrukturierte Informationen. Außerdem dienen sie der Klassifikation und dazu, die Verwaltung und Suche zu verbessern. Sie gehören nicht dem Informationsobjekt selbst an, sondern beschreiben dessen Eigenschaften, Aufbau und Inhalt (vgl. Christ, S. 127; Heinrich/Roithmayr, S. 346; Stickel, S. 440). Wert der Information Der Wert einer Information wird maßgeblich von ihren Metadaten beeinflusst. So ist die Kenntnis des Entstehungszeitpunkts einer Information von entscheidender Bedeutung für ihre Bewertung. Informationen müssen deshalb durch aussagekräftige, verständliche sowie programm- und plattformunabhängig nutzbare Beschreibungen ergänzt werden. Durch die ISO-Spezifikation 11179 wurde die Modellierung von Metadaten standardisiert (vgl. Kretzschmar/Dreyer, S. 83). Mögliche Arten von Metadaten für digitale Medien zeigt die Abbildung. Typ Anwendung Beispiele Administrativ Informationen über den praktischen Gebrauch des Informationsobjektes. - Versionsinformationen - Eigentumsrechte - Anwendungsbereich Beschreibend Informationen zur Konkretisierung des Inhaltes. - Stichwörter - Inhaltsverzeichnis Technisch Informationen über technische Eigenschaften des Informationsobjektes. - Format des Informationsobjektes - Dateigröße - Kompressionsrate Abb.: Klassifikation von Metadaten (in Anlehnung an Christ, S. 128). 3. Metadaten und ihre Umsetzung Während die Problematik der Verwaltung von Metadaten früh von den Unternehmen erkannt wurde und Lösungen wie Media-Asset-Management-Systeme (MAM) entwickelt wurden, gibt es bei privaten Anwendern bis heute erhebliche Defizite. Dabei gibt es auch hier Möglichkeiten, digitale Medien effizient zu verwalten. 3.1. Technische Grundlagen Verknüpfung von Metadaten Grundsätzlich können Metadaten auf drei verschiedene Arten mit dem Informationsobjekt verknüpft sein: — durch direkte Ableitung der Metadaten aus der spezifischen Beschaffenheit des Informationsobjekts (vgl. Christ, S. 128), — durch Speicherung der Metadaten in einer separaten Datei, in der durch Verweise die Verknüpfung der Metadaten mit dem zugehörigen Informationsobjekt gewährleistet wird, oder — durch direkte Integration der Metadaten in das Informationsobjekt. Welche Variante gewählt wird, hängt vom jeweiligen Anwendungsbereich ab. Die erste Variante ist in allen denkbaren Anwendungsbereichen möglich, wenn die Ableitung der Metainformation aus der Beschaffenheit des Informationsobjekts automatisch erfolgen kann. Bei vielen Metadaten ist dies jedoch nicht der Fall. Die zweite Variante eignet sich für Datenbank- und Content-Management-Systeme. Hier werden die Metadaten der Informationsobjekte in Repositories zentral gespeichert. Diese Methode kann auch im Internet sinnvoll sein, da sich so die Zusammenfassung der Metadaten zu Indizes verbessert, die von Suchmaschinen benötigt werden. Um die Metadaten dem richtigen Informationsobjekt zuordnen zu können, nutzen viele Formate den Uniform Resource Identifier (URI). Es können jedoch Probleme auftreten, etwa wenn eine Ressource keinen URI hat oder wenn sich dieser ändert (vgl. Christ, S. 128; Tochtermann/Lux, S. 1559 f.). Für Informationsobjekte, die nicht in einem integrierten System gehalten oder über das Internet verbreitet werden und somit systemunabhängig sein sollen, bietet sich die dritte Variante an, da sie sicherstellt, dass die Metadaten eines Informationsobjektes nicht verlorengehen. Werden z.B. Bilder über das Internet anderen Anwendern zugänglich gemacht, müssen gleichzeitig die Metadaten verfügbar sein. Metadaten werden in diesem Fall häufig an den Anfang einer Datei, den Header, geschrieben (vgl. Christ, S. 128; Tochtermann/Lux, S. 1559). WISU 96 1/13 WIRTSCHAFTSINFORMATIK Standards für Informationsobjekte Damit sie sinnvoll genutzt werden können, müssen die Metadaten von Informationsobjekten einheitlich strukturiert sein. So arbeiten Suchmechanismen nur präzise, wenn die Metadaten von einer Maschine interpretiert werden können (vgl. Christ, S. 129). Deshalb wurden mehrere Standards für verschiedene Informationsobjekte entwickelt, für die Beschreibungen von Informationsressourcen des Internets etwa das Resource Description Framework (RDF), das auf der Auszeichnungssprache Extensible Markup Language (XML) beruht und wodurch Metadaten nicht nur von Maschinen gelesen, sondern auch verstanden werden (vgl. Christ, S. 187 f.; Tochtermann/Lux, S. 1561). Darüber hinaus sind Metadaten-Schemata bei der Erstellung von Metadaten von Bedeutung, da sie definieren, welche Metadaten in welcher Struktur gespeichert werden (vgl. Kretzschmar/Dreyer, S. 83; Marugg). Container für Informationsobjekte Neben Metadaten-Standards gibt es auch sog. Container, die mehrere Schemata vereinen können. Ein Beispiel ist das propriätere Metadatenformat Extensible Metadata Platform (XMP) von Adobe. Es beruht ebenfalls auf RDF und erlaubt die Sammlung der Metadaten-Schemata Exchangeable Image File (EXIF) und International Press and Telecommunications Concil (IPTC) in Kombination mit zusätzlichen Metadaten (vgl. Trinkwalder, S. 158 f.; Kretzschmar/Dreyer, S. 86 f.). Frage 1: Wann ist welche Art der Verknüpfung von Metadaten mit dem Informationsobjekt sinnvoll? 3.2. Potenziale Die Zahl der digitalen Medien nimmt laufend zu. So werden jedes Jahr allein Billionen digitale Fotos erzeugt. Metadaten sind hier die einzige Möglichkeit, diese Informationen sinnvoll zu ordnen, zu verwalten und damit wiederzufinden (vgl. Winkelhage, S. 19). Vereinfachtes Datenund Medienmanagement Metadaten helfen beim Daten- bzw. Medienmanagement, da sie sich zu logischen Einheiten zusammenfassen bzw. aufteilen lassen. Damit können Informationsobjekte nach sinnvollen Kriterien klassifiziert und geordnet, außerdem kann die Verwaltung der Daten vereinfacht werden. Ein Beispiel ist die Klassifikation von Bildern anhand von Geodaten (s. unten 3.4.). Metadaten sind auch für die Dokumentation von entscheidender Bedeutung. Durch das gezielte Auffinden werden Redundanzen und Doppelarbeit vermieden, zudem wird die Versionsverfolgung vereinfacht. Schließlich wird die Integration von Datenbeständen erleichtert (vgl. Marugg). Da die Metadaten fest mit ihrem Informationsobjekt verknüpft sind, verfügt der Anwender über Beschreibungen, die eine einfachere Organisation und Archivierung von digitalen Medien ermöglichen (vgl. Kretzschmar/Dreyer, S. 26 f.). Durch die Beschreibungen können Informationsobjekte wiederverwendet oder zu Informationsbausteinen kombiniert werden, um so neue Informationen zu gewinnen. Ein Beispiel sind Programme zur Verwaltung von Musikdateien. Beim Einlesen einer Audio-CD werden sofort Metadaten aus den Informationsobjekten abgeleitet, z.B. Titelreihenfolge und -dauer. Die Kombination dieser Daten ist meist einmalig, sodass nun weitere Metadaten aus dem Internet geladen werden können (Interpret, Albumname und Titel). Effizientere Suche Die größte Vereinfachung durch den gezielten Einsatz von Metadaten ist die effizientere Suche nach digitalen Medien. Im Gegensatz zu digital kodierten Texten werden andere digitale Medien von den heutigen Suchmaschinen noch nicht anhand ihres Inhalts, sondern nur anhand ihres Informationskontextes identifiziert, unter anderem anhand ihrer Metadaten. Dies liegt an den größeren Datenmengen und an den größeren Interpretationsspielräumen im Vergleich zu digitalen Texten (vgl. Tochtermann/Lux, S. 1557). Metadaten auch weiterhin sinnvoll Da nur eine kleine Teilmenge der digitalen Medien im Internet über Metadaten verfügt, sind die Suchergebnisse hier nur von mittlerer Qualität (vgl. Schweibens). Auch wenn es neue Suchmechanismen künftig ermöglichen, digitale Medien auch hinsichtlich des Inhalts zu durchsuchen, werden Metadaten weiterhin sinnvoll sein. Besonders in großen Datenbeständen lassen sich durch die konsequente und durchdachte Vergabe von Metadaten die Suchzeiten reduzieren, da nicht der gesamte Datenbestand, sondern nur der um ein Vielfaches kleinere Metadatenbestand durchsucht werden muss. Außerdem steigt die Qualität der Suchergebnisse erheblich. So können anhand eindeutiger Suchkriterien (Autor, Titel etc.) nicht nur die richtigen Medien gefunden, sondern auch neue Informationen abgeleitet werden. Die Suche nach einem Song kann z.B. den Liedtext, andere Lieder des Künstlers oder weitere Interpreten des Songs hervorbringen (vgl. Marugg). WISU 1/13 97 WIRTSCHAFTSINFORMATIK Größerer Informationsgehalt Der Wert eines Informationsobjekts steigt mit seinem Informationsgehalt und dessen Nutzbarkeit. Metadaten können den Wert erheblich erhöhen, da sie einerseits den Entstehungsprozess und die Änderungen des Informationsobjekts dokumentieren und andererseits neue Anwendungsmöglichkeiten erlauben. So ist ein Bild für den Betrachter besonders wertvoll, wenn es nicht nur in der benötigten Qualität geliefert wird, sondern zudem Metainformationen vorhanden sind, die z.B. über den Aufnahmeort, den Erstellungszeitpunkt oder die Bearbeitung Auskunft geben. Durch die Dokumentation anhand von Metadaten bleibt der Wert eines Informationsobjekts langfristig erhalten (vgl. Marugg). Neue Anwendungen Metainformationen ermöglichen außerdem den Umgang mit neuen Anwendungen. Zum einen gibt es neue Funktionen bei „klassischer“ Software, die z.B. anhand von Metadaten die automatische Verarbeitung digitaler Medien ermöglichen. Zum anderen entstehen neue Anwendungen im Web 2.0. Im Bereich der digitalen Fotografie können Fotos in Web-Anwendungen wie Flickr zwischen Nutzern leichter ausgetauscht werden und erlauben die Verknüpfung verschiedener Medien. Ein Beispiel ist die Integration von Bildern in digitale Landkarten (s. unten 4.). Außerdem schaffen solche Anwendungen durch die Nutzung der Metadaten einen nahezu nahtlosen Workflow (vgl. Winkelhage, S. 19; Trinkwalder, S. 156). Frage 2: Welche Potenziale haben Metadaten? 3.3. Grenzen Technische Probleme Grundsätzlich brauchen Metadaten eine einheitliche Struktur, damit sie von Menschen und von Maschinen interpretiert werden können. Daher wurden mehrere MetadatenStandards entwickelt, die dieses Problem lösen sollen (s. oben 3.1.; vgl. Christ, S. 129). Komplizierte Standards Die vielen Standards und ihre Komplexität überfordern jedoch viele Anwender. Metadaten-Standards wie RDF sind durch ihre vielseitige Verwendbarkeit sehr schwierig anzuwenden. Die verschiedenen Metadaten-Standards lassen sich zudem nicht ohne weiteres kombinieren, was die Wahl des richtigen Standards erschwert (vgl. Schweibens). So gibt es für Digitalbilder viele Metadaten-Standards und -Container. Weil viele Anwendungen für die Bildbearbeitung nicht alle Standards beherrschen, kann eine Kombination Letzterer zum Datenverlust führen, wenn eine Software ein ihr unbekanntes Metadatenformat überschreibt (vgl. Trinkwalder, S. 158 f.). Deshalb empfiehlt es sich für Privatanwender, nur wenige einfache und begrenzte Metadaten-Standards wie EXIF zu benutzen. Grenzen von Sprache und Klassifikation Die systematische Klassifizierung von Informationen erfordert mehrere Kriterien: Metainformationen müssen vollständig, objektiv und eindeutig sein (vgl. Köninger/Reithmayer, S. 92). Dabei treten jedoch mehrere Probleme auf. So können Informationsobjekte mehreren Klassen des Klassifikationssystems zugeordnet werden (Köninger/Reithmayer, S. 171). Weiterhin müssen Syntax und Semantik, also die Form und die Bedeutung der Daten, stimmig sein. Zwar reduzieren sich diese Probleme durch standardisierte Metadatenformate, dennoch können Rechtschreibfehler, mehrdeutige Begriffe, Sprachgemische und Flexionsformen die Verarbeitung der Metadaten erschweren oder gar verhindern (vgl. Köninger/Reithmayer, S. 168). Suchmaschinen Für Suchmechanismen ist es wichtig, dass die gewählten Metadaten verlässlich sind. Werden stattdessen undeutliche Beschreibungen gewählt, sind die Suchergebnisse unscharf und erschweren damit das schnelle Auffinden eines bestimmten Informationsobjekts. Auch wenn sie sich durch die geschickte Kombination von Suchbegriffen einschränken lassen, ergibt die Suche weniger präzise Ergebnisse (vgl. Köninger/Reithmayer, S. 151 f.; Schweibens). Hoher Aufwand Bereits die Klassifikation von digitalen Medien ist mit nicht unerheblichem Aufwand verbunden. Auch wenn es Werkzeuge gibt, die Vorschläge für ein Klassifikationssystem machen oder selbst eine automatische Klassifizierung durchführen, muss letztlich der Anwender eingreifen, da falsch eingeordnete Informationsobjekte möglicherweise nicht mehr gefunden werden (vgl. Köninger/Reithmayer, S. 49; Kretzschmar/Dreyer, S. 94). Allerdings kann eine private Mediensammlung auch ohne ein ausführliches Klassifikationssystem geordnet werden. Ableitung von Metainformationen Die Ableitung von Metainformationen ist ebenfalls sehr aufwändig, sollten sie nicht automatisch erzeugt werden können. Daher sollten Anwender möglichst viele Informationen direkt aus dem Informationsobjekt ableiten. Beispiele sind das Dateiformat, der Er- WISU 98 1/13 WIRTSCHAFTSINFORMATIK steller und das Erstellungsdatum. Manuell einzugebende Metadaten sollten auf ein Minimum reduziert werden (vgl. Christ, S. 128). Diese Probleme lassen sich mithilfe von Werkzeugen lösen, die automatisch Metadaten übernehmen oder halbautomatisch dem Anwender dabei helfen, die Metainformationen zu erfassen. Frage 3: Warum sind bislang viele Informationsobjekte nicht mit Metadaten beschrieben? 4. Ordnung durch Geotagging Obwohl die Erfassung von Metadaten mit großem Aufwand verbunden ist, werden aussagekräftige Informationen benötigt. Bei der digitalen Fotografie helfen zum Teil Geodaten. In Kombination mit dem Erstellungszeitpunkt ermöglichen sie es dem Nutzer, seine Bildersammlung leichter zu organisieren und Bilder schnell zu finden. Geodaten Geodaten dienen der absoluten Positionsbestimmung auf dem Erdball und wurden durch DIN ISO 19101 und weitere ISO-Normen standardisiert. Dadurch sind sie — wie auch Zeitdaten — eindeutig, außerdem können sie von Digitalkameras in den Header des Digitalfotos geschrieben werden, womit sie sich für die Klassifizierung einer privaten Fotosammlung geeignen. Dabei wird meist der EXIF-Standard genutzt, der Metadaten für die wesentlichen Einstellungen von Digitalkameras und den von ihr ermittelten Geoinformationen definiert (vgl. Kretzschmar/Dreyer, S. 89). Um die aufwändige manuelle Eingabe von Geodaten für Digitalfotos zu vermeiden, bedarf es eines GPS-Empfängers, der in die Digitalkamera integriert ist. Die erfassten Informationen werden dann automatisch bei der Aufnahme des Bildes in dessen Header geschrieben. Der hohe Stromverbrauch der GPS-Empfänger erschwert momentan noch die Verbreitung dieser Technik (vgl. Winkelhage, S. 19; Winterer, S. 29). Eine Alternative bietet ein von der Kamera unabhängiges GPS-Gerät, das der Fotograf bei sich trägt. Die Digitalkamera trägt EXIF-Daten einschließlich Erstellungszeitpunkt in den Header des Bildes ein, während der GPS-Empfänger die Positionsdaten des Fotografen speichert. Anschließend werden die Daten vom Computer synchronisiert und die Geoinformationen in den Header der Bilder geschrieben (vgl. Winkelhage, S. 19; Winterer, S. 27 f.). Beispiel Digitalfotos Anhand der Geodaten lassen sich — bei entsprechender Software — die Digitalfotos wesentlich besser sortieren und auffinden. Entsprechende Services finden sich im Internet. Über eine Internetseite oder eine kostenlos zur Verfügung gestellte Software kann der Nutzer Digitalfotos mit Ortsinformationen versehen, sie dadurch besser organisieren und, falls gewünscht, mit anderen Nutzern der Plattform teilen. Wird ein bestimmtes Bild gesucht, etwa eine Sehenswürdigkeit, kann der Anwender den Ortsnamen eingeben. Die Software verbindet die Koordinaten mit dem Ortsnamen und findet alle Bilder, die dort gemacht wurden. Die Suche kann auf eigene Bilder begrenzt oder auf öffentliche Fotos ausgeweitet werden. Auf der beigefügten digitalen Landkarte werden die Aufnahmeorte des gesuchten Digitalfotos und gegebenenfalls andere an diesem Ort erstellte Fotos angezeigt. Neben Bildern aus der Umgebung werden auch nahegelegene Sehenswürdigkeiten und weitere Informationen verlinkt, z.B. Artikel von Wikipedia (vgl. Winkelhage, S.19; Winterer, S. 29.). Frage 4: Warum reichen Geodaten für eine hilfreiche Klassifikation von Bildern nicht aus? 5. Spielend leicht zu Metadaten? Metadaten können den Umgang mit digitalen Medien erheblich vereinfachen und verbessern. Wie beschrieben, kann durch die Kombination von Zeit-, Geo- und anderen Metadaten eine Sammlung digitaler Fotos — bei automatischer Datenerfassung — ohne großen Aufwand geordnet werden. Datenbestände mit kommerziellem Inhalt müssen meist durch Metadaten charakterisiert werden. Metadaten sind nicht immer universell einsetzbar, viele Bilder und andere Medien können nicht durch Geoinformationen auf aussagekräftige Weise beschrieben werden, weshalb weiterhin manuell erstellte Deskriptoren für Bilder gebraucht werden. Auch keine Lösung: Google Image Labeler Medien, die im Internet verbreitet werden, verfügen selten über Metadaten. Daher liefern Suchmaschinen bis heute nur mäßige Suchergebnisse bei digitalen Medien. Google verWISU 1/13 99 WIRTSCHAFTSINFORMATIK suchte auf ungewöhnliche Weise, das Problem bei digitalen Bildern zu lösen: Bei einem Spiel sollten zwei Personen einem zufällig vorgestellten Bild aus dem Internet möglichst die gleiche Beschreibung geben. Je besser die gewählten Deskriptoren übereinstimmten, desto größer die Punktzahl. Die so gefundenen Beschreibungen nutzte Google dann als Metadaten. Allerdings konnte der „Google Image Labeler“ das Problem auch nicht lösen. Im September 2011 wurde das Spiel eingestellt. Literatur: Christ, O.: Content-Management in der Praxis. Berlin 2003. Heinrich, L./Roithmayr, F.: Wirtschaftsinformatik-Lexikon. 7. Aufl., München 2003. Köninger, P./Reithmayer, W.: Management unstrukturierter Informationen. Frankfurt a.M. 1998. Kretzschmar, O./Dreyer, R.: Medien-Datenbank- und Medien-Logistik-Systeme. München 2004. Marugg, T.: Metadaten für Content-Indizierung und Wissenssicherung. www.contentmanager.de/magazin/artikel_69_ metadaten_fuer_content-indizierung_und.html, Erstellungsdatum v. 20.8.2001. Schweibens, W.: Die Verwendung von Metadaten und Metatag-Generatoren am Beispiel der Homepage des Juristischen Internet-Projekts Saarbrücken. www.jurpc.de/aufsatz/19990159.htm, Erstellungsdatum 10.9.1999. Stickel, E. (Hrsg.): Gabler-Wirtschaftsinformatik-Lexikon. Wiesbaden 1997. Tochtermann, K./Lux, M.: Suchen mithilfe semantischer Metadaten. In: WISU, 35. Jg. (2006), S. 1557 1564. Trinkwalder, A.: Für die Ewigkeit — Metadatenstandards fürs Bildarchiv. In: c't, H. 12 (2006), S. 156 - 158. Winkelhage, J.: Geo-Daten bringen Ordnung in die Bilderflut. In: FAZ, Ausgabe 58 (2007), S. 19. Winterer, A.: Beziehen Sie Position! In: Tomorrow, H. 12 (2007), S. 27 - 29. Die Fragen werden im WISU-Repetitorium beantwortet. Die Fallstudie Information Security and Compliance in Cross-Organizational Settings (Part I) Prof. Dr. Ronald Maier / Vanessa Borntrager, B.Sc. / Mag. Dipl.-Ing. Daniel Bachlechner / Dr. Stefan Thalmann, Innsbruck I. Case Problem Traditco Inc. is a B2B network provider mainly focused on Electronic Data Interchange (EDI) services, linking its customers to their trading partners via several business services. Over 40,000 companies world-wide digitize their B2B processes and build up a business relations network over Traditco‘s „virtual“ transaction platform to electronically exchange data in all formats across several media borders. Traditco as a fast growing niche provider of interconnecting and integration services offers varying portfolios of performance modules to enable individual customer relationships with all-round business partner integration. Therefore, the company’s transaction platform consists of different systems and applications composed to valuable services. Both standardized and custom business services require the company operating with multi-customer-functionality on top of dynamic, cross-organizational compositions of various, in- or outsourced services, resulting in a large number of different, and partially conflicting security and compliance requirements. Their EDI service is mostly provided by Traditco itself, composed of three self-managed sub-services (transaction, communication and monitoring). The applications offered only run on top of systems that are provided by an external supplier. Thus, Traditco has the possibility to configure the applications within certain limitations, but relies on the supplier for basic configuration and settings where root access is necessary. This is achieved by defined service descriptions and service level agreements (SLAs). The EDI service offering covers WISU 100 1/13 the establishment of a technical connection between the trading partners, the implementation of the customer’s EDI processes as business relation, transferring and mapping their data if necessary. Therefore, the additional legal requirements each trading partner’s national legislative has them mandatorily comply to can be seen as part of EDI service offerings and need appropriate documentation in customer SLAs as their realization differs from country to country. Correspondingly, as long as the connectivity guarantees efficient and secure links to the platform and the legal terms are fulfilled, all services are provided world-wide without technical restrictions. Imperial Oil PLC, a fast growing British company providing smart services in the energy sector and one of Traditco’s most important customers was going to be informed that its compliance with the British Electronic Signatures Law was lacking. According to Sheila Florence, auditor of Innuendo Ltd., Imperial Oil’s electronic equivalent of its written signature does not meet the regulative specifications to guarantee its agreements and business settlements. And, if that wasn’t already enough, chances are high that all British customers using Traditco’s electronic signature service are affected. Vincent Brehm, the CEO of Traditco, is devastated. It is essential for the company, which supports customers’ digitization of business processes, to be fully capable of linking its customers’ electronic representations to their commercial transactions and messaging activities. What else ensures the confidence of communication over their platform, Traditco’s centerpiece of success, if WIRTSCHAFTSINFORMATIK a „simple“ electronic signature cannot account for legality? Florence had found fault to the controls in place at Traditco to fulfill and assure the customer’s commitment, national legislative has Imperial Oil and its British partners liable to. Worst-case scenario would not only have consequences of administrative fines or a crack in reputation to Traditco, but if the customer finds out about his service provider not being compliant to the demanded degree of reliance, him and his trading partners incrementally dropping out could also result in painful economic cuts for the company. Brehm has just been waiting on something like this to happen. The past few months have shown a boom in business, the increasing customer base and therefore rising numbers of integrated business partners had Traditco’s trading platform expand to its greatest capacity. Of course information security and compliance had always remained important issues, a constant hurdle to overcome in the market of serving a large number of clients with various applications. How often has he told his managers that first priority is to overlook vulnerabilities, especially mounting where internal and external systems interact? But they never seemed to take it too seriously, that complying with the requirements of business secureness, sheltering trustworthy controls and accordingly providing a consistent surety bond to customers would safeguard Traditco’s own position from threatening violations and customer recession. Putting frustrations aside, Brehm first of all needs to have the problem solved before Imperial Oil’s trust is lost. He feels that this seemingly simple compliance issue could have him stuck between a rock and a hard place. Where just being struck with his company’s incompetence to comply with one regulation, being a fraction of the whole of requirements Traditco has to consider, CEO Brehm is prepared to have more to come. He calls in his internal auditor, Frederik Melville, for first investigations on the issue disclosed by Florence. After explaining the problem at hand, Brehm wants Melville to double-check the findings and get to the bottom of it all even if it costs stirring up the entire company personnel. Manually, the internal auditor Melville, approaches the production environment of loads of customer service usage. He needs to check customer platform access to assess the customers’ individual interaction report and correspondingly transaction data on the time span of inefficient messaging and transaction activities. But not only is he looking for the needle in a haystack, before he can actually search for the specific reports of the past months, he needs to get back to the responsible customer approver (Aisha Jalai) to answer him by email on the underlying approval information to validate the customers’ access rights and account data. Only then can the respective controls of customers be investigated. The complexity of the check takes form as soon as Melville tries to find his way through active users. Under pressure, he once again realizes how time-intensive it is to manage only the collection of all information from different sources needed to check on a single customer. As long as he has to do his job on behalf of such conditions, clicking through a jungle of customer data in several locations of differently stored information, dependent on other colleagues to get his work done, one cannot expect the evidence of profound knowledge to single customers and corresponding requirements in a heartbeat. Often, they have spoken about the need of a workflow system to automate the process of delivering audit evidence and report generation and often other investments, affecting the customer experience more directly, have had first priority. Finally, the responsible customer approver sends the long-awaited approval information. After an ocular comparison of customer service details, it is evident that Sheila Florence, the external auditor, is proven to be right and the customer security requirement is not met making the service non-compliant with Imperial Oil’s legal requirements of admissible electronic signatures. Now, the control design needs to be investigated on contractual agreements as well as the measures in place to be sure of really committing to the specific customer’s demand. Together with Melville, Brehm gets a hold of the customer relationships manager, Elizabetha Costa. They need the concrete information if the business requirement of the British customer is explicitly manifested in SLAs to detect a possible conflict on behalf of differing controls for several signature regulations. Costa immediately gasps for air as she is strafed by Brehm explaining the situation. Whether the conflict of customer requirement is due to her field of responsibility would take her quite a while of detection. Potential causes of the discrepancy could derive from many sources, but if it turns out that SLAs define the adherence to the British regulation agreement without an efficient control existing, she would be badly off for promising too much in the first place. Costa has to find out which landscape components should cover the specific requirement in parallel and how the variety of customer services match the requirement obviously warranted by Traditco. She seeks the compliance manager, Klaus Zorga, for advice as he is responsible for requirements coordination. If Zorga could only identify the actual control existing to suit this specific regulation, Costa herself could give a statement to a correct match of demand and supply from her side. Therefore, Zorga needs different views on the overall architecture where related landscape components can be filtered and checked for existence to fulfill the specific customer necessity. Watching her colleague browse through an overview of available security requirements as well as investigating the current IT landscape to define an affected one, Costa is getting anxious about the questioning of her task correctness. The match of demand and supply as well as documentation and acceptance of customer service requests relies pretty much on her long years of business experience. As for listing services according to customer claims, checking conflict potential and mapping them to the existing controls implemented is widely knowledge-based, but with identifying conflicts afterwards she has always wished for a simplification. The checking and mapping process of security requirements according to the set of available controls is time-intensive or even a lucky break after eyeing and pair-wise comparing the enormous lists of each. Scanning for possibly affected controls of missing requirements is not done on a regular basis, only when such problems occur and then is unfortunately done manually. After hours passing by she can confirm the documented acceptance in SLAs of serving Imperial Oil with electronic signatures based upon controls actually put in place to create and secure them. Relieved by being able to pass on the burden, but overpowered by the efforts of her investigation, Costa mentions the need to have conflicts detected and notifications passed on more easily in case of inconsistencies. Support when mapping supply and demand to each customer contract could have such tasks done more efficiently. But for now such issues, once again, need to stand aside. Brehm has still not gotten an answer to the roots of Imperial Oil’s compliance problem concerning the British legal restraint. The last step of unearthing the truth remains in evaluating the effectiveness of measures taken to comply to the customer requirement. The IT administrator, Ivan Andrejew, was unable to cope with the stockpiled anxiety fanned out by his superior colleagues. That external auditors come searching for discrepancies as long as they finally find something to complain about, was not the first time. Andrejew has always had a problem with them telling him what has to be done, but none of them ever looked at which components of the IT landscape exist and are actually configured to the controls being checked. The auditors would look up all descriptions of the control set and of the current landscape which he knows by heart and who knows if the last auditor might have overseen that the electronic signature requirement was fulfilled as demanded. As for he seems to be the one to give the assurance that the controls are implemented effectively, he would cooperatively walk through his processes and settle the situation. Andrejew retrieves the relevant information at locations where the controls were logged, directly at the landscape components or from systems where they are stored for such specific queries. As not all logged data is relevant in this case, it takes him a while to select and retrieve subsets of available data. By comparing the current landscape configuration to the ideal landscape where Imperial Oil’s requirement is efficiently met, Andrejew can detect a misconfiguration or check whether the user requirement is covered by implemented, active controls. Therefore, he needs the data gathered from several sources and servers, regarding additional approvals of requests for control implementation to be absolutely positive on what the current landscape is composed of. Checking for the discrepancies is again a time-wasting affair, where such comparisons of course have some kind of conflict result the closer you look. Andrejew sees frictions „programmed“ to occur, as for the high capacity and numbers of dif- WISU 1/13 101 WIRTSCHAFTSINFORMATIK ferent controls implemented all run on the same servers. But his goal now is to check if the desired configuration is in place and not changed. He identifies the to-be configuration for compliance of the control to Imperial Oil’s requirement of electronic signature provision and the affected landscape components aimed at in the control design. The as-is configuration is retrieved by querying the configuration management database (CMDB) under the affected landscape components defined previously and finally he can compare. II. Questions 1. Please summarize the problems with legal constraints such as Electronic Signature laws and point out the consequences for Traditco’s EDI service offerings. 2. Please discuss why information security and compliance are important and what are the roles of standards and regulations in this respect (e.g. SOX, HIPAA, ISO 27001). 3. Please elaborate on the problem Traditco is confronted with and discuss possible solutions to prevent such occurences in the future. III. Answers Question 1: Electronic Signatures and EDI Service Electronic Signature Acts are in force world-wide. Internationally, governments concern to establish basic matters related to electronic signatures in order to achieve the security and reliability of ecommerce and activate the use of electronic communication and transaction. The computerization of national society along with the advance of benefits and convenience is promoted, but under strict legislative control to protect the processing of confidential data during it‘s free movement. In Europe, the Directive of the European Parliament and of the Council of 13, for example, requires Member States to implement requirements expressed in national legislation. The importance hereto is that the Directive only obliges Member States to make sure that qualified electronic signatures are legally speaking treated in the same way as handwritten, but it does not regulate the legal use and consequences itself (Dumortier et al.). Therefore, the Directive is integrated into the single national laws of European countries which show differences in regulations and specific control. Electronic signatures come in many forms as typewritten, scanned in, digital representation of a hand written signature, as fingerprints for example, as unique sequence of characters, or as signatures created by cryptographic means. But they are only as good as the technology used to create them. All parties involved in any transaction or messaging activity need the confidence that their means of communication reaches its destination without modifications from its origin to the intended addressee. Trust is the basis of all commerce and is enhanced by the use of qualified electronic signatures ensuring legal certainty. The use of electronic signatures is thus controlled by national legal frameworks, where requirements to an electronic signature are bound to admissibility of country-specific legislative proceedings. Where German Digital Signature Law establishes stringent standards for what types of electronic signatures are to be deemed as secure, Italy even takes it a step further and derives legal effect only to signatures authenticated by licensed certificate authorities (Kuner et al.). The type of technology to use and the form of secure signature creation is not mandated by an international consent. The implementation of controls is ceded the signatory to decide whether software, hardware or a combination to acquire, as long as electronic signatures comply with the requirements mandated by the national legislations of the countries involved in the business transaction. A signatory who holds the signature creation device and acts on own behalf or on behalf of the natural or legal person he or she represents is to ensure compliance with requirements. At a minimum, the signature creation data is to be unique, capable of being kept secure, be protected against forgery and use of others, cannot be altered and data should be presentable to the signatory before it is signed off. Such a control, in form of a secure signature creation technique, proves the origin of a message, links the originator to the information and ensures legal conformity by satisfying authentication, integrity and non-repudiation aspects of electronic transaction and messaging activities (BERR). Concerning the consequences for Traditco’s EDI service offerings, the diverse requirements stemming from the different national legis- WISU 102 1/13 lations translate into a complex decision problem. Traditco needs to propose solutions for its clients that are compliant with the national legislations of all countries in which the clients operate. As many clients use Traditco’s transaction platform this is already a complex task. The decision problem is exacerbated by the fact that Traditco needs to ensure that its suppliers which provide infrastructure and services to Traditco also adhere to the requirements that Traditco’s customers have. Finally, this complex decision problem needs to be dynamically revisited every time national legislations change which also requires Traditco to be up to date concerning EDI developments world-wide.“ Question 2: Importance of Information Security and Compliance As multiple actors are involved in Traditco’s business environment, the variety of business objectives to support along with trust establishment by providing confidential, integral and available service processes is of high consideration. In terms of security, the trading environment is founded by each customer’s internal as well as legal requirements, e.g. SOX, ISO 27000 certifications (see references) on some domain activities, compliance with national laws on data confidentiality and security standards. The large-scale network shelters different national backgrounds concerned by Traditco‘s business activity, imposing own laws and execution standards to data treatment and confidentiality the company has to adapt and comply to. To this effect, different controls are implemented in the organization in order to meet various requirements. The problematic is also subject to external auditors, confronted when auditing Traditco in clients’ interest. As they should understand the company being audited, challenges on their behalf are also requirements in terms of security and Traditco's customers' requirements that have to be met by efficient control implementations. Additionally, the external auditor should identify the requirements that may not be compatible (regulations may vary from a country to another) as well as the requirements that could be equivalent. Consequently, auditors have to collect any type of information that describes the various customers’ requirements and the various laws and regulations by which the company is restricted. It is essential that customers can trust Traditco, especially when secure, compliant and reliable processing of their data is guaranteed. Traditco and their associated companies are contractually and legally obliged to ensure the confidentiality, integrity and availability of their business data. Loss, manipulation or publication of data can result in severe civil or criminal prosecution. Customers are able to make a claim for liabilities against them. Therefore, it is very important that the security guidelines are followed by every employee, that security breaches are reported and that gaps in security and compliance are resolved as quickly as possible. Achieving, maintaining and proving compliance with requirements stemming from several customer demands and international regulations as well as cost-effectively managing security configurations in own operating conditions have Traditco challenged. Their range of possibilities to detect and quickly react to inefficiencies additionally has them encounter difficulties due to a constant growth of customer base and therefore a lacking profound overview of all supported individual service solutions. In case of occurrences, the company is badly prepared and often even clear of revelation. Question 3: Problem in Short and Possible Solutions The external auditor has pointed Traditco to an occurrence, where Imperial Oil’s electronic signature did not fulfill mandatory specifications of the British Electronic Signatures Act. Traditco was neither able to achieve compliance with the requirement nor advert to such inefficiency on the forehand. But this is not something to treat lightly. Security and reliability of their business is being questioned thereby as they have been processing confidential data, high value transactions, and not ensuring trust and confidence to the communication in free movement. Not providing qualified signatures to an important customer already means damage in customer relationship. However, the additional severity of not adhering to the British law, Traditco as signatory has to adapt and comply to, could severely hamper the company‘s trustworthiness in data treatment. There is, among other weak points, a lack of communication from sales and customer-relationship staff to technicians concerning the security requirements and their consistent implementation. Solutions need to consider how they target this weak point. WIRTSCHAFTSINFORMATIK IV. Typical Mistakes Made When Solving the Case Study Question 1: Mistakes students could make when solving the first question is not defining and elaborating the several aspects of Electronic Signature Laws at all. They should be able to recognize the different national legislatives concerning the law introduced to an international consent but on different grounds of specifications. The general burden put on Traditco thereby should explicitly be outlined referring to the presented business context and at last, the students should not shallowly relate the problem of loads of legal restraints Traditco’s EDI services must include and adapt to when serving their customers’ demands. Question 2: Students could miss out on highlighting security as well as compliance aspects to Traditco. It is important that students notice the difference between both terms, but define their connection concerning the company's business demands. The role of standards and regulations should exemplify how requirements are set which are to be supported by implemented controls ensuring compliance to legal constraints. Students could mistakenly not discuss this connection and mere definitions to standards should not account as comprehensive elaboration of the question. Question 3: Students could not link the problem’s consequences to a more abstract level on which Traditco faces issues on essential business pre-requisites, such as loss in customer trust. Respectively the students should recognize to what extent the seemingly „simple“ compliance issue got out of hand. Mistakes made on behalf of solution provision are not illustrating any approaches, dealing out theoretical solutions without relating them to the case or merely pointing to pragmatic, common-sense solutions without any systematic deliberations to justify them. Possible solution approaches will be illustrated in the second part of the case. Related Standards and Regulations: SOX: The Sarbanes-Oxley Act of 2002, also known as the „Public Company Accounting Reform and Investor Protection Act“ and „Corporate and Auditing Accountability and Responsibility Act“, commonly called SOX, is a United States federal law which set new or enhanced standards for all U.S. public company boards, management and public accounting firms. It was enacted as a reaction to a number of corporate and accounting scandals, which cost investors billions of dollars when share prices and confidence in the nation's security markets collapsed. It created a new, quasi-public agency, charged with overseeing, regulating, inspecting and disciplining accounting firms in their roles as auditors of public companies. The act also covers issues such as auditor independence, corporate governance, internal control assessment, and enhanced financial disclosure. (U.S. Congress 2002, www. logitax.hu/English/SOX.pdf, last access on 2.12.2012) HIPAA: The Health Insurance Portability and Accountability Act of 1996 Privacy and Security Rules are enforced by the U.S. Office for Civil Rights. The Privacy Rule protects the privacy of individually identifiable health information held by covered entities, giving patients an array of rights with respect to that information. The HIPAA Security Rule sets national standards for the security of electronic protected health information; it specifies a series of administrative, physical, and technical safeguards for covered entities to assure the confidentiality, integrity and availability of electronic protected health information. Further, the confidentiality provisions of the Patient Safety Rule protect identifiable information being used to analyze patient safety events and improve patient safety. (U.S. Department of Health & Human Service, www.hhs.gov/ocr/privacy/hipaa/ understanding/index.html, last access on 2.12.2012) ISO27001: The ISO 27000 series of standards are specifically reserved by ISO for information security matters, aligning a number of topics around information security management systems. Published 2005, the objective of the ISO 27001 standard itself is a specification for an ISMS to „provide a model for establishing, implementing, operating, monitoring, reviewing, maintaining, and improving an Information Security Management System“. It is against this standard which certification is granted. Further standards of the ISO 27000 series comprise guidance for implementation of ISMS (ISO 27003), ISMS management measures and metrics (ISO 27004) or an independent methodology for information security risk management. (ISO 27000 Directory 2009, www.27000.org/index.htm, last access on 2.12.2012) Literature: Alner, M.: The Effects of Outsourcing of Information Security. In: Information Systems Security, 10(2), 2001. BERR (Department for Business, Enterprise and Regulatory Reform): Electronic Signatures and Associated Legislation. United Kingdom 2000. www.bis.gov.uk/files/file49952.pdf (last access on 2.12.2012). Böhm, M.: Werte schaffen durch IT-Compliance. In: Wirtschaftsinformatik & Management, H. 3 (2009). Dumortier, J./Kelm, S./Nilsson, H./Skouma, G./Van Eecke, P.: The Legal and Market Aspects of Electronic Signatures: legal and market aspects of the application of Directive 1999/93/EC and practical applications of electronic signatures in the Member States, the EEA, the Candidate and the Accession countries. A Study for the European Commission — DG Information Society, Interdisciplinary Centre for Law & Information Technology 2003. Hall, J./Liedtka, S.: The Sarbanes-Oxley Act: Implications for largescale IT outsourcing. In: Communications of the ACM, 50(3), 2007. Kaplan, R.S./Norton, D.P.: Using the Balanced Scorecard as a Strategic Management System. In: Harvard Business Review, 74(1-2), 1996, p. 75 - 85. Kolkowkska, E./Dhillon, G.: Organizational power and information security rule compliance. In: Computers & Security 2012. http://dx.doi.org/10.1016/j.cose.2012.07.001 (last access on 2.12.2012). Kuner, C./Barcelo, R./Baker, S./Greenwald, E.: An Analysis of International Electronic and Digital Signature Implementation Initiatives. A Study Prepared for the Internet Law & Policy Forum (ILPF), 2000. Sackmann, S./Kähmer, M.: ExPDT: Ein Policy-basierter Ansatz zur Automatisierung von Compliance. In: Wirtschaftsinformatik, H. 5 (2008). Thalmann, S./Bachlechner, D./Demetz, L./Maier, R.: Challenges in Cross-Organizational Security Management. In: Proceedings of the 45th Hawaii International Conference on System Sciences (HICSS), Grand Wailea, 2012. Thalmann, S./Bachlechner, D./Manhart, M./Demetz, L.: Key Roles in Cross-Organizational Security Settings. In: Proceedings of the 2011 European Security Conference, Örebro/Sweden 2011. Wittek, M./Strasser, A.: IT-Compliance-Officer: Verantwortung, Aufgaben, Befugnisse und Qualifikationen. In: Wirtschaftsinformatik & Management, H. 4 (2012). Teil 2 der Fallstudie erscheint in WISU 2/2013. Übersetzungshilfen: an array of — eine Reihe von; between a rock and a hard place — in der Klemme sein; compliance — Übereinstimmung; contractually — vertraglich; criminal prosecution — strafrechtliche Verfolgung; devastated — am Boden zerstört; commitment — Verpflichtung, Zusage; liable — verpflichtet, haftbar; hurdle — Hürde; monitoring — Überwachung; mandatory — verbindlich, verpflichtend; non-repudiation — Nichtverstoß, Unleugbarkeit; on behalf of — im Auftrag von; occurrency — Vorkommnis; pre-requisites — Voraussetzungen; severity — Ernst, Schwere, Schwierigkeit; to adhere to — befolgen, sich richten nach; to cede — überlassen, abgeben; to exacerbate — verschlimmern, verschärfen; to hamper — hindern, beeinträchtigen; to impose — auferlegen; to retrieve — beziehen, erlangen, abrufen; to stem from — stammen von; to unearth — aufstöbern, zu Tage bringen. WISU 1/13 103 Volkswirtschaftslehre Geldpolitik Orientierungsgrößen der Geldpolitik Prof. Dr. Joachim Weeber, Elmshorn Bei der Überwindung der europäischen Staatsschuldenkrise steht unter anderem die Geldpolitik im Mittelpunkt. Waren es bislang vor allem die geldpolitischen Instrumente, welche die Auseinandersetzungen bestimmten, dürfte der Diskurs über die geldpolitische Strategie der Europäischen Zentralbank bald wieder aufleben. Dabei sind zahlreiche Aspekte zu beachten. I. Neue Anforderungen an die Geldpolitik Die Krisen der letzten Jahre — von der Subprime- über die Finanz- bis hin zur Schuldenkrise — haben auch Auswirkungen auf die Geldpolitik der Industriestaaten. Das gilt insbesondere für die Eurozone. Vertrauen in die Finanzmärkte ist erheblich erschüttert Standen zuvor vor allem traditionelle, etwa zinspolitische Maßnahmen im Mittelpunkt der Geldpolitik, änderten sich spätestens seit dem Zusammenbruch der Investmentbank Lehman Brothers im September 2008 die Rahmenbedingungen. Es war vor allem diese Insolvenz, die das Vertrauen in die Finanzmärkte schwer erschütterte. Banken liehen sich kein bzw. erheblich weniger Geld, was zum faktischen Stillstand des InterbankenHandels führte. Der Liquiditätshandel zwischen den Banken kam danach ganz oder nahezu ganz zum Erliegen. Die Liquidität in den Volkswirtschaften konnte nur durch massive Eingriffe der Staaten bzw. der Zentralbanken sichergestellt werden. Inzwischen werden sogar einzelne Euro-Länder unmittelbar von der Europäischen Zentralbank (EZB) finanziert. Auswirkungen auf die Realwirtschaft Dies hatte nicht nur Auswirkungen auf die Finanzmärkte, auch die Realwirtschaft vieler Länder war massiv betroffen, was über verschiedenste Wege zu Spillover-Effekten führte. In vielen Ländern ging das Wirtschaftswachstum erheblich zurück, mancherorts verloren die produzierten Waren und Dienstleistungen sogar stark an Wert. Neue Konzepte für die Geldpolitik Mussten anfangs vor allem die Märkte beruhigt werden, geht es mittlerweile auch um mittel- bis langfristige Konzepte für die Geldpolitik, um Krisen dieser und anderer Art auf den Finanzmärkten künftig zu verhindern. Die Vorschläge reichen von einer moderaten Überarbeitung der bisherigen Geldpolitik, d.h. ihren Zielen, Strategien und Instrumenten, bis hin zu einer vollständigen Neuorientierung der Geld- und in deren Gefolge auch der Währungspolitik — etwa bei Vorstellungen wie dem Vollgeld (vgl. Douglas et. al.). Hier wird die Frage beleuchtet, an welchen Kriterien sich die Strategie der EZB bei der Ausweitung der Geldmenge künftig ausrichten soll. Dabei wird davon ausgegangen, dass die bisherige alleinige Ausrichtung ihrer Geldpolitik an der Preisstabilität (Art. 127 (1) des Vertrages über die Arbeitsweise der Europäischen Union) durch die Aufrechterhaltung der Finanzmarktstabilität zumindest ergänzt wird — auch wenn dies nicht notwendigerweise rechtlich verbindlich fixiert wird. Eine Annahme, die aufgrund der derzeitigen Politik der EZB nicht unberechtigt erscheint. Frage 1: Woraus haben sich die Anforderungen an die aktuelle Geldpolitik ergeben? II. Alternativen der geldpolitischen Strategie im Euro-Raum Grundfesten der EZB-Politik WISU 104 1/13 Die Grundfesten der geldpolitischen Strategie der EZB haben sich seit dem Beginn der Europäischen Währungsunion im Jahre 1999 nicht verändert. Dabei geht es um die von ihr definierte Preisstabilität, wonach eine Inflationsrate beim harmonisierten Verbraucherpreisindex von „unter, aber nahe bei zwei Prozent“ angestrebt wird, sowie um die VOLKSWIRTSCHAFTSLEHRE Zwei-Säulen-Strategie, wobei es sich bei der ersten Säule um die „monetäre Analyse“ und bei der zweiten um die „Analyse der wirtschaftlichen Entwicklung“ handelt. 1. Monetäre Analyse Geldmenge Mit der monetären Analyse wird „der Tatsache Rechnung getragen, dass Geldmengenwachstum und Inflation auf mittel- bis langfristige Sicht in enger Beziehung zueinander stehen … Diese weithin anerkannte Beziehung gibt der Geldpolitik einen festen und zuverlässigen nominalen Anker an die Hand, der über die üblicherweise bei der Erstellung von Inflationsprognosen verwendeten Horizonte hinausgeht … Aufgrund des mittel- bis langfristigen Charakters der monetären Sichtweise gibt es jedoch keine direkte Verbindung zwischen kurzfristigen monetären Entwicklungen und geldpolitischen Beschlüssen“ (EZB, 65 f.). Allerdings war der Nachweis einer direkten Verbindung zwischen Geldmenge und Preisentwicklungen der jüngeren Vergangenheit von Unschärfen geprägt, etwa aufgrund von Portfolio-Umschichtungen der Anleger, wenn sich die Attraktivität der in der Geldmenge enthaltenen Bankeinlagen (etwa aufgrund von Änderungen der steuerlichen Behandlung von Zins- oder Kapitalerträgen) gegenüber anderen Finanzinstrumenten ändert. 2. Wirtschaftliche Analyse Bestimmungsfaktoren Zur Analyse der wirtschaftlichen Entwicklung gehört die Beobachtung zahlreicher verschiedener Indikatoren. „Dabei geht es um die Beurteilung der kurz- bis mittelfristigen Bestimmungsfaktoren der Preisentwicklung … Sie trägt der Tatsache Rechnung, dass die Preisentwicklung über diese Zeithorizonte hinweg weitgehend vom Zusammenspiel von Angebot und Nachfrage an den Güter-, Dienstleistungs- und Faktormärkten beeinflusst wird“ (EZB, S. 58 f.). Zu diesen Indikatoren zählen etwa die Entwicklung der gesamtwirtschaftlichen Produktion, die gesamtwirtschaftliche Nachfrage und ihre Komponenten sowie Daten der Finanzpolitik. Hinzu kommt eine breite Palette von Preisund Kostenindikatoren, die Entwicklung des Wechselkurses, der Weltwirtschaft und der Zahlungsbilanz. Dabei geht es um die Einschätzung, wie sich die Realwirtschaft entwickelt und um die Auswirkungen auf die Preisstabilität. Frage 2: Was sind die Grundlagen der Zwei-Säulen-Strategie der EZB? Ergänzungen der bisherigen Ausrichtung Bereits vor rund zehn Jahren säte die EZB selbst Zweifel an ihrer Zwei-Säulen-Strategie. Auf der Sitzung des EZB-Rates vom 8.5.2003 wurde die geldpolitische Strategie überprüft und es wurden eine Reihe von Beschlüssen getroffen, welche die ursprüngliche geldpolitische Ausrichtung ergänzten: — Die Zielvorstellungen hinsichtlich der angestrebten Preisstabilität wurden präzisiert. — Die Struktur der Berichterstattung im Rahmen der „einleitenden Bemerkungen“ des EZB-Präsidenten wurde geändert: Erst nach der wirtschaftlichen und finanzwirtschaftlichen Analyse folgen jetzt Ausführungen zur monetären Analyse. Die Beobachter der EZB vermuteten, dass die wirtschaftliche Analyse dadurch mehr Gewicht erlangt hat. — Der Referenzwert für die Ableitung des Geldmengenziels wird nicht mehr jährlich überprüft, womit der mittel- und längerfristige Charakter der Geldpolitik betont werden soll. Gleichzeitig stellte der EZB-Rat klar, dass er die Bedingungen und Annahmen, auf denen der Referenzwert beruht, weiter beobachtet und erforderlichenfalls Änderungen bekannt gibt. Weitere Auseinandersetzung Danach ging die Auseinandersetzung weiter, zum Teil wurde sie von der EZB selbst initiiert. So wurde beispielsweise im Herbst 2006 diese Äußerung der damalige EZB-Generaldirektorin Reichlin auf der 4. Zentralbankkonferenz in Frankfurt in der Presse wiedergegeben: „Das ist eine Neuigkeit: Wir haben festgestellt, dass die Geldnachfrage instabil ist“ (zitiert nach Häring). Auch der ehemalige EZB-Chefvolkswirt Jürgen Stark räumte ein: „Man kann nicht leugnen, dass es viele praktische Probleme bei der Analyse und Interpretation der Beziehung zwischen Geldmenge und Preisen gibt“ (zitiert nach Häring). Der Zweifel daran, dass die Stabilität der Geldnachfrage Grundbedingung für die (Teil-) Strategie der Geldmengensteuerung ist, hatte vor allem dazu geführt, dass die Berichterstattung 2003 geändert wurde. Aufgrund der anhaltenden Turbulenzen und Unsicherheiten an den Finanzmärkten hat die Stabilität mittlerweile jedoch eher ab- statt zugenommen. Außerdem haben die Ursachen der Finanzkrise und deren Auswirkungen deutlich gemacht, dass die gegenseitige Abhängigkeit der Finanzmärkte und der ReWISU 1/13 105 VOLKSWIRTSCHAFTSLEHRE alwirtschaft unterschätzt worden war. Etwa aufgrund des zusätzlichen Abschreibungsbedarfs der Banken wegen zunehmender Kreditausfälle, die durch den drastischen Wirtschaftseinbruch bedingt waren, sowie den Wertverlust vieler Wertpapiere, die sich im Bestand der Banken befanden. Wenn sich die Geldpolitik deshalb stärker an der Realwirtschaft orientiert, ist dies durchaus verständlich (vgl. Münchau). III. Alternativvorschläge Zwischenziele Preisniveaustabilität, Wirtschaftswachstum und Finanzmarktstabilität lassen sich durch die Geldpolitik nur schwer direkt erzielen. Deshalb müssen zunächst Zwischenziele angestrebt werden, die dem Einfluss der Zentralbank unterliegen und in enger Verbindung mit den Endzielen stehen. Diese Zwischenziele unterscheiden sich hinsichtlich der Zeitdimension, der Orientierungsgröße und der Dimensionalität. Vom ein- zum mehrjährigen Geldmengenziel Der Übergang vom ein- zum mehrjährigen Geldmengenziel wurde bereits diskutiert, als die Geldpolitik noch bei der Deutschen Bundesbank lag und eine reine Geldmengenorientierung erfolgte. Begründet wurde dies damals vor allem damit, dass sich so kurzfristig Sonderfaktoren wie die Anfang der neunziger Jahre entwickelten Finanzinnovation, die auf die monetäre Entwicklung einwirken, entschärfen ließen. Aus heutiger Sicht ist ein längerer Zeithorizont auch aufgrund prinzipieller Überlegungen gerechtfertigt: Die Geldpolitik wird dadurch glaubwürdiger — ein Umstand, der das gestörte Vertrauen in die Geldpolitik der EZB wieder festigen kann. Die mittelfristige Ausrichtung der Geldpolitik wäre sichtbarer als bisher. Bei der mehr oder weniger pragmatischen aktuellen Geldpolitik der EZB aufgrund der Finanzkrise könnte diese Neuorientierung der geldpolitischen Steuerung wieder mehr Kontinuität verleihen. 1. Zeitdimension Frage 3: Warum spielt die Frage der zeitlichen Dimension geldpolitischer Strategien eine wichtige Rolle bei der Glaubwürdigkeit der Geldpolitik? 2. Alternative Orientierungsgrößen Direkte Inflationssteuerung Der bekannteste Vorschlag, die geldmengenfixierte Geldpolitik zu überwinden, ist die direkte Inflationssteuerung (Inflation Targeting). Darunter wird der Versuch der Zentralbanken verstanden, „in der mittleren Frist ein gegebenes Inflationsziel zu erreichen. Schließlich besteht das vorrangige Ziel der Geldpolitik in der mittleren Frist darin, eine gegebene Inflationsrate zu erreichen“ (Blanchard/Illing, S. 785). Allerdings erscheint das Inflation Targeting aus heutiger Sicht nur bedingt geeignet, da die Preisstabilität zum einen mittelfristig kaum gefährdet ist und die nicht ausdrücklich genannte Finanzmarktstabilität Priorität hat. Hinzu kommt, dass die derzeitige Überschussliquidität eher die Stabilität der — nicht bei der Inflationsrate berücksichtigten — Vermögenswerte (z.B. Immobilien) gefährdet. Orientierung an Wechselkursen Neben einem direkten Inflationsziel oder der Orientierung an Wechselkursen, d.h. der Kopplung der Inlandswährung an eine stabile ausländische Währung — eine Strategie, die sich eher für kleine Staaten und nicht für die Eurozone eignet —, sind auch andere Zwischenziele denkbar. Kreditgewährung an den privaten Sektor Eine alternative Orientierungsgröße könnte die Kreditgewährung an den privaten Sektor bzw. das gesamte Aktivgeschäft sein. Dies wurde bereits 1996 vorgeschlagen (vgl. Mayer/Fels). Die Grundidee ist, die kurzfristigen Volatilitäten der Geldnachfrage auszublenden und stärker auf die tatsächlichen Vorlaufsindikatoren der Preis- und Finanzmarktstabilität abzustellen. Kreditaggregate entwickeln sich langfristig nahezu parallel zur gesamtwirtschaftlichen Nachfrage. Mit der Zinsgestaltung und den ergänzenden Instrumenten ist zumindest ein gewisser Einfluss auf diese Größen gegeben — vor allem nach der Finanzkrise. Ein Problem könnte jedoch der nicht ausreichende Vorlauf dieser Indikatoren sein. Auch die Kreditaufnahmen des Auslands lassen sich angesichts der globalen Finanzmärkte nur schwer von den heimischen Zentralbanken kontrollieren. Orientierung am nominalen BIP Deshalb wird von anderer Seite die Orientierung der Geldpolitik an der tatsächlichen Produktion eines Währungsraums präferiert. Als mögliche Zielgröße wird dabei das nominale Bruttoinlandsprodukt (BIP) diskutiert. Es enthält einen realwirtschaftlichen Teil (reales BIP) und auch eine Preiskomponente. Die Geldpolitik müsste dann reagieren, wenn sich das tatsächliche von einem zuvor festgelegten BIP — aus Praktikabilitätsgründen bietet sich hier nicht der absolute Wert, sondern die Wachstumsrate des nomi- WISU 106 1/13 VOLKSWIRTSCHAFTSLEHRE nalen BIP an — entfernt. Liegt das Wachstum des tatsächlichen nominalen BIP unter bzw. über dem Zielwert, müssten — falls Zinsveränderungen als geldpolitisches Instrumentarium erwogen werden — die Leitzinsen gesenkt bzw. erhöht werden. Insgesamt würde es damit zu einer Lockerung bzw. Straffung der Geldpolitik bei Unterschreitung bzw. Überschreitung des mittelfristigen, nominal angestrebten Wachstumspfads kommen. Vor- und Nachteile Dieser Indikator hat den Vorteil, dass er weithin bekannt und insoweit auch leicht vermittelbar ist. Er steht in enger Verbindung mit anderen gesamtwirtschaftlichen Zielen und ist eine allgemein akzeptierte Größe. Ein Nachteil könnte die mangelnde Kontrollierbarkeit sein, da das tatsächliche BIP zahlreichen Faktoren unterliegt, die sich nicht von der Zentralbank beeinflussen lassen (vgl. Illing, S. 119). Vor allem kurzfristige exogene Schocks wie Naturkatastrophen lassen sich nur schwer in eine langfristige geldpolitische Strategie integrieren. Da solche Effekte aber selten auftreten, können sie durch eine langfristige Zielsetzung aufgefangen werden. Ein weiteres Problem ist, dass die notwendigen Daten nicht rechtzeitig verfügbar sind, da die volkswirtschaftliche Gesamtrechnungen notwendigerweise ex post und quartalsweise erfolgt (vgl. Görgens et. al., S. 145). Dieses Problem ist angesichts der auf Prognosen beruhenden Ausrichtung der geldpolitischen Steuerung jedoch eher nachrangig. Eine Orientierung am nominalen BIP würde zudem eindeutiger auf die Finanzmarktstabilität ausgerichtet sein, da sich — insgesamt gesehen — bei dieser Orientierungsgröße die aktuelle Wirtschaftsleistung leichter in geldpolitische Überlegungen integrieren lässt. Wiedereinführung des Goldstandards Nicht zuletzt wird auch die Wiedereinführung des Goldstandards diskutiert, so wie er nach Bretton Woods mit der Festlegung auf eine neue Währungsordnung mit dem Dollar als Leitwährung bestand. Die amerikanische Währung stand in einer festen Relation zum Gold (35 Dollar/Unze), außerdem war ihr Kurs gegenüber allen Währungen der Mitgliedstaaten des Internationalen Währungsfonds (IWF) fixiert. Wegen der späteren wirtschaftlichen Probleme der USA — schwindende Wirtschaftskraft, Leistungsbilanzdefizit und hohe Staatsausgaben durch den Vietnam-Krieg — konnte dieses Festkurssystem nicht aufrecht erhalten werden. Die sich dadurch ergebenden Währungsprobleme beruhten im Wesentlichen auf dem Konflikt der Wirtschaftspolitik vieler Nationalstaaten und den internationalen Regeln, die vor allem von den USA vorgegeben worden waren. Die Schwankungen bei der Liquiditätsversorgung mit der Reservewährung Dollar führten entweder zu Dollar-Lücken oder -Schwemmen, was die inländische Geldversorgung der anderen Staaten von der Geld- und Wirtschaftspolitik der USA abhängig machte. Die Interessengegensätze führten 1973 zur De-Facto-Abkehr (formal 1978) vom System der festen Wechselkurse. Aufgrund der Probleme bei der praktischen Umsetzung eines solchen Währungssystems (z.B. das Verteilungsproblem Goldbesitzer/ Nichtbesitzer) dürfte sich eine geldpolitische Verankerung an der realen Größe Gold nicht realisieren lassen (vgl. zur Goldwährung Kasten, S. 84 ff.; zur Kritik dazu etwa Pohl, S. 113 ff.). Rohstoffpreisindexierte Strategien Weitergehende, eher auf spezielle Preisveränderungen zielende Größen können z.B. rohstoffpreisindexierte Strategien sein. Dabei sind allerdings eine Reihe von Problemen zu beachten, unter anderem die Wahl der Rohstoffgruppen und der adäquaten Rohstoffpreisrepräsentanten, der Währungsbasis und der adäquaten Gewichtung der Rohstoffe (vgl. zu solchen Einwänden bereits Auer, S. 158 ff.). Frage 4: Welche Orientierungsgrößen kommen als Alternativen zur Zwei-Säulen-Strategie der EZB in Betracht? 3. Dimensionalität Ein- oder mehrdimensionaler Ansatz Eine weitere Frage bei einer Reform der geldpolitischen Strategie ist, ob mehrere Anknüfungspunkte in Form von Zwischenzielen bestehen sollen oder eindimensionale Orientierungsgrößen vorzuziehen sind. Mehrdimensionale Ansätze wie bei der Zwei-SäulenStrategie der EZB und dem von der US-Notenbank bevorzugten Multi-IndikatorenAnsatz — neben der Inflationsentwicklung geht es hier auch um die Konjunkturentwicklung — können vorteilhaft sein, weil sie viele Daten enthalten, die für die Endziele der jeweiligen geldpolitischen Strategie von Bedeutung sein können. Allerdings dürfte der breiten Öffentlichkeit eine Ein-Säulen-Strategie am ehesten zu vermitteln sein. Damit ist ein Wechsel der „Begründungssäule“ je nach Bedarf nicht möglich, was die Berechenbarkeit der Geldpolitik erhöht, da Mehrdeutigkeiten vermieden werden. WISU 1/13 107 VOLKSWIRTSCHAFTSLEHRE IV. Konsequenzen für die Geldpolitik Die hier skizzierten Anforderungen an eine zukunftsorientierte Geldpolitik — Zeithorizont, Orientierungsgröße, Dimensionalität — zeigen, dass eindimensionale Mehrjahresziele vorzuziehen sind. Darüber hinaus sollte die Orientierungsgröße, also das anzustrebende Zwischenziel, einen nominalen Anker haben. Dies würde in letzter Konsequenz zu einem Überdenken der derzeitigen offiziellen Strategie der EZB führen. Auch vor dem Hintergrund, dass sich die Gewichtung des Endziels Preisstabilität in Richtung Finanzmarktstabilität verschoben hat. Literatur: Auer, J.: Theoretische Grundlagen der rohstoffpreisindexbeeinflußten internationalen Kooperation der Währungspolitik: Ein Beitrag zur Stabilisierung der Wechselkurse. Frankfurt a.M. 1993. Blanchard, O./Illing, G.: Makroökonomie. 5. Aufl., München 2009. Douglas, P. et. al.: A Program for Monetary Reform. www.economicstability.org/wp/wp-content/uploads/2010/07/revisedAProgramforMoA7DF1B1.pdf. EZB: Die Geldpolitik der EZB. Frankfurt a.M. 2004. Görgens, E./Ruckriegel, K./Seitz, F.: Europäische Geldpolitik. 5. Aufl., Stuttgart 2008. Häring, N.: EZB räumt Strategieprobleme ein. In: Handelsblatt v. 10.11. 2006. Illing, G.: Theorie der Geldpolitik. Eine spieltheoretische Einführung. Berlin 1997. Kasten, H.: Der Funktionswandel des Goldes — ein Beitrag zur internationalen Währungsdiskussion. Frankfurt a.M. 1970. Mayer, T./Fels, J.: Why is Money Growth Accelerating? In: Goldman Sachs, German Weekly Analyst v. 23.2.1996. Münchau, W.: Zeitenwende in der Geldpolitik. In: Financial Times Deutschland v. 19.9.2012. Pohl, R.: Geld und Währung. Mannheim 1993. Die Fragen werden im WISU-Repetitorium beantwortet. Verhaltensökonomik Alterssicherung und Verhaltensökonomik Prof. Dr. Werner Sesselmeier, Landau / Marlene Haupt, MA, München Die private Altersvorsorge gehört spätestens seit der Riester-Reform zur individuellen Lebensplanung. Unterbleibt sie, lässt sich der Lebensstandard während des Erwerbslebens im Alter nicht mehr aufrechterhalten. Bei der politischen Gestaltung der privaten Altersvorsorge sollte jedoch die Verhaltensökonomik berücksichtigt werden, da sie andernfalls von einem Großteil der Bevölkerung ignoriert wird. I. Einleitung Riester-Reform 2001 Im Jahr 2001 wurde das deutsche Alterssicherungssystem grundlegend durch die nach dem damaligen Bundesminister für Arbeit und Sozialordnung benannte Riester-Reform umgestaltet. Die Reform war eine Reaktion auf die veränderten ökonomischen und demografischen Rahmenbedingungen. Drei-Säulen-Modell Deutschland verfolgte dabei — ebenso wie viele andere Industrienationen — das Ziel, das insbesondere von der Weltbank erörterte Drei-Säulen-Modell der Alterssicherung zu etablieren (vgl. Weltbank). Es war die Abkehr vom leistungsbezogenen System der Lebensstandard- und Statussicherung, das nur auf der Säule der gesetzlichen Rentenversicherung beruht, und die Hinwendung zu einem Vorsorgemix aus gesetzlicher, betrieblicher und privater Altersvorsorge. Dies bedingte auch die Teilprivatisierung dieses Bereiches der sozialen Sicherung, verlagerte die systemischen Risiken und die Chancen auf höhere Renditen von der Solidargemeinschaft auf den Einzelnen und sollte gleichzeitig künftige Generationen entlasten (vgl. Sesselmeier/Haupt/Somaggio/Yollu-Tok). WISU 108 1/13 VOLKSWIRTSCHAFTSLEHRE Individuelle Entscheidungen erforderlich Damit veränderten sich auch die Rahmenbedingungen der Altersvorsorge. So lässt sich der Lebensstandard im Alter jetzt nicht mehr allein durch Pflichtbeiträge zur gesetzlichen Rentenversicherung sichern. Nicht nur, dass durch die freiwillige Zusatzvorsorge heute mehr Eigenverantwortung gefragt ist, aufgrund der vielen Anbieter und Anlagemöglichkeiten bei der betrieblichen und privaten Altersvorsorge haben sich auch die Entscheidungsmöglichkeiten drastisch erhöht. Und anders als in anderen Ländern wie etwa Schweden, die ebenfalls die private Zusatzvorsorge einführten, muss der Versicherte nicht zwangsweise in einen öffentlich-rechtlichen Standardfonds investieren, falls er keine Anlageentscheidung trifft (vgl. Haupt/Kluth; Haupt/Sesselmeier). Hier wird analysiert, ob und in welchem Umfang die Versicherten der Bedeutung der privaten Vorsorge tatsächlich gerecht werden und ihr Rechnung tragen. Frage 1: Wie und warum wurde die deutsche Alterssicherung geändert? II. Wie sich die Menschen verhalten sollten Lebenszyklushypothese von Modigliani/Brumberg Die ökonomische Begründung des Soll-Verhaltens beim Altersvorsorgesparen liefert die Lebenszyklushypothese von Modigliani und Brumberg, die sich mit der optimalen Konsumplanung der Individuen über die gesamte Lebenszeit hinweg befasst (vgl. Modigliani/ Brumberg). Homo oeconomicus Ihr liegt das Modell des Homo oeconomicus zugrunde, wonach rationale Individuen vorausschauend planen und sparen, um über den gesamten Lebenszyklus ein konstantes Konsumniveau zu erreichen. Das wichtigste Sparmotiv ist damit der Ausgleich von zwischenzeitlichen Einkommensschwankungen. Die ökonomisch relevanten Lebensabschnitte sind die Erwerbs- und die Ruhestandsphase und das damit verbundene Sparen und Entsparen. Um den optimalen Konsumpfad zu ermitteln, berechnet das Individuum zunächst bei Annahme eines abnehmenden Grenznutzens sein zu erwartendes Lebenseinkommen, verteilt es dann gleichmäßig über den gesamten Lebenszyklus und begibt sich anschließend auf den so ermittelten Konsumpfad. Homo oeconomicus und Riester-Rente Dieses Leitbild des souveränen Konsumenten, der autonom und rational entscheidet, wie und in welchem Maße er für sein Alter vorsorgt und zudem die Konsequenzen seines Verhaltens eigenverantwortlich trägt, bedeutet im Fall der Riester-Rente: Während das alte System einen optimalen Konsumpfad gewährleistete, wird der Senkung des Rentenniveaus in der gesetzlichen Rentenversicherung nun durch betriebliche oder private Altersvorsorgeverträge in gleicher Höhe begegnet, um sich den gleichen Lebensstandard wie vor der Reform zu sichern. III. Wie sich die Menschen tatsächlich verhalten Das Standardmodell und die Realität Lässt sich das tatsächliche Verhalten der Individuen bei der privaten Altersvorsorge mit dem ökonomische Standardmodell erklären? Verhalten sich die Versicherten nach diesem Modell, d.h. schließen sie eigenverantwortlich adäquate Vorsorgeverträge ab, oder weicht ihr Ist-Verhalten davon ab? Von der Einführung der Riester-Rente 2001 bis Ende Oktober 2012 stieg die Zahl der privaten Altersvorsorgeverträge auf knapp 15,6 Mio. Zudem erhöhten sich sowohl das Volumen der direkten Zulagen als auch die zusätzliche steuerliche Förderung, die als Indikatoren für die Akzeptanz und Verbreitung der Riester-Rente gelten. Für die Messung der tatsächlichen Effektivität und Akzeptanz der Riester-Rente muss der absoluten Zahl der Vertragsabschlüsse die Gesamtheit der förderberechtigten Personen gegenübergestellt werden. Die Quantifizierung dieses Kreises ist jedoch schwierig, da neben den primär geförderten Personengruppen (z.B. Pflichtmitglieder in der gesetzlichen Rentenversicherung, Beamte, Richter und Soldaten) auch den Ehepartnern der Riester-Sparer mittelbar ein Anspruch auf Förderung zusteht. Die Schätzungen liegen zwischen 30 und fast 43 Mio. förderberechtigten Personen. Verbreitungsgrad der Riester-Rente unter 40 Prozent Damit liegt der Verbreitungsgrad der Riester-Rente momentan bei ca. 40 Prozent. Da förderberechtigte Personen jedoch nicht nur einen Vertrag abschließen können und bei einem Teil der offiziell gezählten Verträge keine Sparleistungen erfolgen, werden die RiesterVerträge in noch geringerem Maße genutzt. Etwa zwei Drittel der Adressaten nutzen diese Zusatzvorsorge also nicht oder nicht mehr, obwohl sie durch direkte staatliche Zulagen und steuerliche Vorteile gefördert wird. Das Ziel der Reform, dass diese private Altersvorsorge von möglichst vielen wahrgenommen wird, wurde also bisher nicht erreicht. WISU 1/13 109 VOLKSWIRTSCHAFTSLEHRE Riester-Rente wird auch von Geringverdienern zu wenig genutzt Wie Coppola/Reil-Held (vgl. Coppola/Reil-Held) und Geyer/Steiner (vgl. Geyer/Steiner) belegen, wird auch das Ziel, Geringverdiener beim Aufbau einer privaten Altersvorsorge zu unterstützen, nur sehr eingeschränkt erreicht. Als Grund wird unter anderem genannt, dass einkommensschwache Haushalte weniger finanzielle Mittel zum Sparen und damit auch für die Riester-Rente aufbringen können. Frauen nehmen die Riester-Rente häufiger in Anspruch als Männer und Ostdeutsche eher als Westdeutsche. Am meisten wird sie von 18 bis 34-Jährigen genutzt. Auch bei Haushalten mit zwei oder mehr Kindern ist die Nachfrage besonders groß — die finanziellen Anreize der ergänzenden Kinderzulagen wirken sich hier positiv aus (vgl. Börsch-Supan/Coppola/Reil-Held). Weitere Faktoren Die Nachfrage nach Riester-Renten nahm zu, als der Gesetzgeber für Vereinfachungen sorgte. Zudem hängt die Inanspruchnahme dieser privaten Altersvorsorge auch davon ab, wie die komplexen Finanzprodukte präsentiert werden und über welchen Informationsstand die Interessenten verfügen. Außerdem wurde ein Zusammenhang zwischen Bildungsstand und privater Altersvorsorge festgestellt. Standardmodell liefert keine vollständige Erklärung Die bisherige Forschung hat also gezeigt, dass das ökonomische Standardmodell — die Lebenszyklushypothese — das tatsächliche Sparverhalten weder vollständig erklären noch vorhersagen kann. Das führt zu zwei Fragen: — Weshalb weichen das tatsächliche Verhalten und das modelltheoretische Soll-Verhalten bei der privaten Altersvorsorge so stark voneinander ab? — Warum nutzen nicht alle Berechtigten die staatliche Förderung? Frage 2: Welche Unterschiede lassen sich bei der Inanspruchnahme der Riester-Rente erkennen? IV. Analyse des realen Verhaltens bei der Altersvorsorge Kritik am Grundmodell Würde das tatsächliche Verhalten bei der Altersvorsorge dem Homo-oeconomicusModell entsprechen, wäre es durch die Riester-Reform zum gewünschten Verhalten gekommen. Die Lebenszyklushypothese trifft jedoch weder auf der aggregierten noch auf der individuellen Ebene zu, womit sie sich nur begrenzt als Erklärungsmodell geeignet. Kritisiert werden vor allem das Rationalitätsprinzip und die Stabilität der Präferenzen im Lebenszyklus (vgl. Thaler; Kirchgässner). Modifizierungen Das Grundmodell des Homo oeconomicus muss also modifiziert werden. Zum einen muss es mehr der Realität angenähert werden, zum anderen bedarf es eines umfassenderen Erklärungsansatzes für das Sparverhalten. Behaviouristische Lebenszyklushypothese Beachtung findet vor allem die behaviouristische Lebenszyklushypothese von Shefrin/ Thaler (vgl. Shefrin/Thaler), die das Modell von Modigliani/Brumberg systematisch um verhaltensökonomische Anomalien ergänzt. Darunter sind jedoch keine abnormen oder fehlerhaften Verhaltensweisen, sondern psychologische „Normalfälle“ gegenüber dem einfachen Homo-oeconomicus-Modell zu verstehen. Institutionenökonomik Neben der Verhaltensökonomie ist auch die Institutionenanalyse, insbesondere die Theorie der Pfadabhängigkeit und die Analyse graduellen institutionellen Wandels, relevant. Allerdings wird dieser ganzheitliche Erklärungsansatz bei der Analyse des Altersvorsorgesparens nicht immer ausreichend berücksichtigt (vgl. vertiefend zur Institutionenökonomie Erlei/Leschke/Sauerland und Mahoney/Thelen). Transaktionskostentheorie Vor allem die Kritik am Rationalitätsprinzip verdeutlicht, dass der Mensch — anders als beim Homo oeconomicus angenommen — keine friktionslose, transaktionskostenfreie Informationsverarbeitungsmaschine und damit auch nicht in der Lage ist, in jeder Situation nutzenmaximierend zu handeln. Simon (vgl. Simon) nennt diese Eigenschaft „begrenzte Rationalität“ (Bounded Rationality). Die Begründung liefert die Transaktionskostentheorie, wonach die Beschaffung von Informationen ebenso wie deren Verarbeitung wegen der kognitiven Beschränkungen Kosten verursacht. Satisfizierer statt Optimierer Der Mensch ist demnach eher ein „Satisfizierer“ als ein Optimierer. Mit anderen Worten: Er entscheidet je nach Situation anhand einer Kosten-Nutzen-Analyse, ob weitere Mittel zur Informationsgewinnung aufgewendet werden sollen oder ob bereits ein ausreichend hoher Wissensstand erreicht ist. Ist dies der Fall, wird die weitere Informationssuche abgebrochen. Damit können hohe Transaktionskosten dazu führen, dass die Handlungsalternativen nicht vollkommen bewertet werden, was nicht zu einem optimalen Ergebnis führt. WISU 110 1/13 VOLKSWIRTSCHAFTSLEHRE Dennoch ein rationales Kalkül Da bei der Wahl der Handlungsalternative in der Regel Heuristiken (Faustregeln) herangezogen werden, die sich für den Betreffenden bewährt haben, erfolgt sie trotz der begrenzten Informationen aufgrund eines rationalen Kalküls. Anwendung auf die Riester-Rente Für die durch die Reform notwendig gewordene private Zusatzvorsorge bedeutet dies, dass sich die Transaktionskosten aufgrund der damit verbundenen Informationsbeschaffung und -verarbeitung stark erhöht haben. Als Satisfizierer suchen sich die Berechtigten deshalb ein Riester-Produkt mithilfe von Faustregeln (z.B. „Investiere in das, was du bereits kennst“) aus. Problematisch ist auch, dass es sich beim Ruhestand um ein einmaliges Ereignis handelt. Wie man sich eine angemessene finanzielle Vorsorge beschafft, kann also nicht durch einen wiederholten Prozess „gelernt“ werden. Über 5.000 Altersvorsorgeprodukte Derzeit kann zwischen über 5.000 zertifizierten Altersvorsorgeprodukten gewählt werden. Die Analyse der individuellen Vermögenssituation und die Wahl des richtigen Produkts wird dadurch erheblich erschwert. Da sich viele dabei auch überfordert fühlen, wird die Informationssuche oft vorzeitig abgebrochen und im ungünstigsten Fall überhaupt kein Produkt gewählt, d.h. es kommt zu keiner zusätzlichen Altersvorsorge. Weitere Probleme Daneben treten noch zahlreiche weitere Probleme, d.h. Verletzungen des Rationalitätsprinzips, auf (insgesamt wurden bis heute generell über hundert solcher Anomalien ermittelt, vgl. Enste/Hüther): — Verlustaversion: Menschen messen Gewinnen und Verlusten in gleicher Höhe unterschiedlichen Wert bei. Die Bewertung erfolgt nicht absolut, sondern relativ zu einem Referenzpunkt, wobei Verlusten ein deutlich höherer Wert beigemessen wird als Gewinnen in gleicher Höhe. Das kann dazu führen, dass eine Altersvorsorge aus Angst vor finanziellen Verlusten unterbleibt. — Status-quo-Verzerrung: Sie folgt aus der Verlustaversion. So gibt es eine starke Tendenz, den Status-quo aufrecht zu erhalten, da die Nachteile, die sich andernfalls ergeben, bedrohlicher erscheinen als seine Vorteile. Einmal getroffene Entscheidungen wie die Wahl eines bestimmten Vertrags werden entweder nicht mehr in Frage gestellt, oder es kommt erst gar nicht zu einem Vertragsabschluss, da es unbedenklicher erscheint, sich nicht auf eine Zusatzvorsorge einzulassen. — Besitzeffekt und versunkene Kosten: Auch dies beruht auf der Verlustaversion. So zögern viele, etwas aus ihrem Besitz zu verkaufen. Die Ursachen sind gefühlsmäßige Verbindungen zu dem betreffenden Gegenstand oder aber bereits angefallene Kosten. Häufig wird daher bei der Altersvorsorge Verlustgeschäften noch zusätzliches Geld „hinterhergeworfen“. — Verankerung: Menschen nutzen bei unsicheren Entscheidungen als Hilfestellung bestimmte Informationen als „Anker“, die sich zufällig ergeben oder von anderen Personen stammen. Diese Informationen sind dann bei der Einschätzung einer Situation oder der Entscheidungsfindung ausschlaggebend. Weiterhin wirken sich ursprüngliche Informationen stärker aus als neuere, auch wenn diese möglicherweise besser sind. Damit wird stets das erste Altersvorsorgeprodukt, mit dem sich der Betroffene beschäftigt hat, als Referenz herangezogen, selbst wenn es ungeeignet ist. — Präsentation der Information: Die Art, wie die Information präsentiert wird, d.h. positiv oder negativ, beeinflusst die Entscheidung. Relevant ist auch die Reihenfolge, d.h. wann eine Information erhalten oder abgegeben wird. — Finanz- und Altersaversion: Je aufwändiger die Beschaffung, Verarbeitung und Auswertung von Informationen bei finanziellen Entscheidungen ist, desto mehr fühlen sich die Betreffenden überfordert. Dabei spielen auch finanzielle Kenntnisse und die Erfahrung mit Finanzprodukten eine Rolle. Außerdem wird das Alter oft mit geringerer Produktivität, mit Einsamkeit und Krankheit assoziiert. Je größer die Abneigung gegenüber finanziellen Dingen und je mehr sich jemand mit dem typischen Altersbild identifiziert („Dafür bin ich zu alt“), desto unwahrscheinlicher ist es, dass er sich mit der Altersvorsorge befasst. Auch bei der Nutzenmaximierung finden sich im Zusammenhang mit der Altersvorsorge einige Besonderheiten: — Kurzsichtiges Verhalten und gegenwärtige Bedürfnisse: Menschen tendieren dazu, die weit in der Zukunft liegenden Folgen ihres derzeitigen Verhaltens nicht ausreichend zu berücksichtigen. So wird gegenwärtigen Bedürfnissen mehr Aufmerksamkeit geschenkt als künftigen. Da der Anlagehorizont bei der Altersvorsorge besonders weit ist, dominieren hier die gegenwärtigen Bedürfnisse ganz besonders. Der gegenwärtige Konsum hat Vorrang gegenüber dem im Rentenalter. WISU 1/13 111 VOLKSWIRTSCHAFTSLEHRE — Mangelnde Selbstkontrolle: Menschen bestehen aus einem „Planer“ und einem „Macher“, wobei der Macher eher kurzfristig denkt und auf gegenwärtigen Konsum aus ist, während der Planer an einer Nutzenmaximierung über den Lebenszyklus hinweg interessiert ist. Den alltäglichen Verlockungen, denen der Macher unterliegt, kann der Planer durch Willensstärke begegnen und sich zudem Regeln unterwerfen, die den Konsum des Machers einschränken, etwa indem er einem verbindlichen Sparplan zur Altersvorsorge folgt. Frage 3: Wie wirken sich die Abweichungen von der Rationalität aus? V. Gestaltung von privater Altersvorsorge und ihre praktische Umsetzung Regulierungen erforderlich Wird die Konsumentensouveränität bei der Altersvorsorge durch die genannten Abweichungen vom rationalen Verhalten im Sinne des Homo oeconomicus verletzt, bedarf es entsprechender Regulierungen, die gewährleisten, dass dennoch eine finanzielle Absicherung im Alter erfolgt. Opt-outund Opt-in-Modelle Unter dem von Thaler/Sunstein (vgl. Thaler/Sunstein) geprägten Begriff Nudges — damit sind Verhaltensanstöße gemeint, die jedoch nicht in Anordnungen oder Verbote gekleidet sind — finden sich verschiedene Möglichkeiten, wie sich die private Altersvorsorge gestalten lässt. Je nach Art der Nudges wird die Konsumentensouveränität mehr oder weniger eingeschränkt. Der stärkste Eingriff ist ein Standardsystem (Default) mit einer Opt-out-Möglichkeit. Danach kommt es dann automatisch zur Altersvorsorge, wenn ihr nicht ausdrücklich widersprochen wird. Bedingt durch verschiedene Verhaltensanomalien (z.B. Trägheit und Status-quo-Verzerrung) beteiligen sich so tatsächlich mehr Personen an einem Vorsorgesystem als bei einem Opt-in-Modell wie der Riester-Rente, bei der ausdrücklich ein Vertrag abgeschlossen werden muss (vgl. Choi et al.; Haupt/ Sesselmeier). Abbau von Informationsasymmetrien Weiterhin können die Informationsasymmetrien auf dem Vorsorgemarkt abgebaut werden, indem die Eigenschaften und Kosten der einzelnen Produkte transparenter gemacht werden. In Deutschland wird von der gesetzlichen Rentenversicherung seit 2004 jährlich eine individuelle „Renteninformation“ verschickt und zusätzlich der Auskunftsund Beratungsservice für die Versicherten verbessert. Ab 2013 soll es bei der RiesterRente zudem individualisierte und Muster-Produktinformationsblätter geben, die als Entscheidungsgrundlage dienen und bei der späteren Überprüfung der Performance eines Produktes und seiner Kosten helfen (vgl. Börsch-Supan et al.). So ist vielen Haushalten die Riester-Förderberechtigung bislang noch gar nicht bekannt (vgl. Coppola/Gasche). Allein die Aufklärung darüber könnte bereits die Nachfrage nach einer privaten Zusatzvorsorge erhöhen. Kritik Das Nudges-Konzept wird auch als libertärer bzw. liberaler Paternalismus bezeichnet und zum Teil kritisiert (vgl. Schnellenbach). Frage 4: Wie unterscheiden sich Opt-out- und Opt-in-Modelle bei der Altersvorsorge? Literatur: Börsch-Supan, A. H./Coppola, M./Reil-Held, A.: Riester Pensions in Germany: Design, Dynamics, Targeting Success and Crowding-In. NBER Working Paper Series Working Paper 18014, 2012. Börsch-Supan, A./Gasche, M./Haupt, M./Kluth, S./Rausch, J.: Ökonomische Analyse des Rentenreformpakets der Bundesregierung. MEA Discussion Paper No. 256-2012, 2012, Munich Center for the Economics of Aging. Choi, J. J./Laibson, D./Madrian, B. C./Metrick, A.: Saving For Retirement on the Path of Least Resistance. In: McCaffrey, E.J./Slemrod, Joel (Hrsg.): Behavioral Public Finance: Toward a New Agenda. Russell Sage Foundation 2006, S. 304 - 351. Coppola, M./Gasche, M.: Riester-Förderung — Mangelnde Information als Verbreitungshemmnis. In: Wirtschaftsdienst, 91(11) (2011), S. 792 - 799. Coppola, M./Reil-Held, A.: Dynamik der Riester-Rente: Ergebnisse aus SAVE 2003 bis 2008. MEA Discussion Paper No. 195/2009, Mannheim Research Institute for the Economics of Aging. Enste, D. H./Hüther, M.: Verhaltensökonomik und Ordnungspolitik. Zur Psychologie der Freiheit. IWPositionen Nr. 50 (2011). Köln 2011. Erlei, M./Leschke, M./Sauerland, D.: Neue Institutionenökonomik. Stuttgart 2007. Geyer, J./Steiner, V.: Zahl der Riester-Renten steigt sprunghaft — aber Geringverdiener halten sich noch zurück. In: Wochenbericht des DIW, 76(32) (2009), S. 534 - 541. WISU 112 1/13 VOLKSWIRTSCHAFTSLEHRE Haupt, M./Kluth, S.: Das schwedische Beispiel der kapitalgedeckten Altersvorsorge — Ein Vorbild für Deutschland? In: Vierteljahrshefte zur Wirtschaftsforschung, 81(2) (2012), S. 213 - 230. Haupt, M./Sesselmeier, W.: Altersvorsorgeinformationen in Schweden — ein Vorbild für Deutschland? In: Deutsche Rentenversicherung, 67(2) (2012), S. 82 - 96. Kirchgässner, G.: Homo Oeconomicus. Das ökonomische Modell individuellen Verhaltens und seine Anwendung in den Wirtschafts- und Sozialwissenschaften. Tübingen 2008. Mahoney, J./Thelen, K.: A Theory of Gradual Institutional Change. In: Mahoney, J./Thelen, K. (Hrsg.): Explaining Institutional Change: Ambiguity, Agency, and Power. Cambridge 2010, S. 1 - 37. Modigliani, F./Brumberg, R.: Utility Analysis and the Consumption Function: An Interpretation of Cross-Section Data. In: Kurihara, K.K. (Hrsg.): Post Keynesian Economics. Newark 1954, S. 388 - 436. Schnellenbach, J.: Wohlwollendes Anschubsen — Was ist mit liberalem Paternalismus zu erreichen und was sind seine Nebenwirkungen? In: Perspektiven der Wirtschaftspolitik, 12(4) (2011), S. 445 - 459. Sesselmeier, W./Haupt, M./Somaggio, G./Yollu-Tok, A.: Auswirkungen der Finanz- und Wirtschaftskrise auf die Soziale Sicherung. In: Sozialer Fortschritt, 58(8) (2009), S. 183 - 188. Shefrin, H.M./Thaler, R. H.: The Behavioral Life-Cycle Hypothesis. In: Economic Inquiry, 26(4) (1988), S. 609 - 643. Simon, H.A.: A Behavioral Model of Rational Choice. In: Quarterly Journal of Economics, 69(1) (1955), S. 99 - 118. Thaler, R.H.: From Homo Economicus to Homo Sapiens. In: Journal of Economic Perspectives, 14(1) (2000), S. 133 - 141. Thaler, R. H./Sunstein, C. R.: Nudge. Improving Decisions About Health, Wealth, and Happiness. Princeton 2008. Weltbank (Hrsg.): Averting the Old Age Crisis. Policies to Protect the Old and Promote Growth. Oxford 1994. Die Fragen werden im WISU-Repetitorium beantwortet. Die Klausur Diese Aufgaben zur Klausur „Grundlagen der Makroökonomik“ wurden im Rahmen des Bachelor-Studiengangs Global Business Management (GBM) an der Universität Augsburg im Anschluss an das Sommersemester 2012 von Prof. Dr. Udo Broll gestellt. Bearbeitungszeit: 90 Minuten. Aufgabe 1: Allgemeine Fragen (25 Punkte): a) Womit beschäftigt sich die Makroökonomik? b) Welche Eigenschaften sollte die Institution Währungsordnung einer Volkswirtschaft besitzen? Worin liegt das Problem? c) Nennen Sie die historischen Phasen der Globalisierung der Finanzmärkte. d) Was sind Derivate und wozu dienen sie? e) In einer Ökonomie gibt es drei Unternehmen (Stahlunternehmen, Autohersteller, Lebensmittelhersteller). Die Daten (in Euro) für das Stahlunternehmen lauten: Erlöse 400, Löhne und Gehälter 340, Gewinne 60. Für den Autohersteller lauten sie: Erlöse 1.000, Löhne und Gehälter 500, Ausgaben für Stahl 400, Gewinne 100, und für den Lebensmittelhersteller: Erlöse 200, Löhne und Gehälter 160, Gewinne 40. (i) Wie groß ist die Wertschöpfung auf jeder Produktionsstufe? (ii) Wie groß ist das BIP? Wie groß sind die Einkommensanteile am BIP für Arbeitnehmer und Kapitalbesitzer? Aufgabe 2: Güter- und Geldmärkte (20 Punkte) a) Eine empirisch geschätzte Konsumfunktion ist C = 400 + 0,85(Y – T). Y bezeichnet das BIP und T die Steuern. Erklären Sie diese Funktion. Wie lautet die zugehörige gesamtwirtschaftliche Sparfunktion? b) Die lineare Konsumfunktion für eine Ökonomie lautet: C = c0 + c1(Y – T). Die empirischen Werte für verfügbares Einkommen und Konsum in den Jahren 2010 und 2011 sind (in Mrd. Euro): WISU 1/13 113 VOLKSWIRTSCHAFTSLEHRE Jahr 2010 2011 Einkommen Konsumausgaben 1.713,44 1.220,95 1.869,60 1.320,71 Ermitteln Sie (etwa mithilfe der Cramer-Regel) die Werte für c0 und c1. c) Eine Staatsanleihe (einjährig) wird zum heutigen Kurs von 90 Euro am Kapitalmarkt gehandelt. Der Nennwert ist 100 Euro, der Nominalzins fünf Prozent. Wie groß ist der Effektivzins der Anleihe? d) Welche Information enthält der Geldschöpfungsmultiplikator und wodurch wird seine Größe bestimmt? Aufgabe 3: Güter-, Geld- und Finanzmärkte, AD (20 Punkte) a) Was besagt das IS-LM-Modell der Makroökonomik? b) Marktzins und nominales Einkommen beeinflussen die Liquiditätsnachfrage der Marktteilnehmer. Die Einkommenselastizität der Liquiditätsnachfrage ist ¾, die Zinselastizität ist –¼. Wie groß ist die gesamte Veränderung der Liquiditätsnachfrage, wenn das nominale Einkommen um zehn Prozent zunimmt und der nominale Zins von vier auf fünf Prozent steigt? d c) Für eine Volkswirtschaft wurden die Geldnachfragefunktion M /P = 1,5Y – 100i, die Konsumfunktion C(Y) = 0,8Y und die Investitionsfunktion I = 4 – 40i empirisch ermittelt. Die reale Geldmenge ist M/P = 6. (i) Ermitteln Sie das Realeinkommen und den Realzins im mittelfristigen makroökonomischen Gleichgewicht. (ii) Leiten Sie für die gesamtwirtschaftliche Güternachfrage die AD-Gleichung unter der Annahme her, dass die nominale Geldmenge M = 24 ist. Welchen Wert nimmt das allgemeine Preisniveau an? Aufgabe 4: Aggregierte Nachfrage, aggregiertes Angebot (25 Punkte) a) Welche makroökonomischen Informationen enthalten AD- und AS-Gleichung? b) Wie entsteht die aggregierte Angebotsfunktion (AS)? Leiten Sie die AS-Gleichung analytisch her und erklären Sie, wie es zu einem positiven Zusammenhang zwischen Einkommen und Preisniveau kommt. c) In der Bestimmung der mittelfristig gültigen Arbeitslosenquote einer Volkswirtschaft kommen generell zwei unterschiedliche Aspekte der Ökonomie zum Ausdruck. Erklären Sie dies. d) Die Globalisierung verstärkt den unternehmerischen Wettbewerb. Der Aufschlag auf die Lohnstückkosten sinkt. Welche makroökonomischen Konsequenzen ergeben sich für Reallohn und Beschäftigung? e e) Die AS-Kurve ist mit P = ½P + 0,0008Y gegeben. Die IS-Kurve lautet: Y = 2.000 – 5.000i. Die LM-Kurve lautet: i = (Y – M/P)/5.000. Das reale Geldangebot ist mit M/P = 500 gegeben. Welches reale Einkommen Y und welcher reale Zins i stellen sich im mittelfristigen makroökonomischen Gleichgewicht ein? Welches allgemeine Preisniveau P ist damit verbunden? f) Die Unternehmen schlagen drei Prozent auf die Lohnstückkosten auf. Mittelfristig folgt e die Lohnbildung der Preiserwartung P = P und der Arbeitsmarktfunktion F(u; z) = (1 + z) – u, wobei z den Wert von 0,03 annimmt. Wie groß ist die Arbeitslosenquote im mittelfristigen Gleichgewicht? I. Daran hätten Sie denken müssen Aufgabe 1: a) Die Makroökonomie beschäftigt sich primär mit der Wirtschaftsleistung der gesamten Volkswirtschaft (Produktion, Einkommen), mit der Arbeitslosenquote, d.h. dem Teil der Arbeitnehmer, die auf der Suche nach einer Beschäftigung sind, mit der Inflationsrate, d.h. mit der Rate mit der sich das durchschnittliche Preisniveau in der Volkswirtschaft verändert. Weiterhin mit der Geld- und Fiskalpolitik und mit Institutionen. Es muss zwischen positiver und normativer Analyse unterschieden werden. b) Die drei Elemente einer optimalen Währungsordnung sind der feste Wechselkurs, die autonome Geldpolitik und freie internationale Kapitalbewegungen. Die Theorie und die Wirtschaftsgeschichte zeigen jedoch, dass sich diese drei wünschenswerten Elemente nicht gleichzeitig verwirklichen lassen. WISU 114 1/13 VOLKSWIRTSCHAFTSLEHRE c) In den siebziger Jahren erfolgte der Übergang von festen zu flexiblen Wechselkursen (um die importierte Inflation zu verhindern). In den achtziger Jahren kam es zur Internationalisierung der Anleihenmärkte (Finanzierung der Staatsverschuldung), in den neunziger Jahren folgte die Internationalisierung der Aktienmärkte (der ShareholderValue-Gedanke setzte sich durch, außerdem stand die Black/Scholes-Formel zur Bewertung von riskanten Ansprüchen zur Verfügung). d) Die neunziger Jahre werden oft als das Jahrzehnt der Derivate bezeichnet. Derivative Finanzmarktinstrumente können Lösungen für finanzwirtschaftliche Probleme bieten, die sich aus den Schwankungen an den Devisen-, Aktien-, Zins- und Warenmärkten ergeben. Derivate sind aus einem anderen Finanzprodukt (Basiswert) abgeleitete Finanzmarktinstrumente, die sich zur Absicherung bestehender Positionen, zur Arbitrage oder für Spekulationszwecke einsetzen lassen. Der Preis bzw. der Wert des Derivats wird vom Preis bzw. Wert des zugrunde liegenden Finanzprodukts beeinflusst. e) Bruttoproduktionswert – Vorleistungen = Bruttowertschöpfung, also 400 + 600 + 200 = 1.200. BIP = 1.200; Einkommensanteil für Arbeitnehmer 0,83, Einkommensanteil für Kapitaleigner 0,17. Aufgabe 2: a) Die keynesianische Konsumfunktion beschreibt eine lineare Beziehung zwischen realem Konsum und verfügbaren Realeinkommen. Der autonome Konsum ist 400, die marginale Konsumneigung 0,75, d.h. sie gibt an, wie stark der Konsum aufgrund einer Einkommenserhöhung zunimmt. Die Sparfunktion ist S = –400 + 0,25(Y – T). b) Zwei lineare Gleichungen in den Unbekannten autonomer Konsum c0 = 126,35 und (marginale Konsumneigung) c1 = 0,64. Lösungsweg einsetzen oder Cramer-Regel anwenden. c) Der Effektivzins ist 16,67 Prozent, denn es gilt [100(1 + 0,05) – 90]/90 = 0,1666. Zins und Kurs verhalten sich invers. d) Die makroökonomische Beziehung zwischen Geldangebot und der Zentralbankgeldmenge wird durch den Geldschöpfungsmultiplikator beschrieben. Aufgrund der Sichteinlagen bei Geschäftsbanken erhöht sich das Geldangebot einer Volkswirtschaft infoge einer Erhöhung der Zentralgeldmenge um ein Vielfaches, nämlich um den Geldschöpfungsmultiplikator. Bargeldhaltung des Publikums und Mindestreservesatz erklären die Größe des Geldschöpfungsmultiplikators. Aufgabe 3: a) Das IS-LM-Modell analysiert die makroökonomischen Implikationen eines simultanen Gleichgewichts auf Güter-, Geld- und Finanzmärkten. Die endogenen Variablen sind reales Einkommen und realer Zins. b) Relative Änderung der Liquiditätsnachfrage: 0,75 · 0,10 + (–0,25 · 0,25) = 0,075 – 0,0625 = 0,0125. c) (i) Mit M/P = 6 lautet die LM-Gleichung i = 0,015Y – 0,06 und die IS-Gleichung i = 0,10 – 0,005Y. Wird IS gleich LM gesetzt, ergeben sich die Werte für die endogenen Variablen Einkommen Y = 8 und Zins i = 0,06. (ii) Mit der Gleichgewichtsbedingung für den Geldmarkt (1,5Y – 100i = 24/P) ergibt sich die aggregierte Nachfragefunktion Y = 5 + 12/P. Das Preisniveau im mittelfristigen Gleichgewicht ist vier. Aufgabe 4: a) Die AD-Gleichung fasst die Informationen über das simultane makroökonomische Gleichgewicht auf Güter- und Finanzmärkten zusammen. Mit steigendem Preisniveau geht die Produktion zurück. Die AS-Gleichung bildet das Arbeitsmarktgleichgewicht (Preis- und Lohnbildung) und die Technologie ab. Die (nominale) Lohnbile dung hängt positiv vom erwarteten Preisniveau P , negativ von der Arbeitslosenquote u und positiv von institutionellen Faktoren z des Arbeitsmarktes ab. Die AS-Gleichung e lautet daher: P = P (1 + m)F(u, z). Stimmen erwartetes Preisniveau und tatsächliches Preisniveau überein, stellt sich die natürliche Arbeitslosenquote un (und das natürliche Produktionsniveau Yn) ein. Das aktuelle Preisniveau steigt mit zunehmender Produktion, denn F(u, z) = F(1 – Y/L, z). b) Die unternehmerische Preisbildung P = (1 + m)W zusammen mit der gesamtwirtschafte e lichen Lohnbildung W = P F(u, z) ergibt die Angebotsfunktion: P = (1 + m)P F(u, z). Mit der Technologie Y = N und der Arbeitslosenquote u = Arbeitslose/Erwerbspersonen = 1 – Y/N ergibt sich ein positiver Zusammenhang zwischen Einkommen und Preisniveau. WISU 1/13 115 VOLKSWIRTSCHAFTSLEHRE c) Konjunkturelle Aspekte (Preiserwartungen stimmen mit dem tatsächlichen Preisniveau nicht überein) und strukturelle Aspekte (Variable z enthält Arbeitsvermittlung, Kündigungsschutz; m umfasst die Marktmacht der Unternehmen) sind in der ASGleichung enthalten. Im mittelfristigen Gleichgewicht werden die Preiserwartungen e erfüllt, P = P ; damit ergibt sich die natürliche Produktion Yn = 1250. Der Realzins ist 0,15 (15 Prozent). Das Preisniveau beträgt zwei. d) Sinkt der Aufschlag wegen mehr Integration der Absatzmärkte, steigt der Reallohn und sinkt die Arbeitslosenquote. Mehr Wettbewerb führt mittelfristig zu mehr Beschäftigung. e) Die AS-Gleichung im mittelfristigen Gleichgewicht bestimmt die „natürliche“ Arbeitslosenquote 1 = 1(1 + m)F(un, z) = (1 + 0,03)(1 + 0,3 – un) = 0,058; un ca. 5,8 Prozent. II. Mögliche Fehlerquellen — Wissensfragen (z.B. Einsatz von Derivaten, Institution Währungsordnung, Geldschöpfungsmultiplikator) sind vollständig zu beantworten. — Transferaufgaben: Die aggregierte Nachfragefunktion muss aus den Güter- und Geldmarktgleichgewichtsbedingungen hergeleitet werden. — Bei der Entwicklung der aggregierten Angebotsfunktion ist auf Preis- und Lohnsetzung (und Technologieannahme) zu achten. — Die Unterscheidung zwischen kurzfristig und mittelfristig ist zu beachten. Sonst lassen sich die Werte bzw. makroöonomischen Konzepte für die natürliche Arbeitslosenquote und die natürliche Produktion ökonomisch nicht sinnvoll verwenden. Literatur: Blanchard, O./Amighini, A./Giavazzi, F.: Macroeconomics — A European Perspective. Harlow 2010. Blanchard, O./Illing, G.: Makroökonomie. 5. Aufl., München 2009. Forster, J./Klüh, U./Sauer, S.: Übungen zur Makroökonomie. 3. Aufl., München 2009. Controlling im Mittelstand Band 1: Grundlagen und Informationsmanagement Kostenrechnung im Industrieunternehmen Band 2: Teilkostenrechnung Von Prof. Dr. Guido A. Scheld 5. Auflage 2012, 364 Seiten Euro 19,90 ISBN 978-3-932647-57-4 Von Prof. Dr. Guido A. Scheld 4. Auflage 2011, 348 Seiten Euro 19,90 ISBN 978-3-932647-50-5 Controlling im Mittelstand Band 2: Unternehmenscontrolling Band 4: Moderne Systeme der Kosten- und Leistungsrechnung Von Prof. Dr. Guido A. Scheld 5. Auflage 2012, 776 Seiten Euro 29,90 ISBN 978-3-932647-55-0 Von Prof. Dr. Guido A. Scheld 3. Auflage 2012, 452 Seiten Euro 24,90 ISBN 978-3-932647-56-7 Fachbibliothek Verlag Silbeker Weg 33 • 33142 Büren • Tel.: 02951/93048 • Fax: 02951/93047 • E-Mail: [email protected] WISU 116 1/13 Wirtschaftsmathematik Wirtschaftsstatistik Zeitreihenanalyse Unterstützung beim Vertrieb von Suchmaschinenwerbung Prof. Dr. Veith Tiemann, Hamburg Mithilfe statistischer Methoden der Zeitreihenanalyse wird gezeigt, wie sich durch die Analyse von Suchanfragen ein betriebswirtschaftlicher Mehrwert für InternetSuchmaschinen und -Portale schaffen lässt. Damit ist eine effizientere Kundenansprache möglich. I. Einführung Allgemeine und spezielle Suchmaschinen Der Suchmaschinenmarkt ist groß und unübersichtlich geworden. Neben Google, Bing, Xquick etc. gibt es zudem spezielle Suchmaschinen, die sich an bestimmte Adressatenkreise wenden oder sich mit bestimmten Themen wie Job- oder Immobiliensuche befassen. Web-Kataloge Bei Letzteren findet die Suche oft anhand eines Web-Kataloges statt, der nicht mittels der üblichen Crawler — ein Programmcode, durch den alle Inhalte des Internets erfasst werden — automatisch erstellt und bewertet wird. Ein Web-Katalog muss mehr oder weniger manuell zusammengestellt werden. Die Aufnahme in den Katalog bzw. die prominente Platzierung unter den Suchergebnissen ist oft mit einem Entgelt verbunden, etwa bei den Gelben Seiten. Ihr liegen oft Jahresverträge zugrunde. II. Zeitreihen Wird ein Merkmal X wie der Traffic (die Anzahl der Besucher) auf einer Webseite über die Zeit verfolgt, kann mithilfe der Zeitreihenanalyse versucht werden, den Verlauf zu verstehen und gegebenenfalls zu modellieren. Zeitreihenkomponenten Ist xt die Zeitreihe, kann sie üblicherweise in diese Komponenten zerlegt werden (vgl. Fahrmeir et al., S. 554): xt = mt + kt + st + ut. Dabei sind: mt: der Trend, d.h. die langfristige systematische Veränderung des mittleren Niveaus der Zeitreihe, kt: die Konjunkturkomponente, d.h. eine mehrjährige, nicht notwendig regelmäßige Schwankung, st: die Saisonkomponente, d.h. die jahreszeitlich bedingte Schwankungskomponente, die sich relativ unverändert jedes Jahr wiederholt, ut: die Störgröße, d.h. die restliche Variation in der Zeitreihe. Diese Komponenten sind Ansatzpunkte für die Modellierung. So lässt sich der Trend oft mithilfe einer linearen Regression abbilden (vgl. Fahrmeir et al., S. 153 f.), während man die Saisonschwankung mit der Korrelation in den Griff bekommen kann. Der bekannte Korrelationskoeffizient von Bravais-Pearson stellt den linearen Zusammenhang zwischen zwei Merkmalen als Maßzahl dar (vgl. Fahrmeir et al., S. 135 f.). Bei der Autokorrelation wird diese Idee auf ein Merkmal angewandt, womit regelmäßige, von der Zeit abhängige Strukturen des Merkmals herausgearbeitet werden können. Hier werden die Regression und die Autokorrelation angewandt (weiterführende Informationen zu Zeitreihen findet man z.B. bei Chatfield und Schlittgen). WISU 1/13 117 WIRTSCHAFTSMATHEMATIK/WIRTSCHAFTSSTATISTIK Frage 1: Übertragen Sie die grundsätzliche Idee des Korrelationskoeffizienten auf das Aufspüren der Saisonkomponente in einer Zeitreihe mit Monatswerten. III. Angebot trifft Nachfrage — wie und wann? Bei vielen Suchmaschinen und Portalen wird die Werbung von Vertriebsteams betrieben, die über einiges Wissen verfügen müssen. Was entscheidet über den Werbeerfolg? Entscheidend für den Erfolg der Werbung in Suchmaschinen und auf Portalen ist das Suchverhalten der Nutzer. Nur wenn nach einem Produkt, einer Dienstleistung oder einer Firma gesucht wird, erzielt der Werbetreibende einen Mehrwert. Bei dieser Suche sind zumindest zwei Kriterien entscheidend: 1. Das Suchvolumen und der Trend der Nachfrage. 2. Das zeitliche Muster bei der Suche. Der erste Punkt erklärt sich selbst. Wenn die Suchanfragen nach Malern bei einem Gelbe-Seiten-Portal zurückgehen, wird es immer schwieriger, Malern einen Eintrag zu verkaufen. Der zweite Punkt ist etwas subtiler, aber ähnlich bedeutsam. Warum sollte ein Anbieter von Weihnachtsartikeln im Februar Geld bezahlen, um auf einem entsprechenden Portal präsent zu sein, wenn nach diesen Artikel erst wieder im Herbst gesucht wird? Bedenkt man, dass auf Portalen nicht selten nach tausenden Kategorien oder Rubriken gesucht werden kann und die Kenntnis der genannten Zusammenhänge den Verkaufserfolg deutlich erhöht, wird schnell klar, dass eine maschinelle Unterstützung der Verkäufer von Vorteil wäre. Bei beidem hilft die Zeitreihenanalyse. IV. Das statistische Problem: Trend- und Saisonanalyse Bei manchen Produkten ist das Suchvolumen hoch, bei manchen stagniert die Nachfrage, bei anderen geht sie zurück. Oft unterliegt die Nachfrage saisonalen Schwankungen (vgl. Wewel, S. 110 ff.). Wer diese Zusammenhänge als Verkäufer kennt, hat erhebliche Vorteile. Ein typisches Business-to-Business-Branchenverzeichnis weist deutlich über 50.000 nach Anbietern durchsuchbare (detaillierte) Branchen oder Rubriken auf. Wie findet man diejenigen mit saisonalen Schwankungen? Wie stellt man die Informationen dazu regelmäßig und effizient bereit? Berechnungen lassen den Schluss zu, dass solche Rubriken etwa 20 Prozent ausmachen. Wie findet man sie, falls es notwendig wird, absatzfördernde Maßnahmen zu ergreifen? Beispiel Mit einfachen statistischen Mitteln lässt sich dies für beliebig viele Branchen bzw. Rubriken lösen. Das wird hier am Beispiel der Rubrik „Wildbret“ (Fleisch vom Wild) eines B2B-Portals gezeigt. 2000 1500 0 500 1000 Traffic − Visits 2500 3000 3500 Ein B2B-Portal 07 2008 09 2008 11 2008 01 2009 03 2009 05 2009 07 2009 09 2009 11 2009 01 2010 03 2010 05 2010 07 2010 09 2010 11 2010 01 2011 03 2011 05 2011 07 2011 09 2011 11 2011 Abb. 1: Nachfrage nach Wildbret Abb. 1 illustriert die Nachfrage (Traffic-Verlauf) für die Rubrik „Wildbret“. Die saisonalen Schwankungen sind deutlich zu erkennen. Ein linearer Trendschätzer wurde eingeWISU 118 1/13 WIRTSCHAFTSMATHEMATIK/WIRTSCHAFTSSTATISTIK zeichnet. Ein Visit ist ein Besuch auf einer Webseite. Die Grafik enthält alle Informationen, die für eine effiziente Kundenansprache erforderlich sind: — Größenordnung des Traffics: Wie viele Firmen fragen das Produkt nach? Folgerungen: Muss zunächst weiterer Traffic durch geeignete Maßnahmen erzeugt werden? Oder können bereits potenzielle Inserenten angesprochen werden? — Trend: Wie läuft die Rubrik? Folgerungen: Hat die Rubrik noch weiteres Verkaufspotenzial oder nimmt es ab? — Saison: Wann wird gesucht? Folgerungen: Wann lohnt sich ein Eintrag in der Suchmaschine? Wann soll demnach der Vertrieb aktiv werden? Diese Informationen müssen automatisiert, angemessen extrahiert und zur Verfügung gestellt werden. Frage 2: Wie lässt sich die Zeitreihe in Abb.1 hinsichtlich der genannten Komponenten charakterisieren? Traffic-Trend Trend und Niveau des Traffics sind als entsprechende Lagemaßzahl bzw. Steigung der Regressionsgeraden ablesbar und automatisch auswertbar. Die Steigung der Regressionsgeraden beträgt gerundet 32, d.h. pro Monat wird ein positiver Trend von 32 Visits festgestellt. Saisonale Schwankungen Bei den saisonalen Schwankungen kann die Autokorrelationsfunktion (ACF) gute Dienste leisten (vgl. Kreiß, S. 31 ff.). Sie soll aus der Korrelationsidee hergeleitet werden. Der bekannte Korrelationskoeffizient nach Bravais-Pearson verrät etwas über den (linearen) Zusammenhang zwischen zwei empirischen Merkmalen: Verhalten sie sich gleichgerichtet oder entgegengerichtet, korrelieren sie also positiv oder negativ? Saisonalität lässt sich mittels dieses Zusammenhangs erkennen: Man muss die beobachteten Werte der Zeitreihe miteinander vergleichen. Falls die Werte im Januar hoch sind, sind sie dann im Juli tendenziell niedrig und im nächsten Januar wieder hoch? Die Zeitreihe wird gegeneinander verschoben, mit sich selbst verglichen und das per Korrelationskoeffizient. Eine Verschiebung zu Lag 1 (Zeitverschiebung, Zeitunterschied um einen Monat) bedeutet, dass sie um einen Monat verschoben mit sich selbst verglichen wird. Autokorrelation Hier sind exemplarisch einige dieser Vergleiche dargestellt (die Originalzeitreihe ist X, die verschobene Y): lag 1 X: Jan2010 Feb2010 Mrz2010 Apr2010 ... Y: Feb2010 Mrz2010 Apr2010 Mai2010 ... lag 6 X: Jan2010 Feb2010 Mrz2010 Apr2010 ... Y: Jul2010 Aug2010 Sep2010 Okt2010 ... lag 12 X: Jan2010 Feb2010 Mrz2010 Apr2010 ... Y: Jan2011 Feb2011 Mrz2011 Apr2011 ... Hinter jedem Datum steckt eine Zahl. Im Prinzip kann nun die Korrelation zwischen X und Y berechnet werden, bezogen auf unterschiedliche Verschiebungen. Für (jährliche) Saisonalität spricht eine negative Korrelation um die Verschiebung sechs Monate, bei gleichzeitiger positiver Korrelation beim Lag zwölf Monate. Die Autokorrelation nimmt gleichmäßig ab, wenn man sich von den markanten Punkten (Lags) wegbewegt. Frage 3: Warum spricht das beschriebene Muster der Autokorrelationsfunktion für Saisonalität bei Monatsdaten? Abb. 2 zeigt die ACF für das Merkmal „Wildbret“, berechnet aufgrund der vom Trend bereinigten Originalzeitreihe. Letztere ist in der oberen Hälfte dargestellt. Der Trend ist herauszurechnen, da er den Korrelationseffekt überlagert. In der unteren Grafik von Abb. 2 ist deutlich die Saisonfigur anhand der Autokorrelationen zu erkennen: Die Autokorrelation ist jeweils negativ um die Verschiebungen sechs und 18 Monate, sowie positiv um die Verschiebungen zwölf und 24 Monate. Je weiter die Vergleiche, d.h. die VerschiebunWISU 1/13 119 WIRTSCHAFTSMATHEMATIK/WIRTSCHAFTSSTATISTIK gen, zeitlich voneinander entfernt sind, desto geringer ist in der Regel der Effekt. Die eingezeichneten Konfidenzbänder (gestrichelte Linien) werden alle durchbrochen, bei der Verschiebung zum Lag 18 Monate nur knapp nicht. 1500 500 −500 Traffic Trendbereinigt Wildbret Trendbereinigte Suchanfragen 07 2008 09 2008 11 2008 01 2009 03 2009 05 2009 07 2009 09 2009 11 2009 01 2010 03 2010 05 2010 07 2010 09 2010 11 2010 01 2011 03 2011 05 2011 07 2011 09 2011 11 2011 ACF −0.2 0.2 0.6 1.0 Autokorrelationsfunktion 0 6 12 18 24 Lag Abb. 2: Vom Trend bereinigte Zeitreihe und geschätzte Autokorrelation Computer-Einsatz Diese Stellen können nun automatisch per Computer abgefragt und ausgewertet werden, womit die gewünschte Saisoninformation (massenhaft) für alle suchbaren Kategorien und Rubriken zur Verfügung steht. Zusammen mit dem Trendschätzer und den Mittelwertaussagen kann automatisch ein fundiertes Bild des Suchverhaltens in der Rubrik erzeugt werden. Diese Informationen können in den Verkaufsprozess einfließen. Drei abschließende Bemerkungen zur Berechnung der ACF: — Man benötigt bei der Zeitreihe offensichtlich eine gewisse Länge, um die notwendigen Lags abbilden zu können. — Es wird nicht exakt die Formel von Bravais-Pearson zur Korrelation verwandt. Sie vereinfacht sich, da durch die Trendbereinigung gewissermaßen Stationarität erzeugt wurde und lediglich der Zeitunterschied (Lag) eine Rolle spielt, nicht jedoch der Zeitpunkt, zu dem die Vergleiche durchgeführt werden. — Große Datenmengen erfordern den Einsatz von Computern, wie es in der Praxis auch geschieht. Dabei werden Programme wie R oder S-Plus benötigt. Frage 4: Welcher betriebswirtschaftliche Mehrwert wird durch die Analyse erzielt? V. Fazit Nicht nur bei der klassischen Nationalökonomie, auch bei der Internet-Ökonomie ist das Zusammenspiel von Angebot und Nachfrage entscheidend. Die Analyse gewinnt noch erheblich an Aussagekraft, wenn beispielsweise weitere Informationen über die Anbieter von Wildbret zur Verfügungen stehen. Aufgrund der Kenntnis, wie viel B2B-Nachfrage ein solcher Anbieter benötigt, können Maßnahmen und Strategien für die Suchmaschine bzw. das Portal abgeleitet werden — und mithilfe der Statistik automatisiert für tausende Rubriken. Literatur: Chatfield, C.: The Analysis of Time Series. An Introduction. London 2003. Fahrmeir, L./Künstler, R./Pigeot, I./Tutz, G.: Statistik. Der Weg zur Datenanalyse. Berlin 2009. Kreiß, J.-P.: Einführung in die Zeitreihenanalyse. Berlin 2006. Schlittgen R.: Angewandte Zeitreihenanalyse. München 2001. Wewel, M.C.: Statistik im Bachelor-Studium der BWL und VWL — Methoden, Anwendung, Interpretation, München 2010. Die Fragen werden im WISU-Repetitorium beantwortet. WISU 120 1/13 wisu Repetitorium PVns = z · RBF(0,03; 20) = 20.000 · 14,8775 = 297.549,50 Euro. Betriebswirtschaftslehre Fragen und Antworten 1 - 7 zu „Zeitwert des Geldes“ von Prof. Dr. F. Schuhmacher/Dr. B.R. Auer (S. 75 - 81). Dieser Wert stellt nun gleichzeitig den Endwert des 30-jährigen Sparplans dar, dessen jährliche Einzahlung gesucht ist. Nach (3) gilt daher Frage 1: Wie wirkt sich eine Erhöhung des Zinssatzes von zwei auf drei Prozent p.a. auf den Endwert einer 50-jährigen Anlage von 100 Euro aus? woraus sich durch Umstellung nach z der gesuchte Jahressparbetrag von 6.254,27 Euro ergibt. Für die beiden Endwerte gilt FVa = 100 · (1 + 0,02)50 = 269,16 Euro und FVb = 100 · (1 + 0,03)50 = 438,39 Euro. Durch eine scheinbar kleine Erhöhung des Zinssatzes wird also beim Endwert ein Plus von 438,39 – 269,16 = 169,23 Euro bzw. 169,23 / 269,16 = 62,87% erreicht. Bei langen Laufzeiten können also kleine Zinsunterschiede zu sehr unterschiedlichen Endwerten führen. Frage 2: Ein Student hat noch 300 Euro auf seinem Girokonto und einen Schuldschein, wonach ihm ein Kommilitone in einem Jahr 100 Euro zahlen muss. Ist die Behauptung des Studenten korrekt, dass sein Vermögen derzeit 400 Euro beträgt? Der aktuelle Marktzins für einjährige Geldanlagen liegt bei 1,5 Prozent. Die Aussage ist nicht korrekt, da der Schuldschein derzeit nicht 100 Euro wert ist. Ein potenzieller Käufer des Schuldscheins würde dafür maximal PV = 100 / 1,015 = 98,52 Euro bezahlen, da er durch Anlage dieses Betrages heute die 100 Euro in einem Jahr erzielen kann. Berücksichtigt man zudem, dass der Schuldner in einem Jahr vielleicht zahlungsunfähig ist, wird der Käufer tendenziell sogar noch weniger für den Schuldschein bieten. FVns = z · EWF(0,03; 30) bzw. 297.549,50 = z · 47,5754, Frage 6: Wie erhält man anhand von (9) die Approximation in (10)? Man stellt (9) zunächst wie folgt um: 1 + r 1 + = 1 + i 1++r+r = 1+ir = i––r. Da das Produkt r typischerweise klein ist, kann es vernachlässigt werden, was zur Approximation (10) führt. Frage 7: Ein Student möchte sich in drei Jahren ein neues Auto kaufen. Er weiß,dass das gewünschte Modell heute 20.000 Euro kostet, wegen der jährlichen Preissteigerung von zwei Prozent in drei Jahren jedoch teurersein wird. Welchen Betrag muss er heute bei einem Nominalzins von vier Prozent anlegen, um das Auto in drei Jahren kaufen zu können? Der Realzinssatz liegt hier bei r = (1 + 0,04) / (1 + 0,02) – 1 = 0,0196 = 1,96%, Frage 3: Welcher Betrag steht einem Jugendlichen bei seinem 18. Geburtstag zur Verfügung, wenn seine Eltern bis dahin jedes Jahr vorschüssig 500 Euro auf sein Sparkonto bei einer Verzinsung von drei Prozent p.a. eingezahlt haben? Der Kontostand beläuft sich nach Gleichung (4) auf FVvs = 500 · 23,4144 · (1 + 0,03) = 12.058,43 Euro. Frage 4: Wie lässt sich tabellarisch zeigen, dass bei einmaliger Anlage von 272,32 Euro auf einem Rentenkonto mit einem Zins von fünf Prozent p.a. über eine Dauer von drei Jahren jeweils am Jahresende 100 Euro entnommen werden können? Jahr 1 2 3 Kontostand zum Jahresbeginn 272,32 185,94 95,24 Multiplikation mit 1,05 1,05 1,05 Kontostand am Jahresende 285,94 195,24 100,00 Entnahme von 100 Euro 185,94 95,24 0,00 Frage 5: Welchen Geldbetrag muss ein heute 35-jähriger Arbeitnehmer bis zu seinem Ruhestand im Alter von 65 Jahren jährlich nachschüssig beiseitelegen, um mit der angesparten Summe 20 Jahre lang eine nachschüssige Rente von jährlich 20.000 Euro finanzieren zu können? Der Zinssatz in der Spar- und Rentenphase beträgt drei Prozent p.a. Zunächst muss die Frage beantwortet werden, welcher Geldbetrag zu Ruhestandbeginn vorhanden sein muss, um daraus die gegebene Rente zu finanzieren. Er beläuft sich nach (5) auf: sodass der Student PV = 20.000 / (1 + 0,0196)3 = 18.868,20 Euro anlegen muss. Würde er nur den Nominalzinssatz bei seiner Entscheidungsfindung einbeziehen und PV = 20.000 / (1 + 0,04)3 = 17.779,93 Euro anlegen, hätte er nach drei Jahren nur nominal 20.000 Euro und nicht die inflationsbedingt erforderlichen nominalen 20.000 · (1 + 0,02)3 = 21.224,16 Euro zum Autokauf zur Verfügung. Bei einer Anlage von 18.868,20 Euro sind sie hingegen vorhanden: 18.868,20 · (1 + 0,04)3= 21.224,16 Euro. Betriebswirtschaftslehre Fragen und Antworten 1 - 4 zu „Risikomanagement bei Projektfinanzierungen“ von Prof. Dr. J. Kümmel/Prof. Dr. E. Kottmann/ Dipl.-Betrw. (FH) Henny Höfer (S. 82 - 86). Frage 1: Welches weitere Risiko kann sich aus dem Fertigstellungsrisiko ergeben? Tritt ein Fertigstellungsrisiko ein, kann als Folge ein Abandon-Risiko auftreten, weil die erzielten Leistungen so weit unter den Erwartungen liegen, dass der Cash Flow als nicht ausreichend angesehen wird. Dies kann dazu führen, dass die Projekteigentümer kein Interesse mehr an der Fortführung des Projekts haben und es aufgeben. WISU 1/13 121 WISU-REPETITORIUM Frage 2: Auf welchen Teil der Planung wirkt sich das Zinsänderungsrisiko vor allem aus? Frage 5: Nennen Sie Beispiele für den Umweltschutz bei der Logistik. Steigt das Zinsniveau am Kapitalmarkt bei variabel verzinslicher Fremdfinanzierung an oder sind die vereinbarten Zinssätze bei einer fest verzinslichen Fremdfinanzierung im Vergleich zum Zinsniveau am Kapitalmarkt zu hoch, entstehen höhere Projektkosten. Die höheren Zinsen verringern die geplanten Cash Flows. Der Umweltschutz bezieht sich hier auf alle Bereiche außerhalb der Entsorgungslogistik, d.h. auf die Beschaffungs-, Produktions- und Absatzlogistik. In der Produktionslogistik können Schadstoffe beim betrieblichen Fuhrpark reduziert werden, bei der Beschaffungs- und Absatzlogistik kann auf umweltfreundliche Transportmittel zurückgegriffen oder es können die Verkehrsmittel stärker ausgelastet werden. Frage 3: Welcher wesentliche Aspekt muss beim WorstCase-Szenario überprüft werden? Welche Maßnahmen sind ggfs. zu treffen? Es muss geprüft werden, ob die erwarteten Cash Flows auch im Worst-Case-Szenario den Kapitaldienst, d.h. Zinsen und Tilgungen, decken. Andernfalls müssen möglicherweise die Finanzierung angepasst, Reservekonten eingerichtet und Nachschussverpflichtungen der Projekteigentümer vereinbart werden. Frage 4: Ist es sinnvoll, eine Art Frühwarnsystem bei Projektfinanzierungen zu schaffen? Worauf kann dabei zurückgegriffen werden? Das Finanzmodell, das als Entscheidungsmodell herangezogen wird, kann als Informationssystem zahlreiche kritische Kennzahlen liefern. Durch deren regelmäßige Überwachung können frühzeitig ungeplante bzw. negative Entwicklungen entdeckt werden, um rechtzeitig darauf zu reagieren. Die Einrichtung zusätzlicher Frühwarnsysteme ist daher oft nicht erforderlich. Betriebswirtschaftslehre Fragen und Antworten 1 - 5 zu „Grüne Logistik“ von Prof. Dr. E. Günther (S. 87 - 92). Frage 1: Wie beschreibt die Norm DIN EN 14943 die Aufgaben der Logistik? Die Logistik optimiert gem. DIN EN 14943 die unternehmensinternen Abläufe „Planung, Ausführung und Steuerung der Bewegung und der Bereitstellung von Menschen und/oder Waren und der unterstützenden Tätigkeiten in Bezug auf diese Bewegung und Bereitstellung innerhalb eines zum Erreichen spezieller Ziele organisierten Systems“. Frage 2: Welche Umweltaspekte spielen bei Logistikprozessen eine besondere Rolle? Emissionen in der Luft, Wasser- und Bodenbelastungen (Kraft- und Betriebsstoffe), Lärm (Lärmemissionen), Flächenverbrauch (Infrastruktur) sowie Unfälle (Schadstoffe im Transportgut). Frage 3: Wodurch unterscheiden sich die beiden Perspektiven „Logistik beim Umweltschutz“ und „Umweltschutz bei der Logistik“? Bei Ersterer geht es speziell um die Logistik im Bereich Entsorgung. Im Mittelpunkt stehen dabei Transport, Lagerung und Handling der Kondukte, d.h. des unerwünschten Outputs der unternehmerischen Prozesse. Letztere bezieht sich auf die Berücksichtigung von Umweltaspekten in alle Entscheidungen bezüglich der Logistikprozesse in den Bereichen Beschaffung, Produktion und Distribution. Frage 4: Welche Handlungsmaxime bestimmen die Entsorgungslogistik? Ähnlich wie bei der Versorgungslogistik stehen auch bei der Entsorgungslogistik die Maxime System-, Gesamtkosten- Service- und Effizienzdenken im Mittelpunkt. Das Systemdenken bezieht sich auf die Logistik als unternehmens- oder funktions- bzw. bereichsübergreifendes System. Das Gesamtkostendenken weist auf den möglichen Zielkonflikt zwischen ökonomischen und ökologischen Zielen hin. Das Service-Denken gewinnt durch die Erweiterung um Sicherheitsaspekte eine besondere Bedeutung. Effizienzdenken bedeutet die Abwägung technischer, ökonomischer und ökologischer Ziele. WISU 122 1/13 Wirtschaftsinformatik Fragen und Antworten 1 - 4 zu „Klassifikation digitaler Medien durch Metadaten“ von Prof. Dr. R.Thome/Dipl.-Kfm. L. Habersetzer (S. 95 - 100). Frage 1: Wann ist welche Art der Verknüpfung von Metadaten mit dem Informationsobjekt sinnvoll? 1. Direkte Integration der Metadaten mit dem Informationsobjekt: systemunabhängige Informationsobjekte. 2. Speicherung in einer separaten Datei mit Verweisen: Datenbank- und Content-ManagementSysteme. 3. Ableitung der Metadaten: alle Anwendungsbereiche. Frage 2: Welche Potenziale haben Metadaten? Die Potenziale liegen 1) beim vereinfachten Daten- und Medienmanagement (Klassifikation, Ordnung und Verwaltung, Dokumentation, Archivierung, Integration von Datenbeständen), 2) bei der effizienteren und schnelleren Suche von Informationen und 3) bei neuen Anwendungen (Dokumentation des Entstehungsprozesses und der Änderungen, automatische Verarbeitung, Web 2.0-Anwendungen wie die Integration von Bildern in digitale Landkarten). Frage 3: Warum sind bislang viele Informationsobjekte nicht mit Metadaten beschrieben? Die Gründe sind 1) technische Probleme (viele Metadaten-Standards), 2) die Grenzen der Sprache und Klassifikation (mehrdeutige Begriffe, Schreibfehler, Sprachgemische) und 3) der hohe Aufwand bei der Klassifikation von digitalen Medien und der Ableitung von Metainformationen. Frage 4: Warum reichen Geodaten für eine hilfreiche Klassifikation von Bildern nicht aus? Ist eine Kamera mit einem GPS-Empfänger ausgerüstet, können Fotos im Moment der Aufnahme automatisch mit den Positionsdaten versehen werden. Geotagging ist damit die ideale Form der Anreicherung von Multimedia mit Metadaten: geringer Aufwand, eindeutig und standardisiert. Mithilfe dieser Metadaten lassen sich Bilder klassifizieren. Wenn Aufnahmen von einer Sehenswürdigkeit gesucht werden, kann man sie über die Ortsangabe finden. Genau genommen sind die Geodaten jedoch nur hinsichtlich der Position eindeutig, nicht aber hinsichtlich des gesuchten Motivs. Aus den Geodaten wird nämlich nicht ersichtlich, ob auf dem Bild die Sehenswürdigkeit selbst zu sehen ist oder etwas anderes. Insofern sind weitere Metadaten erforderlich. Volkswirtschaftslehre Fragen und Antworten 1 - 4 zu „Orientierungsgrößen der Geldpolitik“ von Prof. Dr. J. Weeber (S. 104 - 108). Frage 1: Woraus haben sich die Anforderungen an die aktuelle Geldpolitik ergeben? Durch die Insolvenz der Investmentbank Lehman Brothers Mitte September 2008 haben sich die Anforderungen an die Wirtschaftspolitik, vor allem aber an die die Geldpolitik, verändert. Durch den Zusammenbruch des Interbanken-Marktes, die Liquiditätsverknappung auf den Finanzmärkten und die Staatsschuldenkrise in der WISU-REPETITORIUM Eurozone rückte die Finanzmarktstabilität als Ziel der aktuellen Geldpolitik in den Vordergrund. Frage 2: Was sind die Grundlagen der Zwei-Säulen-Strategie der EZB? Zum einen die monetäre Analyse, die vom Zusammenhang von Geldmengenwachstum und Inflation ausgeht. Zum anderen die wirtschaftliche Analyse verschiedener Indikatoren und ihren Auswirkungen auf die Preisstabilität. Modellen muss man sich ausdrücklich für ein Altersvorsorgeprodukt entscheiden, d.h. aktiv einen entsprechenden Vertrag abschließen. Ein Beispiel ist die Riester-Rente. Dabei kann es wegen Trägheit oder Überforderung aufgrund der vielen Angebote geschehen, dass keine Entscheidung getroffen wird und somit auch keine Altersvorsorge erfolgt. Wirtschaftsmathematik/Wirtschaftsstatistik Frage 3: Warum spielt die Frage der zeitlichen Dimension geldpolitischer Strategien eine wichtige Rolle bei der Glaubwürdigkeit der Geldpolitik? Fragen und Antworten 1 - 4 zu „Unterstützung beim Vertrieb von Suchmaschinenwerbung“ von Prof. Dr. V. Tiemann (S. 117 - 120). Kurzfristige Strategien wie Einjahresziele bergen die Gefahr häufiger Änderungen, womit sich die Wirtschaftsakteure möglicherweise schnell geänderter geldpolitischer Rahmenbedingungen ausgesetzt sehen. Eine mittelfristige Ausrichtung der Geldpolitik schafft dagegen Vertrauen und stärkt die Glaubwürdigkeit der Geldpolitik. Frage 1: Übertragen Sie die grundsätzliche Idee des Korrelationskoeffizienten auf das Aufspüren der Saisonkomponente in einer Zeitreihe mit Monatswerten. Frage 4: Welche Orientierungsgrößen kommen als Alternativen zur Zwei-Säulen-Strategie der EZB in Betracht? Die direkte Inflationssteuerung, Währungsrelationen (mit einer stabilen Währung als Anker), die Kreditgewährung an private Haushalte und/oder Privatunternehmen sowie das nominale Bruttoinlandsprodukt. Goldstandard und Rohstoffpreise sind jedoch eher theoretische Möglichkeiten, die sich in der Praxis kaum umsetzen lassen. Volkswirtschaftslehre Fragen und Antworten 1 - 4 zu Alterssicherung und Verhaltensökonomik“ von Prof. Dr. W. Sesselmeier/M. Haupt, MA (S. 108 - 113). Frage 1: Wie und warum wurde die deutsche Alterssicherung geändert? Die bisherige umlagefinanzierte gesetzliche Rentenversicherung musste aufgrund der prognostizierten Kostenentwicklung und der demografischen Entwicklung reformiert werden. Die gesetzliche Rentenversicherung wurde relativiert, während die betriebliche und insbesondere die private Absicherung gefördert wird. Ein Beispiel ist die Riester-Rente, die durch staatliche Zulagen und Steuerabzugsmöglichkeiten subventioniert wird. Gesetzliche, betriebliche und private Versicherung ergeben das Drei-Säulen-System der Alterssicherung. Frage 2: Welche Unterschiede lassen sich bei der Inanspruchnahme der Riester-Rente erkennen? Nicht alle förderberechtigten Personen nehmen die Riester-Rente in Anspruch, die Gesamtverbreitung liegt bei ca. 40 Prozent. Frauen „riestern“ bislang häufiger als Männer, Ostdeutsche häufiger als Westdeutsche und jüngere Menschen mehr als ältere. Kinderreiche Haushalte nehmen die Riester-Rente eher in Anspruch als kinderlose Personen. Geringverdiener „riestern“ nur sehr eingeschränkt. Da in diesem Fall der innere Zusammenhang in einem Datensatz gesucht wird, muss die Zeitreihe durch Verschiebung in zwei Datensätz eingeteilt werden. So könnte man die Korrelation zwischen der Originalzeitreihe (z.B. als X bezeichnet) und derselben Zeitreihe, bei der man die ersten sechs Beobachtungen weglässt (Y), berechnen. Man vergleicht dann immer Werte der Zeitreihe, die um ein halbes Jahr verschoben sind. Frage 2: Wie lässt sich die Zeitreihe in Abb.1 hinsichtlich der genannten Komponenten charakterisieren? Bei der vorliegenden Zeitreihe fallen vor allem der starke Trend sowie die deutliche Saisonfigur auf. Damit werden zwei wichtige Aspekte ermittelt und können entsprechend berücksichtigt werden. Frage 3: Warum spricht das beschriebene Muster der Autokorrelationsfunktion für Saisonalität bei Monatsdaten? Korrelieren die Zeitreihendaten als Monatsdaten zum Lag 12 und 24 Monate positiv, bedeutet dies, dass immer zur gleichen Zeit im Jahr gleiche Werte beim Niveau beobachtet werden. In Abb. 1: Im Herbst/ Winter jeweils hohe Werte und im Frühjahr/Sommer niedrige Werte und zwar über die Jahre 2008 bis 2011 hinweg. Korrelieren die Monatswerte auch noch zum Lag 6 bzw. 18 negativ, bedeutet dies, dass im Herbst/Winter im Vergleich zum Frühjahr/ Sommer gerade unterschiedliche Niveaus vorliegen. Damit ist die Saisonfigur ermittelt. Frage 4: Welcher betriebswirtschaftliche Mehrwert wird durch die Analyse erzielt? Versteht der Suchmaschinen- bzw. Portalbetreiber die Morphologie der Nachfrage, weiß er also, wann und mit welcher Intensität nach einem bestimmten Produkt oder einer bestimmten Dienstleistung gesucht wird, kann er viel effizienter und effektiver darauf eingehen. Damit lässt sich die erwünschte optimale Marktkonstellation zwischen Angebot und Nachfrage erreichen. So kann sich die Kundenansprache auf die Zeit beschränken, in der gesucht wird oder unmittelbar auf die Zeit davor. Frage 3: Wie wirken sich die Abweichungen von der Rationalität aus? Das Rationalitätsprinzip des Homo oeconomicus wird insbesondere durch die Verlustaversion verletzt. Danach werden Gewinne und Verluste unterschiedlich bewertet: Verluste schmerzen tendenziell mehr als Gewinne in gleicher Höhe. Die Anomalien des Besitzeffektes oder der versunkenen Kosten leiten sich entsprechend aus dieser Verlustaversion ab. So wird Verlustgeschäften häufig noch zusätzliches Geld „nachgeworfen“ oder ein Vertrag wird weiter bespart, der eigentlich ungeeignet ist. Frage 4: Wie unterscheiden sich Opt-out- und Opt-inModelle bei der Altersvorsorge? Bei Opt-out-Modellen tritt man „automatisch“ einem Altersvorsorgeplan bei, wenn man ihm nicht ausdrücklich widerspricht. Bei Opt-in- WISU 1/13 123 ANZEIGENSEITE (bleibt aus technischen Gründen leer) WISU 124 1/13