Magazin WISU - Neue Lernwelten

Transcription

Magazin WISU - Neue Lernwelten
das wirtschaftsstudium
Zeitschrift für Ausbildung, Prüfung, Berufseinstieg und Fortbildung
42. Jahrgang
Heft 1
Januar 2013
WISU-MAGAZIN
Europas Konjunktur: Das Nord-Süd-Gefälle
Thema aktuell: Der Motor der Energiewende
Die Zukunft: Überraschungen gehören dazu
Ranking-Rausch zum Jahresende
Japan: Die nächste Schuldenkrise?
Südkorea: Die besseren Japaner
Qatar: Stinkreich und selbstbewusst
USA: Das Imperium schlägt zurück
Der Plastik-Wahnsinn
Big Profit mit Big Data?
Apple 2.0: Es geht auch ohne Jobs
China: Xi sagt Korruption den Kampf an
CO2-Recycling: Neue Hoffnung für den Klimaschutz
Australien: Mehr Bergbau, weniger Touristen
Irland: Zwischen Tradition und Moderne
Professoren-Profile: Gerald Willmann
5
9
12
13
16
20
22
24
27
28
30
34
34
35
35
39
WISU-KARRIERE
Berufsbild: Tourismusmanager
Studieren im Ausland: Auf nach Holland!
Alumni-Clubs: Dabei bleiben ist alles
SEO: Herr über das Suchergebnis
Business School News
45
46
48
50
54
WISU-KOMPAKT
Dipl.-Kffr. Linda Amalou/Prof. Dr. Stefan Süß, Düsseldorf Personalcontrolling
Prof. Dr. Heinrich Seidlmeier, Rosenheim Prozesse in der Wirtschaftsinformatik
Prof. Dr. Eckart Bomsdorf, Köln Armutsgrenze
Dr. Thieß Petersen, Gütersloh Leistungsbilanzungleichgewichte und Mechanismen des Zahlungsbilanzausgleichs
Prof. Dr. Dietrich von der Oelsnitz Walt Disney
Prof. Dr. Lothar Funk, Düsseldorf Prüfungstipps im Winter 2012/13
Dipl.-Volksw. Gerald D. Müller, Wiesbaden Preiselastizität der Nachfrage
Ökonomik interaktiv: Niveauproduktionsfunktion und Skalenertrag
Check-up: Plankostenrechnung
57
60
61
64
66
68
69
59
73
BETRIEBSWIRTSCHAFTSLEHRE
Prof. Dr. Frank Schuhmacher/Dr. Benjamin R. Auer, Leipzig Zeitwert des Geldes
Prof. Dr. Jens Kümmel/Prof. Dr. Elke Kottmann/Dipl.-Betrw. (FH) Henny Höfer, Lemgo Risikomanagement bei
Projektfinanzierungen
Prof. Dr. Edeltraud Günther, Dresden Grüne Logistik
Prof. Dr. Thorsten Jöhnk, Cottbus Die Fallstudie
75
82
87
92
WIRTSCHAFTSINFORMATIK
Prof. Dr. Rainer Thome/Dipl.-Kfm. Ludwig Habersetzer, Würzburg Klassifikation digitaler Medien durch Metadaten
Prof. Dr. Ronald Maier/Vanessa Borntrager, B.Sc./Mag. Dipl.-Ing. Daniel Bachlechner/Dr. Stefan Thalmann, Innsbruck
Die Fallstudie
95
100
VOLKSWIRTSCHAFTSLEHRE
Prof. Dr. Joachim Weeber, Elmshorn Orientierungsgrößen der Geldpolitik
Prof. Dr. Werner Sesselmeier, Landau/Marlene Haupt, MA, München Alterssicherung und Verhaltensökonomik
Prof. Dr. Udo Broll Die Klausur
104
108
113
WIRTSCHAFTSMATHEMATIK/WIRTSCHAFTSSTATISTIK
Prof. Dr. Veith Tiemann, Hamburg Unterstützung beim Vertrieb von Suchmaschinenwerbung
117
WISU-REPETITORIUM
Betriebswirtschaftslehre, Wirtschaftsinformatik, Volkswirtschaftslehre,
Wirtschaftsmathematik/Wirtschaftsstatistik
121
WISU-STUDIENBLATT
Prof. Dr. Viktor Lüpertz, Oberried Europäischer Stabilitätsmechanismus (ESM)
Beilage
WISU
1/13
1
Das Januar-Heft
wisu
das wirtschaftsstudium
Zeitschrift für Ausbildung,
Prüfung, Berufseinstieg und Fortbildung
hat bereits Fahrt aufgenommen. DenDas
neue
Jahr
noch fragen sich noch viele, was es
bringen wird. Dabei fallen einem gleich einige Fragen ein: Wie wird sich
die Konjunktur entwickeln? Ist die Euro-Krise bald vorbei? Wie kommen die südlichen Euro-Länder mit dem Wirtschaftseinbruch zurecht?
Insbesondere die Jugend, hat die Arbeitslosigkeit dort doch inzwischen
eine dramatische Höhe erreicht. Und es gibt auch viele weit in die Zukunft
reichende Fragen: Wie schlimm wird der Klimawandel? Warum versagt
die Politik hier so grauenhaft? Zu welchen geopolitischen Veränderungen kommt es durch China? Wie verändert das Internet unser Leben?
Sie zu beantworten, würde etliche Bücher füllen, abgesehen davon, dass
es kaum jemand könnte. Mehr ab S. 5, 6 und 12.
Zum Jahreswechsel werden immer herausragende Persönlichkeiten und
besonders erfolgreiche Manager geehrt (s. S. 13). So schaffte es der SteveJobs-Nachfolger und Apple-Chef Tim Cook gleich zweimal aufs Podest:
Bei der „Time“, die jedes Jahr die „Person of the Year“ sucht, kam er auf
Platz 3, und bei „Fortune“, die die weltweit besten Manager auszeichnet,
schaffte er es auf Platz 2. Das Lob ist verdient, denn Apple ist auch nach
Jobs Tod eine extrem erfolgreiche Firma. Mehr ab S. 30.
Durch die Fracking-Technik kommt man heute an Öl- und Erdgasvorkommen heran, die früher nicht zugänglich waren. Damit stehen jetzt mehr
fossile Brennstoffe zur Verfügung, als man bislang dachte. Das wird insbesondere die Abhängigkeit der USA von ausländischem Öl und Gas beenden und der dortigen Wirtschaft Auftrieb geben. Und es wird den Preis
von Öl und Erdgas senken, was Ländern wie Russland und den Golfstaaten,
die von deren Export abhängen, gar nicht schmeckt. Und Fracking belastet
auch die Umwelt. Mehr dazu ab S. 24.
Während es bei Leistungsbilanzungleichgewichte und Mechanismen
des Zahlungsbilanzausgleichs von Thieß Petersen (S. 64) und Preiselastizität der Nachfrage von Gerald Müller (S. 69) um grundlegendes
Lehrbuchwissen geht, greift Prof. Lothar Funk in der Rubrik Prüfungstipps
(S. 68) Themen auf, die etwas tiefere Kenntnisse der VWL erfordern.
Dabei geht es um die Unterschiede zwischen der wirtschaftlichen Entwicklung Frankreichs und Deutschlands, außerdem wird diskutiert, ob sich
die Kritik an der expansiven Geldpolitik aus Sicht der österreichischen Schule aufrechterhalten lässt.
Die Frage, ob man hundert Euro lieber heute als in zehn Jahren möchte,
ist leicht zu beantworten. Auszurechnen, wie viel man nach diesem Zeitraum
mehr bekommen müsste, um dann ebenso gut dazustehen wie heute, ist
schon komplizierter. Prof. Frank Schuhmacher und Benjamin Auer zeigen,
wie sich der Zeitwert des Geldes errechnen lässt (S. 75).
Mit einer Digitalkamera lassen sich viele Fotos machen, denn Speicherplatz
kostet kaum noch etwas. Damit in der Bildersammlung kein Chaos ausbricht, müssen den Fotos jedoch geeignete Suchinformationen zugewiesen
werden. Mittels Geotagging lassen sich etwa automatisch Ortsnamen einbinden. Prof. Rainer Thome und Ludwig Habersetzer zeigen, wie die Klassifikation digitaler Medien durch Metadaten beim Suchen von multimedialen Informationen hilft (S. 95).
Die Staatsschulden- und Euro-Krise hat der EZB eine ungewohnte Rolle
zugewiesen. Galt sie bisher in erster Linie als Hüterin der Preisniveaustabilität, muss sie nun auch die Hauptlast bei der Stabilisierung der
Finanzmärkte tragen. Damit gewinnt die Diskussion um die Orientierungsgrößen der Geldpolitik wieder an Bedeutung. Prof. Joachim Weeber, der
sich bei der Bundesbank mit Fragen der Banken- und Finanzaufsicht beschäftigt, greift dieses Thema auf. Die Ausführungen spiegeln seine persönliche Meinung wider (ab S. 104).
WISU
2
1/13
Herausgeber
Prof. Dr. Thomas Hartmann-Wendels, Köln
Prof. Dr. Rainer Thome, Würzburg
Prof. Dr. Dr. h.c. Artur Woll, Siegen
Prof. Dr. Bernd Luderer, Chemnitz
Verlag
Lange Verlag GmbH & Co. KG
Poststraße 12
40213 Düsseldorf
Tel. 0211/864190
Fax 0211/320000
E-Mail: [email protected]
WISU im Internet
www.wisu.de
Redaktion
Dr. Claudia Wendels (BWL)
Dipl.-Kff. Carlotta Herberhold
(Wirtschaftsinformatik)
Rainer Lange
Dipl.-Volksw. Dieter Geller
Dipl.-Ök. Ulrich Badenberg
(WISU-Magazin)
Dr. Klaus-Dieter Rothe
(WISU-Kompakt)
Anzeigenverwaltung
Lange Verlag GmbH & Co. KG
Poststraße 12
40213 Düsseldorf
Tel. 0211/864190, Fax 0211/320000
E-Mail: [email protected]
Druck
D+L Printpartner, 46395 Bocholt
Bezugspreise
Abonnement halbj. € 49,80
Vorzugspreis für Studenten halbj.
€ 37,80, Einzelheft € 9,20 (jeweils
incl. MwSt.) zzgl. Versandkosten.
Reklamationen wegen verloren
gegangener Sendungen müssen
innerhalb von vier Wochen erfolgen.
Erscheinungsweise
monatlich
(August/September Doppelheft)
Bestellungen
Bestellungen nehmen der Verlag
und jede Buchhandlung entgegen.
Abbestellungen sind mit sechswöchiger
Kündigungsfrist zum Ende eines
Kalenderhalbjahres möglich.
Urheber- und Verlagsrechte
Die Beiträge sind urheberrechtlich
geschützt. Alle Rechte, insbesondere
das der Übersetzung in fremde
Sprachen, bleiben vorbehalten. Kein
Teil dieser Zeitschrift darf ohne
Genehmigung des Verlages in
irgendeiner Form — durch Fotokopie,
Mikrofilm oder andere Verfahren —
reproduziert oder in eine von
Maschinen, insbesondere von Datenverarbeitungsanlagen, verwendbare
Sprache übertragen werden. Jede im
Bereich eines gewerblichen Unternehmens hergestellte oder benützte
Kopie dient gewerblichen Zwecken
gem. § 54 Abs. 2 UrhG und verpflichtet zur Gebührenzahlung an die
VG Wort, Abteilung Wissenschaft,
Goethestraße 49, 80336 München,
von der die einzelnen Zahlungsmodalitäten zu erfragen sind.
ANZEIGENSEITE
(bleibt aus technischen Gründen leer)
WISU
1/13
3
ANZEIGENSEITE
(bleibt aus technischen Gründen leer)
WISU
4
1/13
wisu
Magazin
Europas Konjunktur:
Das Nord-Süd-Gefälle
Wirtschaft und Arbeitsmarkt sind in Deutschland in relativ guter Verfassung, während die Euro-Zone in der Rezession steckt. In den südeuropäischen Krisenländern verschärft sich die Job-Misere zusehends.
Vor allem in Griechenland ist keine Besserung in Sicht.
ie deutsche Wirtschaft läuft
D
trotz der schwachen Konjunktur in Europa und weltweit erstaunlich gut — so gut, dass Bundeskanzlerin Merkel sich in ihrer Neujahrsansprache verpflichtet fühlte,
die Deutschen vor zu viel Optimismus zu warnen. „Die Staatsschuldenkrise ist noch längst nicht überwunden“, sagte sie. „Wir brauchen
weiterhin viel Geduld.“ Das wirtschaftliche Umfeld werde im kommenden Jahr nicht einfacher, warnte sie.
Trotz eines etwas schwächeren
vierten Quartals hat die deutsche
Wirtschaft im vergangenen Jahr
0,75 Prozent zugelegt. Das sei angesichts der Turbulenzen im EuroRaum ein „robustes“ Wachstum,
erklärte Wirtschaftsminister Rösler
Anfang Januar. Verglichen mit dem
Vorjahr, als die deutsche Wirtschaft
um drei Prozent gewachsen war,
war 2012 aber ein mageres Jahr.
Ein kleines Wunder haben die exportorientierten Unternehmen vollbracht. Schon im November durchbrachen sie die Billionengrenze: In
den ersten elf Monaten des vergangenen Jahres verkaufte die deutsche Wirtschaft nach Berechnungen des Statistischen Bundesamtes Waren im Wert von 1,018 Billionen Euro ins Ausland — 4,3 Prozent mehr als im Vorjahreszeitraum.
2011 hatten die Exporte ebenfalls
die Billionengrenze überschritten,
aber erst im Dezember.
Zum Jahresende verloren die Exporte allerdings an Dynamik. Weil
die Verkäufe in europäische Länder
zurückgingen, sanken die deutschen Ausfuhren im November um
3,4 Prozent gegenüber dem Vorjahresmonat. Im gesamten letzten
Jahr dürften die Exporte nach Mei-
nung des Außenhandelsverbands
BGA dennoch um vier Prozent auf
den neuen Rekordwert von 1,1 Billionen Euro zugelegt haben.
Auch in diesem Jahr könnten sich
die Exporte nach Meinung vieler
Ökonomen gut entwickeln. Grund
ist, dass die deutschen Ausfuhren
ins nicht-europäische Ausland immer wichtiger werden und die Konjunktursignale bedeutender Auslandsmärkte wie den USA und China auf anziehendes Wachstum hindeuten. Nicht unrealistisch ist außerdem, dass sich die Euro-Zone
in der zweiten Jahreshälfte fängt
und langsam erholt. Die Bundesregierung ist deshalb verhalten optimistisch und rechnet in diesem Jahr
mit einem ähnlich hohen Wachstum
wie 2012.
Am Arbeitsmarkt hat die Schuldenkrise zum Ende des Jahres Spuren
hinterlassen. Laut Bundesagentur
für Arbeit (BA) stieg die Zahl der Arbeitslosen im Dezember um 88.000
auf 2,84 Mio., die Arbeitslosenquote kletterte um 0,2 Punkte auf 6,7
Prozent. Dennoch war 2012 ein
Spitzenjahr: Im Jahresdurchschnitt
verzeichnete die BA 2,9 Mio. Ar-
beitslose, rund 79.000 weniger als
im Jahr 2011. Weniger Arbeitslose
hatte es zuletzt während des Wiedervereinigungsbooms mit damals
rund 2,6 Mio. gegeben. Auch die
Beschäftigung erreichte einen neuen Rekord. Laut Statistischem Bundesamt waren im letzten Jahr so
viele Menschen erwerbstätig wie
noch nie. Im Durchschnitt gingen
41,5 Mio. Menschen mit einem
Wohnort in Deutschland einer Beschäftigung nach, 416.000 mehr als
in Vorjahr.
ährend die Konjunktur und der
Arbeitsmarkt in Deutschland
W
also in erstaunlich guter Form sind,
ist das Bruttoinlandsprodukt der
gesamten Euro-Zone in den letzten
zwei Quartalen leicht gesunken.
Was nach gängiger Definition bedeutet, dass der Währungsraum in
der Rezession steckt. Auch die europäische Arbeitslosigkeit eilt von
einem Negativrekord zum nächsten: Im November laut Berechnungen der Statistikbehörde Eurostat
18,8 Mio. Menschen in den 17 Ländern des Währungsraums ohne Arbeit, 113.000 mehr als im Oktober
und gut zwei Mio. mehr als vor einem Jahr. Nach Meinung von Ernst
& Young könnte sich die europäische Jobkrise weiter verschärfen.
Die Wirtschaftsprüfer rechnen mit
20 Mio. Arbeitslosen in der zweiten
Jahreshälfte.
Dramatisch ist die Lage in den Krisenländern Spanien und Griechenland, wo im November jeweils rund
ein Viertel der Erwerbsbevölkerung
arbeitslos war. Besonders hoch ist
Zypern-Hilfe fließt später
D
er ebenfalls in der Schuldenkrise steckende
Inselstaat Zypern muss sich in Geduld üben.
Die Finanzminister der Euro-Zone wollen das
Hilfspaket für Nikosia nicht schon im Januar,
sondern erst nach der Präsidentenwahl Ende
Februar bewilligen. Offenbar ist man über den
amtierenden zyprischen Präsidenten Dimitris
Christofias verärgert, der sich wenig reformwillig zeigt. Die Euro-Partner knüpfen ihre Unterstützung — es geht um 17,5 Mrd. Euro — an einschneidende Reformen. Außerdem sind sich die
Geldgeber noch nicht einig, ob das Geld über
den ESM oder als Direktkredite fließen soll.
WISU
1/13
5
WISU-MAGAZIN
dort der Anteil der 15- bis 24-Jährigen ohne Job, der in beiden Ländern fast 60 Prozent erreicht hat.
In der gesamten Euro-Zone lag die
Jugendarbeitslosigkeit im November bei 24,4 Prozent.
ie geht es weiter mit Europa?
W
Wird sich in diesem Jahr die
Schuldenkrise zum Besseren wenden? Oder kommt es doch noch
zum Schlimmsten, dem Austritt
Griechenlands aus der Währungszone? Erste Lichtblicke gibt es. So
meldete das Krisenland Irland, das
im Sommer 2010 unter den EuroRettungsschirm geschlüpft ist, Ende letzten Jahres wieder Wachstum. In diesem Jahr könnte die irische Wirtschaft nach Schätzungen
des IWF 1,1 Prozent wachsen, 2014
sogar 2,2 Prozent. Positiv ist auch,
dass das Haushaltsdefizit des Landes im vergangenen Jahr unter acht
Prozent des Bruttoinlandsprodukts
gefallen ist. Ab Ende dieses Jahres
will Irland, das seit Anfang Januar
die EU-Ratspräsidentschaft inne
hat, wieder auf eigenen Beinen stehen und künftig ohne den Schutz
des Rettungsschirms auskommen.
Die Rosskur, der sich die Iren unterzogen haben, trägt also Früchte.
Die Target-Front hat sich überraschenderweise etwas entspannt.
Die Forderungen der Bundesbank
aus dem europäischen Zahlungssystem Target sind im Dezember
von 715 Mrd. auf 656 Mrd. Euro gesunken. Damit reduziert sich auch
die „Erpressbarkeit“ Deutschlands,
vor der vor allem der Ökonom HansWerner Sinn, Chef des Ifo-Instituts
und Autor des Sachbuch-Bestsellers „Die Target-Falle“, seit einiger
Zeit warnt.
Der Target-Saldo der Bundesbank
ist in den vergangenen zwei Jahren
Global Risks Report
Die größten Gefahren
für die Menschheit
er „Global Risks Report“, der
jetzt zum siebten Mal im AufD
trag des Weltwirtschaftsforums
(WEF) erstellt wurde, sieht die
Welt 2013 noch ein bisschen pessimistischer als im Vorjahr. Danach sind viele der Gefahren, die
die Menschheit und den Planeten
bedrohen, gestiegen.
Ernteeinbußen erlitten. An fünfter
Stelle steht der demografische
Wandel: Laut Report gehen viele
betroffene Länder falsch mit den
Herausforderungen einer alternden Bevölkerung um.
Weitere im Report genannte Risiken: Die Gefahr, dass viele Antibiotika wegen zu häufiger Nutzung
Den umrühmlichen Spitzenplatz
auf der Liste der 50 größten Gefahren nimmt die zunehmende
Einkommensungleichheit ein. Die
für die Studie befragten 1.000 Experten schätzen die Wahrscheinlichkeit, dass sie in den nächsten
zehn Jahren zu globalen Krisen
führt, besonders hoch ein.
Platz zwei belegt die öffentliche
Verschuldung, die in vielen Staaten ein bedrohliches Ausmaß angenommen hat. Als drittgrößtes
Risiko nennt der Report die klimaschädlichen Emissionen. Die damit verbundenen Risiken sind gestiegen, weil die internationalen
Klimaschutzverhandlungen in der
Sackgasse stecken.
Gefahr Nummer vier ist die weltweit zunehmende Wasserknappheit, die selbst Industrieländer
wie die USA bedroht, die im vergangenen Jahr wegen der Dürre
in Teilen des Landes erhebliche
WISU
6
1/13
Der Klimaschutz kommt nicht voran
ihre Wirkung verlieren und Krankheiten deshalb schlechter zu bekämpfen sind, mögliche „digitale
Flächenbrände in einer hypervernetzten Welt“ — etwa der AntiIslam-Film bei Youtube, der weltweite Proteste auslöste — und das
Risiko, dass die Bekämpfung aktueller Probleme wie der Staatsschuldenkrise zu viele Ressourcen bindet und die Aufmerksamkeit von langfristig drohenden Gefahren abzieht.
in die Höhe geschossen, als die
Leistungsbilanzdefizite der Krisenländer und die Kapitalflucht aus diesen Ländern rapide zunahmen. Außerdem hatten die Banken der Krisenländer große Probleme, sich bei
Instituten in anderen europäischen
Ländern Geld zu leihen. Stattdessen verschuldeten sie sich bei den
Notenbanken ihrer Länder, was im
Target-System als Verbindlichkeiten dieser Länder auftaucht. Die
Notenbanken stabiler Länder wie
Deutschland türmten hingegen immer größere Forderungen auf. Auf
diesen gewaltigen Forderungen, so
Ifo-Chef Sinn, bliebe die Bundesbank und damit Deutschland sitzen, sollte der Euro-Raum zerbrechen. Der Druck auf Deutschland,
alles für den Erhalt der Währungsunion zu tun, sei also riesig.
ass nun offenbar die Trendwende bei den Target-Salden einD
geleitet ist, führen Sinn und andere
Ökonomen auf das beherzte Eingreifen Mario Draghis zurück. Der
hatte im September angekündigt,
die EZB werde die Währungsunion
notfalls mit dem Ankauf von Staatsanleihen in unbegrenzter Höhe retten. Obwohl die Zentralbank dieses
Instrument seitdem nicht eingesetzt hat, sind die Target-Salden
geschrumpft und die Krisenländer
Italien und Spanien können den Kapitalmarkt wieder zu relativ günstigen Zinsen anzapfen. Vor allem
aber ist das Vertrauen der Anleger
wieder da: Der Kapitalabfluss aus
den Krisenländern ist offenbar gestoppt, was sich unter anderem daran zeigt, dass die Einlagen bei griechischen und spanischen Banken
zuletzt leicht gestiegen sind.
Griechenland bleibt das größte Sorgenkind der Euro-Zone. Das Land
steckt seit fünf Jahren in einer
schweren Rezession, und auch in
diesem Jahr soll das Bruttoinlandsprodukt wieder kräftig sinken. Die
Arbeitslosigkeit steigt weiter, die
Einzelhandelsumsätze sind massiv
eingebrochen. Die Griechen müssen mit heftigen Sparmaßnahmen
und sinkenden Löhnen fertig werden, der Kampf gegen die Steuerhinterziehung scheint hingegen aussichtslos — die Liste ließe sich fortsetzen. Derzeit lässt sich nicht absehen, wie lange es noch dauert,
bis Griechenland ohne Rettungsschirm zurechtkommt. Kein Wunder, dass die Stimmung im Land gedrückt ist. So sind 72 Prozent der
Griechen der Ansicht, dass 2013
noch schlimmer werde als das ohnehin schon schwierige vergangene Jahr.
ANZEIGENSEITE
(bleibt aus technischen Gründen leer)
WISU
1/13
7
ANZEIGENSEITE
(bleibt aus technischen Gründen leer)
WISU
8
1/13
WISU-MAGAZIN
THEMA AKTUELL
Das Erneuerbare-Energien-Gesetz wird von seinen Kritikern als wettbewerbsfeindlich bezeichnet. Zu Unrecht, meint Dietmar Schütz, Präsident
des Bundesverbands Erneuerbare Energie. Er erklärt, wie die erneuerbaren Energien den Börsenstrompreis sinken lassen und warum bei einem
freien Markt nicht genug Produktionskapazitäten entstehen.
gien auf einem Markt, der noch immer von den vier großen Konzernen
geprägt ist, ein verlässlicher Stromabsatz und damit Investitionssicherheit entstehen. Ohne die Pflicht zum
Anschluss der Anlagen an das Stromnetz und zur vorrangigen Stromabnahme hätten die Netzbetreiber bislang kaum einen Grund, ihre Netze
Kosten des Netzausbaus
können umgelegt werden
Der Motor
der
Energiewende
eit seiner Einführung im Jahr
S
2000 hat das Erneuerbare-Energien-Gesetz (EEG) den Ausbau der
erneuerbaren Energien kontinuierlich
beschleunigt. Ihr Anteil am Stromverbrauch ist von damals rund sieben auf heute fast 25 Prozent gestiegen.
Das Erfolgsrezept des Gesetzes beruht auf drei Prinzipien. Erstens: Vergütung gibt es nur für eine erbrachte
Leistung, nämlich produzierte Kilowattstunden Strom. Es gibt also keine Investitionsruinen aufgrund öffentlicher Subventionen. Zweitens:
Der produzierte Strom wird garantiert
abgenommen. Teure Risikoaufschläge für eventuelle Unwägbarkeiten auf
dem Strommarkt entfallen. Drittens:
Die Höhe der Vergütung steht von
Die drei Erfolgsprinzipien
des EEG
vornherein für 20 Jahren fest. Aufgrund dieses langen Zeitraums lassen sich die erforderlichen Investitionen verlässlich kalkulieren.
Das EEG hat damit eine beachtliche
Dynamik ermöglicht. Während bis
vor kurzem vier große Versorger den
Kraftwerks- und Strommarkt dominierten, sind heute viele Akteure am
Markt tätig. Auch Privatleute, Genossenschaften und mittelständische Unternehmen beteiligen sich an
der Energieversorgung. Zudem wurde in großem Maße privates Kapital
mobilisiert. Allein 2010 investierte die
mittelständisch geprägte Erneuerbare-Energien-Branche über 26 Mrd.
Euro in regenerative Kraftwerke. Die
positiven volkswirtschaftlichen Auswirkungen reichen von mehr sauberem Strom über viele neue Arbeitsplätze bis zu hoher regionaler Wertschöpfung.
Als weltweit erfolgreichstes System
zur Förderung erneuerbarer Energien wurde das EEG inzwischen von
anderen Ländern kopiert. Dennoch
werden hierzulande die Forderungen
immer lauter, es wieder abzuschaffen. Es wird sogar als planwirtschaftlich und wettbewerbsfeindlich diffamiert. Doch im Gegensatz zu dem
von einigen geforderten Quotensystem sieht es weder vom Staat festgelegte Mengenziele noch staatlich
organisierte Ausschreibungen vor.
Es bedarf auch keinerlei Bürokratie,
um die Erfüllung solcher Quoten zu
überwachen.
Mehr noch: Durch die jährlich sinkende Förderung entsteht bei den Unternehmen hoher Innovationsdruck.
Ein beeindruckender Beweis dafür
sind beispielsweise die Kosten für
Solarstrom, die innerhalb weniger
Jahre um über 50 Prozent auf jetzt
unter 20 Cent pro Kilowattstunde gefallen sind. Auf einem von Atom- und
Kohleenergie beherrschten Markt
konnten auf diese Weise viele innovative Technologien entwickelt werden. Ohne das EEG gäbe es diese
Investitionswirkung nicht und der
weitere Ausbau erneuerbarer Energien wäre sofort gestoppt.
Nicht ohne Grund haben die Väter
des Erneuerbare-Energien-Gesetzes
einen Einspeisevorrang für regenerative Energien formuliert. Nur durch
ihn kann für die erneuerbaren Ener-
aus- und umzubauen. Dabei gehen
sie kaum finanzielle Risiken ein. Sie
können die Kosten des Netzausbaus
auf die Netzentgelte umlegen, was
ihnen eine komfortable Eigenkapitalrendite verschafft.
Während die erneuerbaren Energien
ausgebaut und die Stromnetze umgebaut werden, werden konventionelle Kraftwerke benötigt. Das sind
jedoch keine Grundlastkraftwerke,
sondern hochflexible Anlagen, die
einspringen, wenn Wind- und Sonnenenergie den Strombedarf wegen
der Tageszeit oder des Wetters nicht
decken können. Die Unterteilung in
Grund-, Mittel- und Spitzenlastkraftwerke gehört deshalb zunehmend
der Vergangenheit an. Künftig wird
zwischen fluktuierend einspeisenden Anlagen und solchen Kraftwerken unterschieden, die flexibel steu-
Dietmar Schütz:
Wir brauchen ein neues
Strommarkt-Design
erbar und auf Abruf schnell einsatzbereit sind.
Die Gegner des EEG und der Energiewende beklagen, dass sich Neuinvestitionen in konventionelle Kraftwerke wegen der „planwirtschaftlichen Förderung“ der Wind-, Solarund Biomassekraftwerke nicht mehr
lohnen, weil die Zahl ihrer Betriebsstunden aufgrund des Einspeisevor-
WISU
1/13
9
WISU-MAGAZIN
rangs der erneuerbaren Energien
dramatisch absinken würde. Die erneuerbaren Energien müssten folglich schnellstens in den bestehenden
Strommarkt integriert werden, womit
alle Probleme gelöst wären.
Dabei muss man nur den Einspeisevorrang sowie die garantierten Mindestvergütungen für Strom aus regenerativen Quellen für einen Moment ausblenden und sich den heutigen Kraftwerkpark ansehen: Zum
einen Kohle-, Gas- und BiomasseWie der Preis an
der Strombörse entsteht
kraftwerke, für deren Betrieb teure
Brennstoffe erforderlich sind, zum
anderen Wind- und Solarkraftwerke,
die kostenlos zur Verfügung stehende Ressourcen nutzen. Alle diese
Kraftwerke bieten ihren Strom zu
Grenzkosten an der Strombörse an,
also zu jenen Kosten, die durch die
Produktion einer zusätzlichen Kilowattstunde entstehen.
Angefangen mit den kleinsten Grenzkosten werden so lange Kraftwerke
mit höheren Grenzkosten zugeschaltet, bis die Stromnachfrage gedeckt
ist. An der Strombörse bestimmt
das letzte Gebot, das noch einen Zuschlag erhält, den Strompreis. Der
Strompreis wird also vom teuersten
Kraftwerk bestimmt, das noch benötigt wird, um die Nachfrage zu
decken. Kraftwerke, die niedrigere
Grenzkosten als den ermittelten Preis
haben, können ihren Strom verkaufen. Anlagen, die teurer sind, kommen in der betreffenden Handelszeit
nicht zum Zug und können nicht betrieben werden.
Die Grenzkosten von Wind- und Solarenergieanlagen sind aber nahezu
null, weil sie keine Brennstoffe und
Emissionszertifikate einkaufen müssen. Deshalb kommen diese Anlagen auf einem liberalen Strommarkt
immer zum Zug — und verdrängen
so die teuren, brennstoffabhängigen
Anlagen. Das ist sinnvoll, weil auf diese Weise Brennstoffressourcen geschont werden. Mit dem viel gescholtenen Einspeisevorrang hat dies jedoch nichts zu tun.
Die Integration der erneuerbaren Energien in den bestehenden Markt
wird das Problem, dass sich neue
Kohle- und Gaskraftwerke nicht am
Markt refinanzieren lassen, demnach nicht lösen — unabhängig davon, mit welchen Instrumenten der
Ausbau erneuerbarer Energien gefördert wird.
WISU
10
1/13
Durch das Angebot von betriebskostenfreiem Wind- und Sonnenstrom
sinkt der Preis an der Strombörse,
weil am anderen Ende der Merit-Order, also der preislichen Reihenfolge
der Kraftwerke, teure Anlagen „aus
dem Markt gedrängt“ werden. Viele
Unternehmen in Deutschland profitieren direkt von den sinkenden Börsenstrompreisen. Allein 2012 betrug
die sich daraus ergebende Entlastung rund 1,5 Mrd. Euro. Hinzu
kommt der momentan geringe Preis
für CO 2-Zertifikate, der die Strompreise für Großverbraucher ebenfalls
sinken lässt. Paradoxerweise steigt
jedoch in dem Moment, in dem die
erneuerbaren Energien für sinkende
Preise an der Börse sorgen, die EEGUmlage. Sie bildet sich aus der Differenz der gezahlten Einspeisevergütungen und den beim Verkauf des
EEG-Stroms erzielten Börsenstrompreisen.
jetzigen Form auch ohne Ausbau der
erneuerbaren Energien keine ausreichenden Anreize, damit in neue
Kraftwerke investiert wird.
Mit anderen Worten: Die erneuerbaren Energien senken die Börsenstrompreise und werden dafür „bestraft“, indem die EEG-Umlage steigt
— ohne dass dadurch eine einzige
Kilowattstunde regenerativer Strom
hinzugekommen wäre. Damit ist die
Höhe der EEG-Umlage kein Indikator
mehr dafür, was uns als Gesellschaft
die Energiewende im Strombereich
kostet.
Fluktuierende Einspeisung und
steuerbare Kraftwerke
Damit bleibt die Frage, ob der liberale Strommarkt ohne den Ausbau der
erneuerbaren Energien Anreize für
Investitionen in die Erneuerung des
Kraftwerkparks bieten würde. Seit
der Liberalisierung des Strommarktes im Jahr 1998 wurden gerade einmal 19.700 Megawatt konventionelle
Zu geringe Anreize
für Investitionen
Kraftwerkkapazitäten gebaut. Das
ist bei einem Kraftwerkpark von rund
108.000 Megawatt und einer mittleren Lebensdauer der Kraftwerke von
40 bis 50 Jahren und angesichts des
im Jahr 2000 beschlossenen Atomausstiegs weit weniger als die Hälfte
dessen, was trotz des Ausbaus der
erneuerbaren Energien hätte ersetzt
werden müssen.
Schaut man sich den Zubau der
19.700 Megawatt konventioneller
Kapazität genauer an, stellt man fest,
dass ein beträchtlicher Teil — unter
anderem durch das Kraft-WärmeKopplungs-Gesetz — gefördert
und damit ebenfalls nicht nach den
Regeln des freien Marktes errichtet
und finanziert wurde. Offensichtlich schafft der freie Markt in seiner
Wollte ein Energieversorger früher
ein Kraftwerk errichten, musste er
sich dies von der zuständigen Landesbehörde, in der Regel dem Landeswirtschaftsministerium, genehmigen lassen. Ab dem Tag der Genehmigung konnte er alle Kosten, die
mit der Investition verbunden waren,
auf den Strompreis umlegen — noch
vor Inbetriebnahme der Anlage. Damit waren die Investitionsbedingungen ähnlich sicher wie beim Erneuerbare-Energien-Gesetz.
Die Herausforderung, vor der wir heute stehen, ist also nicht die Integration der EEG-Anlagen in den bestehenden Markt und der Ersatz des
EEG durch ein Quotensystem, sondern die Transformation des bestehenden Energiesystems. Wir brauchen in Deutschland und in Europa
ein völlig neues Design des Strommarkts, das fluktuierend eingespeiste erneuerbare Energien und flexibel
steuerbare Kraftwerke integriert, dabei aber den regenerativen, steuerbaren Anlagen den Vorrang einräumt
und eine ausreichend sichere Basis
für Investitionen bildet.
Selbstverständlich muss bei all dem
stets die Kosteneffizienz des EEG
und der geförderten Technologien
geprüft und — wann immer möglich
— verbessert werden. Dafür bietet
das Gesetz heute schon zielgenaue
Anpassungsmöglichkeiten, etwa die
von Anfang an bestehende Degression der Vergütungssätze. Wenn dies
von der Politik entschlossen genug
genutzt wird, lassen sich Überförderungen vermeiden.
Schon gelesen?
Thieß Petersen:
Ein Grexit könnte
Billionen kosten
(WISU 12/12)
Sabine LeutheusserSchnarrenberger:
Ein Urheberrecht für
das 21. Jahrhundert
(WISU 11/12)
ANZEIGENSEITE
(bleibt aus technischen Gründen leer)
WISU
1/13
11
WISU-MAGAZIN
Bei jedem Jahreswechsel fragt man sich, was das neue Jahr und damit die Zukunft bringt. Wie nicht nur die
letzten Krisen zeigten, hält sie immer Überraschungen bereit. Euro, Schuldenkrise, die weitere Entwicklung
Europas, die Konjunktur, die Auswirkungen des Internets, Klimawandel, die kommenden geopolitischen Veränderungen durch den Aufstieg Chinas — viele Themen und damit viel Platz für Spekulationen.
Die Zukunft
Überraschungen
gehören dazu
s gibt Airlines, deren Flugzeuge
keine Reihe 13 haben und Hotels,
E
bei denen nach der 12. die 14. Etage
folgt. Bei Kalenderjahren sind diese Tricks zum Leidwesen manch
eines Abergläubischen nicht möglich. Doch nachdem nach dem Ende des Maya-Kalenders der Weltuntergang ausblieb, wird vielleicht
auch das eben gestartete Jahr 2013
glimpflich verlaufen.
Im Übrigen bedarf es nicht erst einer
Unglückszahl, dass auf diesem Planeten etwas aus dem Ruder läuft.
Man denke nur an den Zusammenbruch der New Economy 2000/01,
an die weltweite Finanzkrise 2008/
09 oder die 2010 ausgebrochene Euro- bzw. Staatsschuldenkrise, die bis heute
noch nicht beendet ist, auch
wenn sie momentan nicht
die Schlagzeilen beherrscht.
Wie die letzten drei Jahre
gelehrt haben, kann dies jedoch schnell wieder geschehen. Allerdings scheint Mario Draghis überraschendes
und wohlüberlegtes Statement Ende Juli, die Europäische Zentralbank werde
„alles tun, um den Euro zu
erhalten“, seither für Ruhe
gesorgt zu haben. „And believe me, it will be enough”,
fügte er noch hinzu. Die Finanzmärkte haben sich das offenbar erst einmal zu Herzen genommen.
Der EZB-Chef wurde dafür von der
„Financial Times“ zur „Person of the
Year 2012“ gekürt. Wohl sehr zum
Missfallen von Bundesbank-Präsident Jens Weidmann, der dessen
Rettungspolitik nicht nur mit Argwohn, sondern mit offener Kritik begleitet. Für ihn ist Draghis damalige
Ankündigung vor der Eröffnung der
Olympischen Spiele in London „eine
Art Versicherung durch die Notenbank“, die das System jedoch nicht
stabiler mache. Er wünscht sich vielmehr, dass Fiskal- und Geldpolitik
„sauber getrennt werden“.
WISU
12
1/13
In der Tat hätte es kein seriöser Geldpolitiker vor Jahren für möglich gehalten, dass die wichtigsten Zentralbanken der Welt, die amerikanische
Fed und die EZB, Geld drucken müssen, um große Krisen zu verhindern.
Ein weiteres Beispiel dafür, wie rasch
unerwartete Ereignisse eintreten können, die unerwartete Maßnahmen erfordern.
Die Zukunft ist also stets voller Überraschungen. Wer sie prognostizieren will, kann sich schnell die Finger verbrennen. Gerade die Ökonomen mussten das in den letzten Jahren immer wieder auf bittere Weise
erfahren. Wobei ihre Prognosen oft
derart daneben lagen, dass sie zum
Teil schon zum Gespött wurden.
Auch weil einige ihrer so gehegten
Theorien offenbar vorn und hinten
nicht stimmen. Doch warum soll es
ihnen besser gehen als Astronomen
und vielen anderen Wissenschaftlern, die sich auch schon öfters genötigt sahen, so manche Theorie
auf den Mond zu schießen? Oder
dem Politologen Francis Fukuyama, der nach dem Zusammenbruch
der Sowjetunion vom „End of History“ faselte, weil er meinte, damit habe die liberale Demokratie endgültig gewonnen. 20 Jahre später gibt
es das autoritäre China immer noch,
Putins Russland wird immer undemokratischer und trotz des Arabi-
schen Frühlings gibt es bis heute nur
wenige muslimische Länder mit einer stabilen Demokratie, die auch
die Menschenrechte wahren. Sogar die gern als vorbildlich gepriesene Türkei steckt unbotmäßige Journalisten ins Gefängnis.
Wird Griechenland dank Draghi also nicht den Euro aufgeben müssen? Wird es die gemeinsame Währung in fünf oder zehn Jahren noch
geben? Jeder Ökonom und auch
Politiker hat dazu eine eigene Meinung. Die Realität kann jedoch ganz
anders aussehen.
Doch unabhängig davon, wie man
diese Fragen beantwortet:
Klar ist, dass die letzten
drei Jahre dem alten Kontinent erheblich geschadet
haben. Nicht so sehr der
grundsätzlichen Idee des
europäischen Zusammenschlusses, sondern vor allem dem Vertrauen, dass
die Politik in der Lage ist,
ihn verlässlich herbeizuführen. Zu viele Politiker versuchen jetzt etwa, direkt
oder indirekt alte nationalistische Gefühle anzustacheln, um bei Wahlen davon zu profitieren und ihre
Machtgelüste auszuleben.
Damit wird auch klar, dass das neue
Europa neue Politiker benötigt, dass
Figuren wie etwa Italiens Berlusconi
und viele griechische Politiker, die
nur ihren eigenen Vorteil im Auge haben, nicht mehr in diese Zeit passen.
In Spanien ist sogar die Notenbank
ins Visier der Staatsanwälte geraten.
So wie die Grünen einst einen neuen
Politikertyp abgeben wollten, versuchen es derzeit die Piraten. Was ihnen 2012 dann auch manchen Überraschungserfolg einbrachte. Derzeit
sieht es jedoch eher so aus, als sei
dieses Experiment gescheitert. Wie
schwer es ist, alte Muster in der Politik abzuschütteln, zeigte sich auch
während der ersten vier Regierungs-
WISU-MAGAZIN
jahre Barack Obamas. 2009 war er
mit großen Versprechen angetreten,
konnte jedoch nur einen Teil davon
erfüllen. Jetzt haben ihm die Wähler
eine neue Chance gegeben. Es wird
spannend, was er daraus macht.
Die Geschichte sei wie ein riesiges
Container-Schiff, das sich auch nicht
auf dem Absatz wenden ließe, meint
der Historiker Neill Ferguson. Bleibt
zu hoffen, dass dies auch für Europas Geschichte nach dem Zweiten
Weltkrieg gilt. Dass also Europas Zusammenschluss, welche endgültige
Form er auch immer annehmen mag,
nicht einfach geändert oder gar
aufgelöst werden kann. Selbst wenn
die Briten wieder mal versuchen,
sich Extrawürste braten zu lassen
und die europäische Idee am liebsten auf eine reine Freihandelszone
reduzieren würden. Etwa die Hälfte
von ihnen möchte laut Umfragen sogar die EU verlassen. Wichtig ist,
dass die europäische Karawane unbeirrt weiterzieht. Das Land kann sich
gern der NAFTA anschließen. Ein Gedanke, der immer mal wieder auf der
Insel diskutiert wird.
Auch das US-Magazin „Time“ erkor
eine „Person of the Year“. Die Wahl
fiel auf Präsident Obama. Befragt,
Die Globalisierung
als
Friedensstifter
was ihn nachts wachhalte, nannte
er zuerst die asiatisch-pazifische Region und China. Zwei Monate zuvor
hatte „Bloomberg Businessweek“
einen China-Artikel mit „We come
in peace“ betitelt, wozu eine riesige
Menschenmenge Chinesen gezeigt
wurde. Keine Frage: Nichts beschäftigt die USA außenpolitisch derzeit
mehr als die neue Supermacht im
Osten. Zumal Peking konsequent
aufrüstet und unverhohlen Gebietsansprüche gegenüber einigen Anrainerstaaten stellt.
Ob und in welcher Form es zur Konfrontation zwischen der alten und
der neuen Supermacht kommt, wird
eines der beherrschenden geopolitischen Themen der nächsten Jahre
sein. Hier kann die Globalisierung
zeigen, dass sie noch eine weitere,
bisher weniger beachtete Seite hat:
als Friedensinstrument zu dienen.
Schon heute sind beide Mächte wirtschaftlich so eng verzahnt — China
ist der größte Gläubiger der USA,
die USA sind neben Europa der
größte Exportmarkt der Chinesen —,
dass sich jeder Gedanke an eine wie
Die Idee stammt aus
den USA: Gegen Jahresende werden die
bemerkenswertesten
Personen, die besten
Manager und noch
so manch anderer
gekürt.
Time, Fortune & Co.
RankingRausch zum
Jahresende
ie Jahreswende ist auch immer die Zeit, wenn sich ZeitD
schriften und Zeitungen berufen
fühlen, die „Person of the Year“,
den oder die Manager des Jahres
auszurufen oder ähnliche Titel zu
verleihen. So kürte das US-Wirtschaftsmagazin „Fortune“ diesmal Amazon-Chef Jeff Bezos zur
„Businessperson of the Year“ (s.
WISU 12/12, S. 1540). Eine eher
langweilige Wahl. Apple-Chef Tim
Cook brachte es auf Platz 2, die in
Europa überwiegend unbekannten
Manager Brian Roberts von Comcast und Steve Burke von NBC
Universal zusammen auf Platz 3.
Für nicht-amerikanische Manager
hat die Zeitschrift offenbar nicht
viel übrig, unter den nach ihrer Ansicht 50 besten Managern finden
sich nur wenige Ausländer.
„Time“ hat nicht nur Manager im
Visier, wenn es darum geht, wer
die „Person of the Year“ wird.
Diesmal war es US-Präsident Barack Obama. Eine gute Wahl. Immerhin hat der mehr von den Europäern als von den Amerikanern geliebte Mann dafür gesorgt, dass
sich das durch George W. Bush
stark ramponierte Image der USA
wieder verbessert hat.
Gut auch die Wahl von Malala Yousafzai zur Nr. 2, der 15-Jährigen
aus Pakistan, der Anfang Oktober
ein Taliban in den Kopf schoss, um
sie zum Schweigen zu bringen. Die
Schülerin hatte sich für die Rechte
der Frauen in Pakistan eingesetzt.
Die Taliban erreichten mit der Tat
das genaue Gegenteil davon, was
sie erreichen wollten: Malala und
ihr Anliegen wurden nicht nur landes-, sondern sogar gleich weltweit bekannt. Nach dem Mordversuch wurde sie in ein Hospital
in England geflogen. Sie überlebte
den Anschlag und ist inzwischen
für viele zu einem Symbol und einer Inspiration geworden.
Nr. 3 bei „Time“ wurde Tim Cook
von Apple, er scheint dieses Jahr
fast überall dabei zu sein. Nr. 4
Ägyptens Präsident Mursi, was viele den Kopf schütteln ließ, hat sich
der Mann doch als alles andere als
ein Demokrat erwiesen. Er ist sicher das Letzte, was das Land
braucht. Nr. 5 wurde die Italienerin
Fabiola Gianotti, eine Physikerin
am CERN bei Genf.
Auch deutsche Medien frönen der
Ranking-Manie. So kürt das „Manager-Magazin“ seit langem den
deutschen „Manager des Jahres“.
Diesmal wurde es VW-Chef Martin
Winterkorn. Angesichts der Erfolge der Autofirma sicher eine berechtigte Wahl. Überhaupt scheint
die Managerkür sehr beliebt zu
sein, selbst in Südtirol. So hob die
Zeitung „Dolomiten“ Robert Zampieri, Chef der Firma Bergmilch
Südtirol, auf den Thron. Da wollte
die Lokalzeitschrift „Südwestfalen-Manager“ nicht nachstehen
und verlieh den gleichen Titel an
den Unternehmer Dennis Conze.
uch den „Professor des JahA
res“ gibt es — und zwar gleich
vier Mal. 2012 wurden es die Physikerin Cornelia Denz (Uni Münster),
der Betriebswirt Gunther Friedl (TU
München), der Ingenieur Holger
Timinger (FH Landshut) und die
Medienwissenschaftlerin Susanne
Marschall (Uni Tübingen). Verliehen wird die Auszeichnung von der
Studentenzeitschrift „Unicum“ zusammen mit der Wirtschaftsprüfungsgesellschaft KPMG. Der Jury
waren fast 800 Kandidatinnen und
Kandidaten von den Lesern vorgeschlagen worden.
WISU
1/13
13
WISU-MAGAZIN
Liebesgrüße
aus Moskau
E
r erschien zum Jahresende
zwar auf keiner Ranking-Liste
(s. S. 13), doch fast überall auf der
Welt war über ihn zu lesen: Gérard
Depardieu, Frankreichs bekanntester Schauspieler hat keine Lust
mehr auf den Präsidenten François Hollande und dessen drakonische Steuerpolitik, wonach jeder Franzose, der über eine Million
Euro verdient, 75 Prozent Steuern
zahlen soll.
Also machte er sich auf nach Belgien, wo er herzlich begrüßt wurde. Schon viele Franzosen haben
in dem Nachbarland Schutz vor
den notorisch hohen französischen
Steuern gesucht. Bis dahin sprach
Depardieu, der auch schon Obelix
gemimt hat, vielen Franzosen aus
der Seele. Die es im Übrigen gewohnt sind, dass Stars aus dem
Show Business gelegentlich vor
Gérard Depardieu
und sein Freund Putin
der Steuer das Weite suchen. Der
Sänger Johnny Hallyday und der
Schauspieler Alain Delon taten das
auch schon. Sie setzten sich einst
in die Schweiz ab. Was außerdem
ganz legal ist. Zum einen kann
sich jeder dort niederlassen, wo er
möchte. Zum anderen müssen
Länder, die immer den Wettbewerb propagieren, sich auch gefallen lassen, dass es einen Steuerwettbewerb zwischen den Staaten gibt.
as jedoch weniger gut in DeW
pardieus Heimat ankam: Er
nahm das Angebot seines Freundes Wladimir Putin an und wurde
Russe. Denn dort beträgt die Einkommensteuer 13 Prozent. Was
man deshalb auch noch als cleveren Schachzug bezeichnen könnte. Nicht jedoch, dass er Russland
als „große Demokratie“ bezeichnete. Inzwischen hat der französische Verfassungsrat das neue
Steuergesetz gestoppt. Hollande
muss es ändern, hält aber grundsätzlich an der Reichensteuer fest.
WISU
14
1/13
auch immer geartete militärische Auseinandersetzung von vornherein zu
verbieten scheint. Denn nicht anders
als im modernen Europa gilt auch
hier der nüchterne Satz: Auf seine
Geschäftspartner schießt man nicht.
Eine Weisheit, die sich die geistigen
Väter der europäischen Vereinigung
zu eigen machten.
llerdings: Wirtschaftliche Cyber
A
Wars schließt das nicht unbedingt aus. Manche wie der schei-
kommt, an dem sie sich schmerzhaft
an Opas Erzählungen erinnern.
Dass das Internet trotz dieser Bedenken unser Leben verändert hat,
ist längst eine Banalität. Die vielen,
leicht zugänglichen Informationen
sind ein echtes Plus, auch wenn so
mancher in dieser Flut verloren geht.
Man sollte deshalb früh lernen, richtig damit umzugehen.
Allerdings verändert die Tatsache,
dass man sich fast alles auf den
Bildschirm zaubern kann, auch massiv das Verhalten — nicht immer
zum Guten. So muss man etwa immer weniger in die reale Welt hinausgehen. Die Arbeit erfolgt oft per
Home Office, Shopping per Zalando
oder Amazon, auch immr mehr Vorlesungen kann man sich schon bequem auf dem eigenen Sofa anhören, immer häufiger so sogar ein
ganzes Studium absolvieren. Freunde trifft man nicht mehr in natura,
sondern mittels Facebook, Bekanntschaften werden auch längst per Internet geschlossen, auch mit den
Eltern skypt man. Für Bankgeschäfte muss man nicht mehr zur Bank
und für die aktuellen Filme nicht
Das ist eine recht
mehr ins Kino geruppige Erinnerung
hen. Fitnessübungen
daran, dass das In- Macht uns das Internet kann man auch vor
ternet-Zeitalter nicht
dem Laptop machen,
wieder zu
nur Friede, Freude,
ebenso Yoga- und
Höhlenbewohnern?
Eierkuchen bedeuTai-Chi-Kurse. Spieltet. Auch nicht auf
freunde trifft man naprivater Ebene. Wer schon als Schü- türlich ebenfalls im Internet. Essen
ler im Internet gemobbt wurden, und Trinken kann man sich ohnehin
musste das bereits früh erfahren. nach Hause bestellen.
Und wer immer noch dazu neigt,
alle seine Gedanken und Wünsche Macht uns das Internet wieder zu
sozialen Netzwerken wie Facebook Höhlenbewohnern, wird das Leben
anzuvertrauen, sollte zweimal darü- zum Second-Hand-Life? Werden wir
ber nachdenken. George Orwell, uns irgendwann nur noch auf unsere
der Autor von „1984“, hätte sich nicht Gehirne reduzieren, die in einer Salzim Entferntesten träumen lassen, lösung schwimmen und alle drahtlos
was man heute alles über Men- kommunizieren? Ein Szenario, das
schen herausfinden kann. Abgese- nicht nur Science-Fiction-Autoren für
hen von der kommerziellen Aus- möglich halten. Auch zum Kriegfühschlachtung der Nutzerdaten, wo- ren muss dann niemand mehr vor
von die Social Networks leben, stellt die Tür. Das erledigen ferngesteusich die viel beängstigendere Frage, erte Drohnen — es gibt sie bereits —
was geschieht, wenn diese Daten in und Roboterarmeen. Auch die findet
falsche Hände fallen, etwa von au- man längst auf der Leinwand.
toritären Systemen.
aut Futurologen sind solche EntAuch in demokratischen Systemen
wicklungen, wie auch immer sie
wird längst von Überwachungsstaat im Detail aussehen mögen, bereits
und vom gläsernen Bürger gespro- eingeleitet — die Weichen sind alchen. Für Menschen, die so etwas — so schon gestellt, auch wenn dies
etwa in den osteuropäischen Staa- vielen noch nicht klar ist. Der Menschten während der kommunistischen heit steht noch einiges bevor. Für
Diktatur — noch erlebt haben, durch- die Urenkel der heute Zwanzigjähriaus Grund, sich im Internet zurückzu- gen dürfte eine ganz neue Welt herhalten. Für „Digital Natives“ sind das aufziehen. Und da die Entwicklung
eher kaum verständliche und irrele- Schritt für Schritt vor sich geht und
vante Geschichten aus Opas Jugend. mit viel Ehrfurcht vor den fantastiBleibt zu hoffen, dass nie der Tag schen Möglichkeiten der Technolodende US-Verteidigungsminister Panetta sind sogar der Ansicht, dass
sie längst im Gange sind, denkt man
etwa an die Internet-Angriffe während der letzten Zeit auf einige USUnternehmen. Dahinter werden oft
chinesische und auch russische Angreifer vermutet. Bei der kürzlichen
Attacke auf den saudi-arabischen
Ölkonzern Aramco, der 30.000 Computer lahmlegte, könnte auch der
Iran dahinterstecken. Leon Panetta: „Cyber-Attacken können sogar
ein ganzes Land paralysieren.“ Um
Angreifer abzuschrecken, würden
die USA deshalb ihre Kapazitäten
ausbauen, selber Cyber Wars zu
führen.
L
WISU-MAGAZIN
gie begleitet wird, dürfte sich auch
wenig Widerstand rühren. Denn die
meisten, die jung sind, wollen eigentlich nur das allerneueste und
allercoolste Gadget haben, gleichgültig, welche Welten sich dahinter
auftun.
Wie die Welt in 50, 100 oder 200
Jahren aussehen wird — darüber
kann man trefflich spekulieren. So
richtig weiß es natürlich niemand.
Sicher ist derzeit nur, dass sich die
Erdatmosphäre und das Meereswasser schneller erwärmen als bislang
gedacht. Dass dies mitursächlich für
Klimaveränderungen ist, gilt heute als
wissenschaftlich gesichert. Die Politik hat sich bislang als unfähig erwiesen, diese Veränderungen zu stoppen. Die Folgen — und die werden
heftig sein — müssen die nachfolgenden Generationen tragen. Die
Vorwürfe, die sie einmal zu Recht gegen die derzeit Verantwortlichen erheben werden, gellen einem — ohne
dass dazu viel Fantasie nötig ist —
bereits heute in den Ohren. So wie die
Nachkriegsgenerationen wütend bei
ihren Eltern nachfragten, warum
der Erste und Zweite Weltkrieg mit
allem, was dazugehörte, nicht ver-
Die Lösung:
Eine grüne
soziale Marktwirtschaft
hindert wurden, werden diese Generationen mit ebenso viel oder noch
mehr Wut fragen, warum ihnen eine
solche Welt hinterlassen wurde.
Die Antworten kann man sich heute
schon denken: Es war das kapitalistische System mit seinem immer
höher, immer schneller, immer mehr,
getragen vom Egoismus des Menschen, der zuerst an sich und dann
an andere denkt, schon gar nicht an
diejenigen, die noch geboren werden. Ob der Kapitalismus überlebt,
ist angesichts der sich durch den
Klimawandel verändernden Welt offen. Wer ihn retten möchte, da bisher keine überzeugende Alternative
in Sicht ist, sollte dafür sorgen, dass
aus der sozialen Marktwirtschaft eine
grüne soziale Marktwirtschaft wird.
Viele arbeiten bereits mit Kräften
daran. Da die Geschichte aber ein
schwerfälliges Container-Schiff ist,
sollten möglichst viele helfen, das
Steuer herumzureißen. Denn die Naturgesetze des Klimawandels kennen kein Pardon. Und wie Experten
sagen, bleibt keine Zeit mehr. Für
manches ist es ohnehin schon zu
spät.
Brüssel spricht von
einer Abwärtsspirale
in den südlichen Krisenländern. Vor allem
die Lage der Jugend
ist dramatisch.
Europas Krisenländer
Die
Tragödie
des Südens
ls Griechenland Mitte Dezember einen kleinen Teil seiner
A
Schuldverschreibungen mit einem
kräftigen Abschlag zurückkaufte,
seine Schulden damit um 20 Mrd.
Euro senkte und so grünes Licht
von Brüssel und dem IWF für weitere Hilfszahlungen von 49 Mrd. Euro
bis Ende März erhielt, hob Standard
& Poor’s die Kreditwürdigkeit des
Landes um sechs Stufen an. Doch
diese Nachrichten ändern nichts
daran, dass es dem Land und seinen Menschen nach wie vor sehr
schlecht geht. 2013 wird die Wirtschaft wohl um weitere fünf Prozent einbrechen.
lag sie im November bei 56, in Portugal bei fast 40 und in Italien bei 37
Prozent. In Griechenland erreichte
sie im September über 57 Prozent.
Zum Vergleich: In Deutschland betrug sie im November 8,1 Prozent.
Man kann sich vorstellen, wie vielen Jugendlichen in Südeuropa zumute ist. Sie hängen von ihren Eltern ab, die sich selbst massiv einschränken müssen. Nicht wenige
griechische Familien leben sogar
nur noch von der schmalen Rente
der Großeltern und vielleicht von einer miserabel bezahlten Gelegenheitsarbeit da und dort. Viele junge
Griechen und Spanier versuchen
inzwischen ihr Glück im Ausland,
etwa in Deutschland, Großbritannien, den Niederlanden, Australien, den USA oder Kanada.
Die Wut auf das korrupte politische
System ist vor allem in Griechenland groß. Kein Wunder, dass das
Linksbündnis Syriza in Umfragen
vor allen anderen Parteien liegt.
Sollte die jetzige Regierungskoalition unter Premier Samaras zerbrechen und es zu Neuwahlen kommen, könnten sich die politischen
Konstellationen schlagartig verändern. Doch auch in den anderen
Krisenländern wird kaum ein gutes
Haar an den Politikern gelassen.
Selbst Italiens Technokrat Mario
Monti steht wegen seiner rigiden
Sparpolitik in der Kritik.
Auch Portugal, Spanien und Italien
ächzen nach wie vor unter staatlicher Schuldenlast, Konjunktureinbruch und hoher Arbeitslosigkeit.
EU-Sozialkommissar László Andor
meinte Anfang Januar, die südlichen Staaten der EU seien „in einer
Abwärtsspirale von Leistungsabfall, schnell steigender Arbeitslosigkeit und erodierenden EinkomLinksbündnis Syriza:
men gefangen“. Damit hätten sich
Würde heute Wahlen gewinnen
die wirtschaftlichen und sozialen
Unterschiede zwischen Nord- und
er Süden Europas durchlebt
Südeuropa in den letzten fünf Jahtragische Jahre. Die Hoffnung,
ren massiv verschärft.
dass sich mit der EU auch die Lebensverhältnisse verbessern würDie Arbeitslosenquote in der Euro- den, ist nach einigen AnfangserZone hat jetzt 11,8 Prozent er- folgen inzwischen für die meisten
reicht, die höchste seit ihrer Ex- geplatzt. Zwar wird die Schuld an
istenz. Während sie in Österreich, der Misere überwiegend den einLuxemburg, Deutschland und den heimischen Politikern gegeben. In
Niederlanden unter sechs Prozent den Augen vieler Jugendlicher verliegt, weisen Spanien und Grie- sagt aber auch die EU, die zu spät
chenland 20 Prozentpunkte mehr und zaghaft eingegriffen habe und
auf. Damit sind fast 19 Millionen die Sparpolitik übertreibe. Diese
Menschen in der Euro-Zone ohne treffe nur den DurchschnittsbürArbeit. Ein absolutes Drama ist die ger, während die Reichen ungeJugendarbeitslosigkeit: In Spanien schoren davonkämen.
D
WISU
1/13
15
WISU-MAGAZIN
Japan hat wieder mal eine neue Regierung. Doch die Rezepte, mit denen sie die Wirtschaft aus dem Dauertief
holen will, sind die alten: schuldenfinanzierte Konjunkturprogramme. Dabei ist das Land bereits heute höher
verschuldet als jeder andere Staat auf der Welt. Eine Schuldenkrise wie in Griechenland scheint daher nicht
mehr ausgeschlossen.
Riskantes Spiel
Japan:
Die nächste Schuldenkrise?
nter den vielen Produkten, mit
denen Japan die Welt beglückt
U
hat, ist Sushi sicher eines der populärsten — und gesündesten. Die Japaner selbst sind dafür der beste Beweis: Nirgendwo auf der Welt werden die Menschen älter als im Land
der Reis- und Rohfisch-Esser, wo im
letzten Jahr knapp 48.000 über hundert Jahre waren. Wer im Land der
aufgehenden Sonne das Licht der der
Welt erblickt, kann mit einer durchschnittlichen Lebensdauer von etwa
83 Jahren rechnen. Bei Frauen sind
es sogar noch drei Jahre mehr.
Die hohe Lebenserwartung der Japaner hat allerdings auch eine Kehrseite: In Verbindung mit der
niedrigen Geburtenrate des
Landes sorgt sie dafür, dass
die japanische Gesellschaft
rapide altert. So wird der
Anteil der über 65-Jährigen
von heute 23 Prozent bis zur
Jahrhundertmitte auf 40 Prozent ansteigen. Gleichzeitig
schrumpft die Bevölkerung.
Gibt es heute 130 Millionen
Japaner, werden es im Jahr
2060 nur noch 87 Millionen
sein.
Das hat nicht nur dramatische Auswirkungen auf das
Sozialsystem — bereits
heute nehmen die Sozialausgaben
Jahr für Jahr um zehn Mrd. Euro zu
—, sondern auch auf den privaten
Konsum und das Steueraufkommen.
Denn Ältere konsumieren weniger als
Jüngere. Und wer nicht mehr arbeitet, zahlt nicht nur keine Rentenbeiträge, sondern auch keine Einkommensteuer. Hinzu kommt, dass die
Wirtschaft seit der geplatzten Immobilienblase vor über 20 Jahren kaum
noch wächst. Was zur Folge hat,
dass die staatlichen Ausgaben nur
zur Hälfte durch Steuereinnahmen
gedeckt sind.
Kein Wunder, dass Japan zweistellige Defizite verzeichnet — die OECD
schätzt das Minus im laufenden Fi-
WISU
16
1/13
nanzjahr auf zehn Prozent des BIP,
mehr als Spanien oder Griechenland
— und mit einer ständig steigenden
Staatsverschuldung kämpft. Sie liegt
inzwischen bei 220 Prozent des BIP.
Da kommen selbst die Griechen —
aktueller Schuldenstand: 180 Prozent
— nicht mehr mit.
Beste Voraussetzungen also, um von
den Finanzmärkten so richtig in die
Mangel genommen zu werden. Dass
davon bisher keine Rede ist — die
Renditen japanischer Staatsanleihen sind sogar niedriger als bei deutschen Bonds, die Rating-Agenturen
geben Japan durchweg gute, wenn
auch keine erstklassigen Noten —,
na sorgten dann dafür, dass Japans
mächtige Exportindustrie bis heute
auf Sparflamme köchelt.
Hinzu kommt, dass die einstige Sparquote von 14 Prozent auf zwei Prozent gefallen ist — auch hier macht
sich der demografische Faktor negativ bemerkbar. Um seine enormen
Defizite zu finanzieren, wird Japan
deshalb über kurz oder lang auf ausländische Kapitalgeber angewiesen
sein. Doch die werden sich kaum mit
Mini-Zinsen abspeisen lassen. Damit droht eine Explosion der Staatsschulden.
Nicht wenige Experten sagen Japan
deshalb ein ähnliches oder
sogar schlimmeres Schicksal als Griechenland & Co.
voraus. Selbst wenn man
diesen Pessimismus nicht
teilt: Die drittgrößte Volkswirtschaft ist eine tickende
Zeitbombe, die der Weltwirtschaft noch ernste Probleme bereiten könnte.
Das scheinen auch die Japaner so zu sehen, die bereits seit Jahren eine Regierung nach der anderen verschleißen. Im Dezember war
Premier Shinzo Abe:
Die alten Kräfte sind wieder an der Macht es wieder mal soweit: Nach
gut einem Jahr als Minisliegt vor allem an den Gläubigern. terpräsident wurde Yoshihiko Noda
Denn diese sind zu 95 Prozent ja- von den Wählern in die Wüste gepanische Bürger und Unternehmen, schickt. Seine Demokratische Partei
die die bislang als bombensicher gel- (DPJ) holte bei den vorgezogenen
tenden, wenn auch kaum verzinsten Wahlen gerade mal 57 der 480 ParAnleihen ihres Landes mit Vorliebe lamentssitze.
kaufen. Zudem wies Japans Leistungsbilanz wegen der hohen Spar- Dabei hatten viele große Hoffnungen
quote der Bevölkerung jahrzehnte- in die DPJ gesetzt, die vor drei Jahren
lang hohe Überschüsse aus.
die Dauerherrschaft der Liberaldemokraten (LDP) beendete. Der damalige
Damit ist es seit 2011 allerdings vor- Premier Yukio Hatoyama wollte mit
bei. Nach dem verheerenden Tsunami dem Filz in Wirtschaft und Verwalund einem Exporteinbruch rutschte tung aufräumen, den Sozialstaat ausdie Handelsbilanz erstmals seit drei bauen und die Ära kostspieliger KonJahrzehnten ins Minus. Der starke junkturprogramme beenden, mit deYen, die Konjunkturflaute in Europa, nen LDP-Politiker die Staatsverteure Energieimporte und zuletzt der schuldung in immer größere Höhen
Boykott japanischer Produkte in Chi- trieben. Sein Nachfolger Noda setzte
ANZEIGENSEITE
(bleibt aus technischen Gründen leer)
WISU
1/13
17
WISU-MAGAZIN
Japan und China sind
wirtschaftlich aufeinander angewiesen.
Das hindert sie jedoch
nicht daran, wegen
ein paar unbewohnter
Inseln kräftig mit
dem Säbel zu rasseln.
Eskaliert der Streit,
hätte das Folgen für
die gesamte Weltwirtschaft.
Streit mit China
Die
ungleichen
Nachbarn
ls sich Großbritannien und Argentinien 1982 wegen der FalkA
land-Inseln in die Wolle bekamen,
schüttelte alle Welt den Kopf: Ein
Krieg wegen eines Fetzen Landes
irgendwo im Atlantik? Doch keiner
der Streithähne wollte damals klein
beigeben und sein Gesicht verlieren.
Auch bei den zwischen Japan und
China heftig umstrittenen Senkaku-Inseln im ostchinesischen Meer
fragt man sich, was die ganze Aufregung soll. Immerhin kam es dort
in den letzten Monaten nicht nur
zu mehreren Zwischenfällen, auch
japanische Produkte werden daraufhin von vielen Chinesen boykottiert. Zwar wurden dort Ende der
sechziger Jahre größere Öl- und
Erdgasvorkommen entdeckt, die
sowohl Japan als auch China gut
gebrauchen können. Zudem ist die
Region für ihre reichen Fischbestände bekannt. Doch all das erklärt nicht das heftige Säbelrasseln, vor allem seitens Peking.
Tatsächlich liegen die Wurzeln des
Konflikts viel tiefer. Er begann spätestens 1894, als der kleine Inselstaat Japan dem großen chinesischen Kaiserreich im Ersten Japanisch-Chinesischen Krieg eine
demütigende Niederlage zufügte.
Zwischen 1937 und 1945 hielt Japan dann weite Teile Chinas besetzt, wobei es zu einer Reihe von
WISU
18
1/13
Gräueltaten an Zivilisten kam, die
man in China bis heute nicht vergessen hat. Nach Ende des Zweiten Weltkriegs mussten die Chinesen dann mitansehen, wie sich Japan zu einem reichen Industriestaat entwickelte, während China unter Mao Tse-tung ein rückständiges Land blieb.
Doch die Zeiten haben sich geändert. Während die japanische Wirtschaft seit Jahren auf der Stelle
tritt, bricht China sämtliche Wachstumsrekorde. 2010 löste es Japan
als zweitgrößte Wirtschaftsmacht
ab. Zwar können die Chinesen den
Japanern in puncto Wohlstand und
Lebensstandard noch lange nicht
das Wasser reichen. Ihr Selbstbewusstsein hat sich dank der wirtschaftlichen Erfolge allerdings vervielfacht. Auch weil Japan mehr
denn je auf den Exportmarkt China
angewiesen ist — ein Fünftel seiner
Ausfuhren geht dorthin — und dringend benötigte Rohstoffe wie die
Seltenen Erden von dort bezieht.
Doch auch China kann sich einen
Wirtschaftskrieg oder gar einen
bewaffneten Konflikt mit dem ungeliebten Nachbarn nicht leisten.
Japanische Konzerne wie Nissan,
Sony oder Panasonic beschäftigen
in China zehntausende Arbeiter.
Stünden sie plötzlich auf der Straße, käme es zu sozialen Unruhen.
Außerdem ist auch Japan für China
sich außerdem für eine stärkere Öffnung der in vielen Bereichen immer
noch abgeschotteten japanischen
Wirtschaft ein.
Doch kaum an der Macht, wurde die
DPJ der von ihr bekämpften LDP immer ähnlicher — inklusive ihrer Skandale und Intrigen. Die Hilflosigkeit,
mit der die Regierung anfangs auf die
Dreifach-Katastrophe aus Erdbeben,
Tsunami und Atomunfall reagierte,
tat ein Übriges, um sie in den Augen
der Wähler zu diskreditieren.
Vom neuen Premier Shinzo Abe sind
erst recht keine Reformen zu erwarten. Der 58-Jährige, der bereits von
2006 bis 2007 Ministerpräsident war
und — natürlich — aus der LDP
kommt, will die Wirtschaftsflaute wie
gehabt mit milliardenschweren Konjunkturpaketen und einer extrem lockeren Geldpolitik bekämpfen. Außerdem hat er eine härtere Gangart
gegenüber China angekündigt, mit
dem Japan zunehmend im Clinch
liegt (s. Kasten). Den von der DPJ
beschlossenen Atomausstieg — derzeit sind nur zwei der 50 japanischen
Reaktoren in Betrieb — will die LDP
rückgängig machen.
Japans
Atomausstieg steht
auf der Kippe
Das dürfte zumindest die unter den
hohen Energiekosten leidende Industrie freuen. Ob Japans Konsumenten
mitziehen und ihre Kaufzurückhaltung
aufgeben, ist indes mehr als fraglich.
Denn nach 15 Jahren Deflation und
ebenso langer Abwärtsspirale bei
den Löhnen haben sie sich daran gewöhnt, ständig auf Schnäppchenjagd
zu sein und Anschaffungen zu verschieben. Es könnte ja noch billiger
werden.
Aus „New York Times“
ein wichtiger Markt und Lieferant.
Das bilaterale Handelsvolumen erreichte 2011 bemerkenswerte 340
Mrd. Dollar.
amit wird klar, dass eine EsD
kalation des Konflikts die gesamte Weltwirtschaft in Mitleidenschaft ziehen würde. Nicht auszudenken, sollten auch noch die USA
als Verbündeter der Japaner hineingezogen werden. Nachdem mit
Shinzo Abe ein „Falke“ zum japanischen Premier gewählt wurde, ist
eine Entspannung allerdings vorerst nicht in Sicht.
Gut möglich also, dass Abe nur ein
weiteres Strohfeuer entfacht, das der
Wirtschaft nicht weiterhilft, sondern
nur die Schulden steigen lässt. Damit
der Motor wieder anspringt, müssen
die Japaner endlich ihren tiefsitzenden Pessimismus überwinden. Ökonomen empfehlen zudem einen beschleunigten Umstieg von der Industrie- zur Dienstleistungsgesellschaft
und eine familienfreundlichere Politik,
damit mehr Frauen arbeiten und die
Japaner dennoch mehr Kinder bekommen. Vor allem aber müssen die
Japaner endlich ihr Schuldenproblem anpacken. Sonst blühen ihnen
eines Tages tatsächlich griechische
Verhältnisse.
ANZEIGENSEITE
(bleibt aus technischen Gründen leer)
WISU
1/13
19
WISU-MAGAZIN
Südkorea ist bekannt für seine weltweit erfolgreichen Industriekonzerne. Nun drohen Chaebols wie Samsung,
Hyundai & Co. jedoch zum Problem zu werden.
Südkorea
Die besseren Japaner
ei Südkorea fallen den meisten
B
zuerst Hyundai und Samsung
ein. Der Elektronikkonzern ist Marktführer bei Handys und verkaufte im
vergangenen Jahr 28 Prozent aller
weltweit abgesetzten Smartphones.
Selbst Apple, mit dem man sich um
zahlreiche Patente streitet, kann den
Koreanern in puncto Dynamik nicht
das Wasser reichen. Und Hyundai
schickt sich an, den Big Three General Motors, Toyota und Volkswagen
den Marsch zu blasen. Dem Autohersteller gelang 2012 das Kunststück, seinen Absatz in Europa trotz
Schuldenkrise und eingebrochener
Pkw-Verkäufe kräftig zu steigern.
Was viele nicht wissen: Hyundai und Samsung produzieren
nicht nur Autos, Fernseher und
Handys. In Südkorea zählen sie
zu den sogenannten Chaebols
— mächtige Industrie-Konglomerate, die sich in vielen unterschiedlichen Branchen tummeln und von einflussreichen
Familienclans beherrscht werden. Zum Samsung-Imperium
gehören Chemiefirmen, Finanzdienstleister, Bauunternehmen
und ein Freizeitpark. Andere
Chaebols betreiben Einkaufszentren, Kosmetikläden und sogar Bäckereien.
Die straff geführten Industrieriesen waren der Garant, dass Südkorea in kürzester Zeit den Sprung
vom Entwicklungsland zum hochmodernen High-Tech-Staat schaffte.
Noch Anfang der sechziger Jahre,
nach dem Koreakrieg und der Teilung des Landes, befand man sich
wirtschaftlich auf einer Stufe mit
Ghana. Heute gehört Südkorea zu
den Top-15 der größten Volkswirtschaften und zu den Top-7 der größten Exporteure. Zusammen mit China ist man die führende Schiffbaunation.
Bei seinem Aufstieg orientierte sich
das Land stets auch am japanischen
Nachbar, zu dem viele Koreaner so
etwas wie Hassliebe empfinden. Von
1910 bis 1945 war Korea japanische
Kolonie — eine Zeit, die nicht gerade
mit guten Erinnerungen verbunden
ist. Inzwischen hat der Schüler sei-
WISU
20
1/13
nen Lehrmeister jedoch auf vielen
Gebieten überholt. Nicht nur, dass
Samsung Sony & Co. enteilt ist und
Hyundai Toyota das Fürchten lehrt.
Während die japanische Wirtschaft
seit zwei Jahrzehnten vor sich hin
dümpelt, geht es mit Südkorea stetig nach oben. Weder die Asienkrise
1997/98 noch die Finanz- und Wirtschaftskrise von 2008/09 konnte den
Aufholprozess stoppen.
Das Erfolgsgeheimnis der Koreaner:
Stärker noch als andere Asiaten sind
sie bereit, von anderen zu lernen, erfolgreiche Konzepte zu übernehmen
und weiter zu verbessern. So findet
man in ihren Unternehmen — ganz
Tatsächlich sind unabhängige Firmen
mit 50 bis 500 Mitarbeitern in Südkorea eine Seltenheit. Kein Wunder:
Die riesigen Chaebols, von denen es
ein halbes Dutzend gibt, walzen alles
nieder, was sich ihnen in den Weg
stellt. Über die Hälfte des BIP geht
auf ihr Konto. Die Kehrseite dieses
extremen Ungleichgewichts: Läuft bei
einem von ihnen etwas schief, hängt
gleich die gesamte Wirtschaft durch.
Ein ähnliches Beispiel in Europa sind
Finnland und sein abgestürzter Elektronikriese Nokia.
Dass das Wachstum im letzten Jahr
auf zwei Prozent gefallen ist — der
schwächste Wert seit drei Jahren —,
ist für viele Koreaner ein Warnzeichen. Nicht wenige machen
die Chaebols außerdem für die
zunehmende Einkommensungleichheit und soziale Spaltung
verantwortlich. Denn wer nicht
das Glück hat und bei einem
von ihnen arbeitet, muss sich
oft mit schlechtbezahlten Jobs
durchschlagen.
Grund genug für Südkoreas
Politiker, sich die „Demokratisierung der Wirtschaft“ auf die
Fahne zu schreiben. Auch die
neue Präsidentin Park Geunhye will die Allmacht von HyPräsidentin Park Geun-hye:
Die Macht der Chaebols brechen undai & Co. brechen — wenn
auch mit weniger rigiden Meim Gegensatz zu japanischen Kon- thoden als ihr linksliberaler Rivale
zernen — auffallend viele westliche Moon Jae-in, den sie bei der Wahl im
Manager. Typisch für südkoreani- Dezember knapp schlug.
sche Firmen ist auch eine hohe Risikobereitschaft. Kein Volk gibt außer- Dass mit Park nun erstmals eine Frau
dem mehr Geld für Bildung aus als in Südkorea das Sagen hat, zeigt,
die Südkoreaner. Und keines arbei- wie stark sich das patriarchalisch getet mehr: Laut OECD bringen es die prägte Land verändert hat. Ihr Vater
Südkoreaner auf 2.193 Arbeitsstun- Park Chung-hee hatte bis 1979 als
den pro Jahr. Im OECD-Durchschnitt Diktator mit eiserner Faust regiert.
sind es nur 1.749 Stunden.
Parks Herausforderer Moon saß unter ihm im Gefängnis.
Jüngstes Beispiel dieser Lernbereitschaft: Ein Förderprogramm, mit dem
b auch das stets angespannte
in der Hauptstadt Seoul der MittelVerhältnis zu Nordkorea von dem
stand aufgepeppt werden soll. Denn Führungswechsel profitiert, wird sich
Südkoreas Wirtschaftsstrategen sind zeigen. Nicht auszuschließen, dass
zu der Einsicht gelangt, dass das das kommunistische Regime eine
Land mehr flexible und innovative Un- weichere Gangart als Schwäche internehmen braucht, wobei Deutsch- terpretiert. Frau Park wäre allerdings
land mit seinem breiten und weltweit nicht die erste Regierungschefin, die
erfolgreichen Mittelstand Pate ge- sich bei Gefahr in eine „Eiserne Lady“
standen hat.
verwandelt.
O
ANZEIGENSEITE
(bleibt aus technischen Gründen leer)
WISU
1/13
21
WISU-MAGAZIN
Vor 50 Jahren lebten die Qataris noch von Fischfang und Perlenfischerei. Öl- und Erdgasfunde sorgten dafür,
dass sie heute zu den reichsten Menschen des Globus zählen. 2022 werden sie sogar die Fußball-WM ausrichten. Doch dem Emir des Wüstenstaates reicht das nicht. Er mischt inzwischen auch politisch kräftig im
Nahen und Mittleren Osten mit.
Wüstenstaat Qatar
Stinkreich
und selbstbewusst
er etwas für skurrile Länder übrig hat, ist im Wüstenstaat QaW
tar genau richtig. Oder wie soll man
es nennen, wenn von knapp zwei
Millionen Einwohnern weniger als
250.000 Einheimische sind. Was etwa dazu führt, dass in einem seiner
Luxushotels — und davon gibt es
dort etliche — Menschen aus 70 Nationen arbeiten. Oder dass der Zwergstaat mit seinen 11.000 Quadratkilometern nicht nur stinkreich ist, sondern sich außerdem zu einem politischen Schwergewicht in dieser Region aufgeplustert hat und sein TVSender Al Jazeera mit seinen rund
150 Mio. Zuschauern als Sprachrohr der ganzen arabischen Welt gilt.
Oder dass dort die größte
US-Luftwaffenbasis der Region installiert ist. Und richtig: 2022 findet in Qatar die
Fußball-WM statt — was, als
es bekannt wurde, bei vielen
Fans einen Lachanfall auslöste.
Doch das ist längst nicht alles. Seit Jahren kaufen sich
die Qataris bei vielen bekannten westlichen Firmen
ein oder schlucken sie gleich
ganz wie das Luxuskaufhaus
Harrods in London. Sie sind
etwa an Volkswagen, Tiffany, Louis Vuitton, Shell, der
Bank Credit Suisse und Hochtief beteiligt. Sie haben den Fußballverein
Paris Saint-Germain gekauft und
sponsern seit 2010 den FC Barcelona. Offenbar überlegt man auch,
dem italienischen Ex-Premier Silvio
Berlusconi den AC Mailand für 650
Mio. Dollar abzukaufen. Diese Engagements laufen in der Regel über
Qatars Staatsfonds, der laut Schätzungen ungefähr 100 Mrd. Dollar verwaltet.
Diese Deals bringen dem Wüstenstaat jedoch nicht nur Bewunderung
ein. So wurde sofort vermutet, dass
man die Fußball-WM nur durch Bestechung an Land ziehen konnte, was
von Qatars Regierung jedoch strikt
WISU
22
1/13
zurückgewiesen wird. Der Plan Qatars, 65 Mio. Dollar in runtergekommene und vor allem von Muslimen
bewohnte Pariser Vororte zu investieren, kam ebenfalls nicht so gut an.
Frankreichs Rechtsaußen-Politikerin
Marine Le Pen nannte das dann auch
prompt ein „Trojanisches Pferd“.
Woher das viele Geld kommt, ist klar:
Qatar verfügt über große Öl- und die
drittgrößten Erdgasvorkommen. Allein diese sind gewaltige zehn Billionen Dollar wert. Damit gehören
die Qataris zu den reichsten Leuten
der Welt, mit einem Pro-Kopf-BIP
von mehr als 98.000 Dollar — doppelt so viel wie in den USA. 2011 stieg
19. Jahrhunderts. 1995 entriss der als
modern und progressiv geltende Emir
seinem Vater die Regierung, dessen
rückwärtsgewandte Politik ihm gegen den Strich ging.
Seit damals geht es mit Qatar steil
bergauf. Vor allem verlässt man sich
— ähnlich wie in den benachbarten
Emiraten Dubai und Abu Dhabi —
nicht mehr nur auf die endlichen Bodenschätze, sondern begann, die
Wirtschaft zu diversifizieren. Derzeit
hängt sie zwar noch zu 60 Prozent
von den fossilen Brennstoffen ab,
doch man investiert zunehmend in
den gehobenen Tourismus, etwa
indem man möglichst viele SportEvents ins Land holt oder
spektakuläre Museen baut,
und in den Ausbau des Finanzzentrums, wobei das
nebenan liegende Bahrain
als Vorbild dient. Zudem bemüht man sich um „Upstream Industries“, eine petrochemische Anlage, eine
Düngemittelfabrik und ein
Stahlwerk gibt es bereits.
Außerdem setzt man auf alles, was unter den Begriff
„Knowledge Economy“ fällt,
und damit auch auf EntreQatars Emir al-Thani im Gaza-Streifen preneurtum. So wird etwa
„Education City“, ein Vordas BIP um 14 und 2010 sogar um ort der Hauptstadt Doha, ständig
fast 19 Prozent, was Weltrekord war ausgebaut. Schon heute findet man
und selbst Länder wie China und In- dort Dependancen von acht renomdien in den Schatten stellte.
mierten ausländischen Universitäten.
Ein weiteres Projekt ist der Science
Dass Qatar nicht unter dem berühm- & Technology Park, der an Educaten „Curse of Oil“ leidet, verdankt es tion City angeschlossen ist. Steuerseinem Emir Scheich Hamad bin befreite ausländische Unternehmen
Khalifa al-Thani. Der liberale und auch sollen hier forschen und Produkte
humorvolle Herrscher sorgt dafür, entwickeln.
dass das viele Geld gut angelegt wird
und vor allem seinen Landsleuten zu- Vieles hat man von Abu Dhabi und
gute kommt. Qatar hat mit die nied- Dubai abgeschaut, wobei das letzrigsten Steuern der Welt, eine Ein- tere Emirat, das während der Finanzkommensteuer kennt man nicht.
krise 2008/09 vom reichen Abu Dhabi mit einem 20 Mrd.-Dollar-Kredit
Die al-Thanis regieren die schmale unterstützt werden musste, eher als
Halbinsel, die unmittelbar an Saudi- armer Verwandter gilt. So wurde in
Arabien grenzt, schon seit Mitte des den letzten Jahren die riesige Luxus-
WISU-MAGAZIN
die politischen Ereignisse des Nahen
und Mittleren Osten einmischt, oft
auch vermittelnd.
„The Pearl“: Luxusbehausungen für reiche Ausländer
wohnanlage „The Pearl“ errichtet, die
nicht weniger gewaltig ist als ähnliche Projekte in Dubai. Auch hier
steckt die Idee dahinter, reichen Bewohnern aus Saudi-Arabien, Indien, Ägypten, Pakistan oder anderen
Ländern der Umgebung einen zweiten Wohnsitz zu bieten. Über Europäer, die sich hier niederlassen, freut
man sich natürlich auch.
er so viel Geld und außerdem
noch die reizvolle Aufgabe hat,
W
einen modernen Retortenstaat aus
dem Boden zu stampfen, sollte eigentlich zufrieden sein und genug
zu tun haben. Doch den umtriebigen
Emir scheint das nicht auszulasten.
Schon als er 1996 den TV-Sender
Al Jazeera gründete, den er bis heute
finanziert, zeigte sich, dass er gern
auf der internationalen Bühne mitspielt. Al Jazeera wurde so etwas wie
das arabische CNN oder die arabische BBC. Man berichtete frisch und
munter aus der ganzen Welt, insbesondere auch aus anderen muslimischen Ländern. Allerdings nicht immer
zum Wohlgefallen der dortigen Herrscher und Politiker. Wie al-Thani einmal erzählte, beschwerten sich diese
regelmäßig bei ihm über die oft kesse
Berichterstattung, was ihn jedoch
nicht daran hindere, sich den Sender
auch weiterhin „zu leisten“.
Ende 2012 gelang es Al Jazeera sogar, den US-Fernsehsender Current
TV, an dem der ehemalige amerikanische Vizepräsident Al Gore beteiligt ist, für 500 Mio. Dollar zu übernehmen. Damit kann Al Jazeera jetzt
auch von 40 Mio. amerikanischen
Haushalten empfangen werden. Hillary Clinton, Außenministerin während Barack Obamas erster Amtszeit, meint, dass Al Jazeera durch
seine couragierte Berichterstattung
viel zum Arabischen Frühling in Ländern wie Tunesien, Libyen und Ägyp-
ten beigetragen habe. Ob „Al Jazeera America“ ein Erfolg wird, muss sich
jedoch erst noch herausstellen, haftet dem Sender dort wegen seiner
Berichterstattung nach dem 11. September 2001, die nicht immer den
Vorstellungen des damaligen Präsidenten George W. Bush entsprachen,
doch noch der Ruf einer Osama-binLaden-TV-Station an. Zu Unrecht —
denn al-Thani hat Al Qaida nie unterstützt. Außerdem ist in Qatar USMilitär stationiert: Als das U.S.
Combat Air Operations Center 2003
Saudi-Arabien verlassen musste, zog
es auf Einladung von al-Thani nach
Qatar.
Spektakulär war die Entscheidung
Qatars, sich mit Kampfflugzeugen an
den Nato-Angriffen gegen die Gaddafi-Armee in Libyen zu beteiligen.
Derzeit unterstützt man die oppositionellen Kräfte gegen Syriens Präsidenten Bashar Assad, außerdem
veranstaltete man eine Konferenz in
Doha, um sie zu vereinen. Ihr war jedoch kein großer Erfolg beschert.
Ende Oktober 2012 sandte der Emir
von Qatar ein weithin beachtetes Signal und besuchte als erstes Staatsoberhaupt den Gaza-Streifen nach
der Machtübernahme durch die Hamas. Womit er die Regierung faktisch anerkannte. Außerdem brachte
er gleich 400 Mio. Dollar mit, um die
dortige Wirtschaft anzukurbeln.
Ob das alles nur die Auswirkungen
eine Napeon-Komplexes sind oder
ob der Emir eines winzigen Wüstenstaates tatsächlich nachhaltigen Einfluss auf die politischen Geschicke
dieser unruhigen Weltregion nehmen
kann, muss sich erst noch zeigen.
Mit Sicherheit hilft der märchenhafte
Reichtum, einiges in Gang zu setzen.
Allerdings verhält sich al-Thani keineswegs immer konsequent. So löste seine Unterstützung des Arabischen Frühlings viel Ärger im benachbarten Saudi-Arabien aus, das bis
Die Qataris sind wie die meisten Be- zuletzt Ägyptens und Tunesiens auwohner der westlitoritäre Regime unchen Seite des Perterstützte. Auf der
sischen Golfs Sunnianderen Seite sandEin autoritärer Staat,
ten. Seit jeher fühlt
te er gemeinsam mit
der den Arabischen
man sich hier vom
den Saudis Panzer
Frühling unterstützt
schiitischen Iran bein den Nachbarstaat
droht. Die AnwesenBahrain, um den dorheit amerikanischen Militärs, das vor tigen Aufstand zu unterdrücken.
allem die Aufgabe hat, die Meerenge
von Hormuz zu sichern, durch die das
m Übrigen ist al-Thani selbst ein
Öl der Golfstaaten transportiert wird,
autoritärer Herrscher, auch wenn
gibt eine gewisse Sicherheit. Denn es seinen Untertanen wirtschaftlich
gegen einen Angriff des Iran könnten viel besser geht als den Ägyptern unsich weder die Vereinigten Arabi- ter Mubarak und den Tunesiern unter
schen Emirate, noch Bahrain, Kuweit Ben Ali. Und wie die Saudis sind die
oder Qatar verteidigen. Schon seit Qataris Wahhabiten, allerdings in eilangem wird Teheran vorgeworfen, ner milderen Form: Eine Religionsdie schiitischen Minderheiten in den polizei gibt es in Qatar nicht. Al JaEmiraten und Saudi-Arabien zu un- zeera ist zwar offiziell von der Reterstützen und gegen die sunniti- gierung unabhängig, doch Kritik am
schen Regierungen anzustacheln.
eigenen Land gibt es selten. Mit der
Meinungsfreiheit scheint es also nicht
Qatar, eines der reichsten Länder der so weit her zu sein. So wurde im NoWelt, liegt also in einer politisch äu- vember ein Qatari zu lebenslangem
ßerst delikaten Ecke. Der erste und Gefängnis verurteilt, weil er in einem
zweite Irak-Krieg der Amerikaner fand Gedicht zum Arabischen Frühling den
auch nicht weit entfernt statt. Mit Si- Emir beleidigte. Dem würden Democherheit hat dies das politische Be- kratie und mehr Bürgerrechte gut zu
wusstsein des Emir geschärft. Und Gesicht stehen — und seine polities mag auch der Grund sein, wes- sche Glaubwürdigkeit erhöhen.
halb er sich seit Jahren verstärkt in
I
WISU
1/13
23
WISU-MAGAZIN
Jahrzehntelang ging es mit Amerikas Industrie nur bergab. Asien produzierte billiger, während sich die Deutschen auf profitable Nischen konzentrierten. Doch nun stehen marode Kolosse wie US Steel vor einem spektakulären Comeback — dank Fracking. Es beschert den USA billige Energie und damit einen entscheidenden
Wettbewerbsvorteil.
Fracking
USA: Das Imperium
schlägt zurück
och in den 70er Jahren schlug
Amerikas wirtschaftliches Herz
N
im Nordosten. Hier, südlich des Lake
Erie und des Lake Michigan, ist bis
heute die Schwer- und Autoindustrie
der USA zu Hause, haben Unternehmen wie US Steel und General Motors ihren Sitz. Doch mit dem Aufstieg Asiens, das viel billiger produzierte, begann der Niedergang. Aus
dem „Manufacturing Belt“ wurde
der „Rust Belt“. Städte wie Detroit,
Pittsburgh und Cleveland, deren Einwohnerzahl rapide sank, schienen
dem Untergang geweiht.
Wenn heute von erfolgreichen USKonzernen die Rede ist, fallen meist
die Namen von Apple, Google, Microsoft oder auch Goldman Sachs. Von der einstigen Industrieherrlichkeit der
USA sind nur einige wenige
Unternehmen wie der Mischkonzern General Electric übrig geblieben, der auch während der letzten Krise die Fahne hochhielt. Arbeiteten zur
Jahrtausendwende noch 17
Millionen Amerikaner in der
Industrie, sind es heute nur
noch zwölf Millionen. Ihr Anteil am BIP der USA schmolz
seit den fünfziger Jahren von
25 auf 11,5 Prozent.
Doch nun steht die — von manchen
bereits totgesagte — US-Industrie
möglicherweise vor einem spektakulären Comeback. Dinosaurier wie
US Steel und der Chemiekonzern
Dow Chemical schmieden neue Expansionspläne und werden von der
Börse gefeiert. General Motors, vor
drei Jahren noch pleite, kämpft mit
Toyota und Volkswagen wieder um
die Krone im Automobilbau. Und
Apple kündigt an, zahlreiche Produktionsjobs aus Asien in die USA zurückzuholen.
Weltweit stehen Investoren — auch
aus Deutschland — Schlange, um in
den USA neue Produktionsstätten zu
errichten oder bestehende Kapazitä-
WISU
24
1/13
ten auszubauen. Der Grund: billige
Energie. Der Preis für Erdgas, gemessen in MMBTU (Million British Thermal Units), ist seit Mitte 2008 von 13
auf 3,30 Dollar gefallen. Zwischenzeitlich lag er sogar bei zwei Dollar.
Auch Öl ist längst nicht mehr so teuer
wie vor der Finanz- und Wirtschaftskrise, als ein Barrel der US-Sorte WTI
über 140 Dollar kostete. Zuletzt lag
der Preis bei 93 Dollar.
Dabei schienen unablässig steigende
Energiekosten angesichts der weltweit knapper werdenden Ressourcen
noch vor kurzem ein unentrinnbares
Schicksal zu sein. In ihrer Verzweiflung über hohe Spritrechnungen ent-
Schiefer- und Sandgestein gepresst,
bis es aufplatzt und das Gas und Öl
entweichen kann. Die Methode wurde bereits kurz nach dem Zweiten
Weltkrieg entwickelt, doch erst die
Explosion der Energiepreise machte
sie rentabel.
Bereits heute bestehen 25 Prozent
des in den USA geförderten Erdgases
aus Schiefergas. Bis 2035 wird dieser Anteil laut Prognose der Internationalen Energie-Agentur (IEA) auf 50
Prozent steigen. Die USA, heute noch
abhängig von arabischem Öl, sollen
dann erstmals seit den fünfziger Jahren wieder genug Öl und Gas für den
Eigenbedarf produzieren.
Doch es kommt noch besser. Dank der durch Fracking
ausgelösten Bonanza könnten die USA zur neuen Energie-Supermacht aufsteigen.
Glaubt man der IEA, dann
werden sie 2015 Russland
als größten Gasproduzenten
und 2017 Saudi-Arabien als
größten Ölproduzenten ablösen und 2035 schließlich
der weltweit führende Ölund Gasexporteur sein. Die
Karten im globalen Energiepoker werden also ganz neu
Einstige Stahlmetropole Pittsburgh:
Durch Fracking zu neuem Leben erweckt gemischt.
deckten viele SUV-versessene Amerikaner ihr grünes Herz und sattelten
auf sparsamere Modelle um. Ausgerechnet der Texaner George W. Bush
wurde zum Biosprit-Lobbyisten, der
am liebsten die gesamte Landwirtschaft auf die Produktion von Bioethanol umgestellt hätte.
Heute gibt es in den USA Erdgas —
und möglicherweise bald auch Öl —
im Überfluss. Ermöglicht wird dies
durch eine neue Fördertechnik, bei
der die Amerikaner weltweit führend
sind: die Ausbeutung sogenannter unkonventioneller Gas- und Ölvorkommen durch Hydraulic Fracturing, kurz
Fracking. Dabei wird Wasser unter
hohem Druck in gas- und ölhaltiges
Kein Wunder, dass in den USA eine
regelrechte Fracking-Hysterie ausgebrochen ist. Energie-Experten wie
Ed Morse von der Citigroup glauben
fest an ein Revival der amerikanischen
Industrie, die mit dem billigen Erdgas
einen wichtigen Wettbewerbsvorteil
gegenüber der Konkurrenz aus Asien
und Europa besitzt. Bis zum Ende
des Jahrzehnts, so Morse, würden im
Industrie- und Energiesektor drei Mio.
neue Jobs entstehen. Fracking könne das BIP der USA um drei Prozent
steigern und dem klammen Staat Billionen Dollar an neuen Steuereinnahmen bescheren. Etwas weniger euphorisch ist eine Studie von PwC, die
von einer Mio. neuen Industriejobs
➜
bis zum Jahr 2025 ausgeht.
ANZEIGENSEITE
(bleibt aus technischen Gründen leer)
WISU
1/13
25
WISU-MAGAZIN
Während Fracking in
den USA eine Energierevolution ausgelöst
hat, wird in Europa
noch heftig über das
Für und Wider dieser
Bohrtechnik diskutiert. Ihre Befürworter
führen vor allem ökonomische Argumente
ins Feld.
Fracking in Europa
Die
große
Versuchung
as Nordseeöl hat Briten und
vor allem Norweger reich geD
macht. Doch nun neigen sich die
rhein-Westfalen und SchleswigHolstein keine Bohrungen mit der
umstrittenen Methode erlauben,
hat Niedersachsen bereits Lizenzen vergeben.
Dass Umweltschützer gegen Fracking auf die Barrikaden gehen,
liegt vor allem an den dabei eingesetzten Chemikalien, die nach ihrer Meinung ins Grundwasser gelangen könnten. Außerdem halten
es manche für möglich, dass Fracking Erdbeben verursacht. Nicht
zuletzt werde — wie bei jedem derartigen Eingriff in die Natur — das
Landschaftsbild erheblich beeinträchtigt.
Beim BGR hält man die Umweltrisiken dagegen für gering und beherrschbar. Fracking-Befürworter
weisen außerdem darauf hin, dass
das damit geförderte Erdgas erheblich umweltfreundlicher sei als
Kohle. Ökonomen warnen zudem
vor einem Verlust an Wettbewerbsfähigkeit. Bereits heute sei Gas in
den USA um 70 Prozent billiger als
in Europa, was der dortigen Industrie einen Wettbewerbsvorteil verschaffe. Auch beim Öl werde der
Spread immer größer. So kostete
ein Barrel der US-Sorte WTI zuletzt
93 Dollar, während die NordseeSorte Brent bei 111 Dollar lag.
Vorräte dem Ende zu. 2011 war die
Produktion nur noch halb so hoch
wie im Peak-Jahr 1996. Bereits in
zehn Jahren werde die Ölproduk- Die Versuchung, sich über Umwelttion in der Nordsee bedeutungslos bedenken hinwegzusetzen, ist dessein, prophezeien Experten. Das
trifft nicht nur Norwegen und Großbritannien, sondern auch Deutschland, das die Hälfte seines Öls aus
der Nordsee bezieht.
Da kommen Schiefergas und Fracking wie gerufen. Denn nicht nur
China, die USA und Argentinien, wo
die größten Schiefergas-Reserven
vermutet werden, verfügen über
große Mengen unkonventioneller
Energie. Auch in Europa soll es beachtliche Vorkommen geben, die
größten in Frankreich und Polen.
Deutschland besitzt nach Schätzung der Bundesanstalt für Geowissenschaften und Rohstoffe
(BGR) förderbare Gasreserven von
0,7 bis 2,3 Billionen Kubikmeter.
Das würde reichen, um den Bedarf
für maximal zwei Jahrzehnte zu
decken.
Doch viele Europäer wollen von
Fracking nichts wissen. Die französische Regierung hat bereits ein
Fracking-Verbot erlassen, ebenso
Bulgarien und Rumänien. Hierzulande wird noch heftig gestritten,
ob man Fracking verbieten soll.
Während die Bundesländer Nord-
WISU
26
1/13
Viele Europäer wollen
nichts davon wissen
halb groß. Im Dezember hob die
britische Regierung das bisher bestehende Fracking-Verbot auf. Und
das, obwohl Probebohrungen bei
Blackpool 2011 ein leichtes Erdbeben zur Folge hatten.
Polen träumt man sogar davon,
Iteurndurch
Fracking zum Gas-Exporaufzusteigen. Bis dato ist das
Land von russischen Lieferungen
abhängig, was die Polen verständlicherweise wurmt. Allerdings sind
Bohrungen dreimal so teuer wie in
den USA. Und Hilfe von der EU ist
auch nicht zu erwarten.
Einig sind sich die Experten darin,
dass energieintensive Branchen wie
die Stahl- und die Chemieindustrie am
meisten vom Boom profitieren. Der
Industrie-Dino US Steel zählt gleich
in dreifacher Hinsicht zu den Gewinnern. Zum einen stellt man das fürs
Fracking benötigte Bohrgestänge her.
Dann sinken wegen des niedrigen
Gaspreises die Produktionskosten.
Und zu guter Letzt ist man auch noch
direkt vor Ort, wenn es um die Ausbeutung der Vorkommen geht. Denn
das Marcellus Shale, die größte Schiefergas-Lagerstätte der USA, erstreckt
sich über weite Teile des Rust Belt.
Also ausgerechnet dort, wo die USSchwerindustrie ihren Sitz hat.
Noch ist das Lied von der neuen Industriemacht Amerika allerdings Zukunftsmusik. Zwar sind seit dem Ende
der letzten Rezession rund eine halbe
Mio. Industriejobs entstanden. Experten führen dies allerdings in erster
Linie auf die allgemeine wirtschaftliche Erholung zurück. Die Chemieriesen Dow Chemical und DuPont
wollen ungeachtet der stark gefallenen Energiepreise tausende Stellen
abbauen, auch der Standort USA ist
betroffen.
Lässt sich
die Globalisierung
rückgängig machen?
Viele Ökonomen bezweifeln ohnehin,
dass sich die heutige weltweite Arbeitsteilung und damit die Globalisierung so einfach rückgängig machen
lassen. Zudem könnten sich Schätzungen über die Schiefergasreserven der USA als zu optimistisch erweisen. Nach mehreren fehlgeschlagenen Probebohrungen mussten sie
bereits um 40 Prozent nach unten
korrigiert werden.
Und dann wäre da noch das Umweltproblem. Bis zu 80 verschiedene
Chemikalien werden beim Fracking
zusammen mit dem Bohrwasser ins
Erdreich gepumpt. Da die Gefahr besteht, dass sie ins Grundwasser gelangen und einige zudem krebserregend sind, sehen viele Experten Fracking äußerst kritisch. In Europa, wo
man sensibler auf Umweltthemen reagiert, ist es deshalb heftig umstritten
(s. nebenstehenden Kasten). Doch
auch in den USA nimmt der Widerstand zu. Mehrere Bundesstaaten
haben bereits strengere Gesetze erlassen. Im Bundesstaat New York
besteht sogar noch ein Fracking-Verbot. Die Industrie hofft, dass es dieses Jahr aufgehoben wird.
WISU-MAGAZIN
Die Weltmeere sind zur Müllhalde für Kunststoffe verkommen. Welche Gefahren damit für den Menschen verbunden sind, zeigt jetzt eine Ausstellung in Hamburg.
Zugemüllte Meere
Der Plastik-Wahnsinn
eder, der schon einmal am Meer
J
war und einen langen Strandspaziergang machte, kennt es: Entfernt
man sich vom Badestrand, kommt
man schnell in Küstenbereiche, die
nicht mehr gesäubert werden und
wo sich jede Menge Plastikmüll ansammelt und den Strand verunstaltet. Und das ist nur der sichtbare Teil
dessen, was an Kunststoff in den
Meeren treibt.
Eine Wanderausstellung des Museums für Gestaltung in Zürich, die
zurzeit in Hamburg Station macht,
erinnert eindrucksvoll daran, wie die
Meere in den letzten Jahrzehnten zur
Müllhalde gemacht wurden. In einer
Ausstellungshalle türmen sich
die Abfälle: Flaschen, ausgeblichene Flip-Flops, Autoreifen, ein Schlauchboot, Campingstühle und vieles mehr. Es
stammt von Stränden auf Hawaii, Fehmarn und Sylt.
Schockierend und wahr: Der
Müllberg entspricht etwa der
Menge Kunststoff, die alle zehn
bis 15 Sekunden in die Meere
dieser Welt gelangt — insgesamt 6,4 Mio. Tonnen pro Jahr.
Und das sind eher optimistische Schätzungen. Einige Experten gehen davon aus, dass
von den 250 Mio. Tonnen Plastik, die jedes Jahr produziert
werden, rund zehn Prozent in den
Ozeanen landen.
Vor allem in den Ländern, die über
keine richtige Müllentsorgung verfügen, wird Plastik meist achtlos
weggeworfen und gelangt über die
Flüsse in die Meere. Der kleinere Teil
der ozeanischen Müllhalden sind verlorengegangene Schiffsladungen und
über Bord geworfener Müll.
Auch die Industrieländer haben ihren Anteil an der Verschmutzung der
Meere. Obwohl es dort meist eine
weitgehende Entsorgung gibt und
der meiste Plastikmüll in Verbrennungsanlagen vernichtet wird —
was wegen der dabei entstehenden
giftigen Rückstände auch nicht unproblematisch ist —, gelangen doch
Kunststoffnanopartikel in die Meere. Sie lösen sich etwa beim Wa-
schen synthetischer Kleidung und
gelangen über das Abwasser, Klärwerke und Flüsse in die Ozeane.
Diese Kleinstteilchen sind ganz besonders gefährlich, da sie Gifte wie
DDT und polychlorierte Biphenyle
binden, die sich an ihrer Oberfläche
ablagern.
In den vergangenen Jahrzehnten haben sich enorme Mengen Plastik in
den Weltmeeren angesammelt, die
sich aufgrund der maritimen Strömungen sehr stark in einigen Regionen konzentrieren. Riesengroß ist inzwischen der North Pacific Gyre
(auch Great Pacific Garbage Patch
genannt), der nordpazifische Müll-
die UV-Strahlung wird Plastik relativ
schnell zersetzt und in immer kleinere Teile zermahlen.
An dieser Stelle kommt die maritime
Fauna ins Spiel. Denn die Meeresbewohner halten die Plastikabfälle
für Nahrung. So werden ständig verendete Albatrosse und andere Seevögel gefunden, deren Mägen mit
Kunststoffresten und sogar Einwegfeuerzeugen gefüllt sind. Sie müssen verhungern, weil der Müll in ihrem Verdauungstrakt keinen Platz für
Fische und andere Nahrung lässt.
Besonders gefährlich sind die kleinen Plastikpartikel. Sie werden von
Muscheln, tierischem Plankton und Fischen gefressen. Die
schädlichen Teilchen sammeln
sich im Verdauungstrakt der
Tiere an und wandern sogar in
die Körperzellen, wo sie deren
Erbgut schädigen. Über die
Nahrungskette gelangt der
Kunststoff in immer größere
Meeresbewohner — und damit auch in die Fische und
Meeresfrüchte, die auf den
Tellern des Menschen landen.
Dieses Gift in unserer Nahrung löst Krebs und andere
Krankheiten aus und schädigt
das Erbgut. Vielleicht ist es so
Kunststoff im Meer:
Der Mensch schneidet sich ins eigene Fleisch etwas wie kosmische Gerechtigkeit: Die vom Menschen prostrudel: Auf einer Fläche, die etwa duzierten und weggeworfenen Kunstdoppelt so groß ist wie die USA (!), stoffe schlagen am Ende voll auf ihn
zirkuliert hochkonzentrierter Plastik- zurück.
müll zwischen Nordamerika und Asien. Daneben gibt es vier weitere rieb sich dagegen etwas tun lässt?
sige Müllstrudel — im Nord- und im
Kaum. Die kleinen Partikel lasSüdatlantik, im Südpazifik und im In- sen sich nicht aus den Meeren fidischen Ozean — sowie einige klei- schen, eher noch der in Strudeln
nere, etwa bei Alaska und in der Ant- treibende Großmüll, was aber nicht
arktis. Wie Untersuchungen ergaben, versucht wird. Allerdings kann jeder
enthält heute praktisch jeder Liter dazu beitragen, dass der PlastikMeereswasser Plastikteile, gleich- wahn aufhört oder reduziert wird.
gültig, wo er entnommen wird.
Etwa indem man unverpackte Lebensmittel kauft, Plastiktüten meiMan darf sich die Müllstrudel aller- det, Glasflaschen benutzt und Prodings nicht als Plastikteppiche vor- dukte kauft, die so wenig wie möglich
stellen, die gut sichtbar auf der Mee- oder kein Plastik enthalten. Ein düsresoberfläche treiben. Sie bestehen teres Thema sind auch die in Plastik
zum größten Teil aus Plastikbruch- befindlichen Weichmacher. Sie hastücken, also kleinen und kleinsten ben hormonelle Wirkungen, was
Kunststoffpartikeln, die sich einige unter anderem zu Fettleibigkeit und
Meter unter der Oberfläche befin- Unfruchtbarkeit bei Männern führen
den. Durch Wellen, Salzwasser und kann.
O
WISU
1/13
27
WISU-MAGAZIN
Big Data ist zum Megatrend geworden: Unternehmen sammeln mithilfe sozialer Netzwerke und anderswo riesige Datenmengen, um möglichst viel über ihre Kunden zu erfahren. Das ist nicht nur unter Datenschutzaspekten bedenklich — es kann auch schnell zu Fehlinterpretationen der Kundendaten kommen. Auch die Prognose
von Aktienkursen mithilfe von Big Data ist fragwürdig.
Das große Datensammeln
Big Profit
mit Big Data?
ie zuvor in der Geschichte der
Menschheit wurden so viele DaN
ten produziert wie heute. Schuld sind
das Internet und vor allem die sozialen Medien. Das Magazin „t3n“ hat
vor einiger Zeit ermittelt, welche Datenberge in jeder Minute des Tages
entstehen. Bei YouTube wurden 48
Stunden Video hochgeladen, Google
erhielt über zwei Mio. Suchanfragen,
es wurden über 100.000 Tweets und
fast 700.000 Facebook-Posts veröffentlicht, über 200 Mio. E-Mails versandt und 570 neue Websites eingerichtet. Bei Apple wurden fast 50.000
Apps heruntergeladen, FacebookNutzer klickten bei knapp 35.000 Organisationen und Marken auf den
Like-Button, Tumblr-Blogger
veröffentlichten rund 28.000
Posts, und bei Flickr wurden
über 3.000 neue Fotos hinzugefügt. Die Online-Datenproduktion der Menschheit
addierte sich 2011 auf geschätzte 1,8 Zettabyte — eine 18 mit 20 Nullen.
Und das sind — wohlgemerkt
— nur die Daten, die im Internet entstehen. Dazu kommen riesige Mengen Lagerhaltungs-, Umsatz-, Produktions-, Buchhaltungs- und
Kostenzahlen. Man denke
nur an die Daten, die bei jedem Einkauf an den Kassen des Einzelhandels anfallen. Nicht zu reden
von den zahllosen weiteren Informationen, die Tag für Tag von Unternehmen, Organisationen, Behörden
wie etwa Geheimdiensten — so hört
der US-Geheimdienst NSA seit langem den gesammten Funk-, Telefonund Internet-Verkehr weltweit ab —
gesammelt werden.
Willkommen in der Welt von Big Data. „Gigant Data“ wäre eigentlich angebrachter. Anders als die strukturierten Daten in Datenbanken — etwa
eine Liste aller Kunden eines Unternehmens, ihrer Adressen und letzten
Bestellungen — ist Big Data das unablässige Hintergrundrauschen der
WISU
28
1/13
Informationsgesellschaft, die unentwegt unstrukturierte Daten hervorbringt, die — für sich genommen —
noch relativ wenig Aussagekraft haben. Erst Analyse-Tools bringen Sinn
in den Wust von Nullen und Einsen.
Sinn und Zweck von Big Data ist also
nicht das Sammeln großer Datenmengen, sondern sie zu verstehen.
Deshalb wird in diesem Zusammenhang auch häufig von „Data Mining“
gesprochen, also der Suche nach
wertvollen Informationen in riesigen
Datenbergen.
Die Unternehmen erhoffen sich beispielsweise, ihre Kunden besser zu
verstehen. Durch die Analyse der Da-
tenmengen wollen sie Trends aufspüren, bessere Produkte und Dienstleistungen entwickeln und letzten Endes mehr Umsatz machen. Auch die
Kunden profitieren. Etwa wenn Shopping-Portale das Internet nach günstigen Angeboten durchforsten und
so für mehr Preis- und Produkttransparenz sorgen — auch das ist Big
Data. Doch es muss nicht immer nur
um Kommerz und Konsum gehen:
Von Big Data wird auch gesprochen,
wenn globale Wetterdaten analysiert
werden, um daraus Rückschlüsse auf
die Entwicklung des Klimas zu ziehen.
Dass Big Data zum Megatrend geworden ist, hat vor allem eine Ursa-
che: Die Hardware-Preise fallen und
fallen, die Computer werden zudem
immer leistungsfähiger, Speicherplatz kostet kaum noch etwas, und
man kann ihn bei Anbietern wie Amazon, IBM, HP oder Google auch mieten, statt ihn zu kaufen — Stichwort
„Cloud Computing“, auch das ist ein
IT-Megatrend.
Die Idee, möglichst viele Daten über
Kunden zu sammeln und auszuwerten, ist nicht neu. Neu ist, dass sich
Big Data kosteneffizient realisieren
lässt. So wollte die US-Autoversicherung Progressive Insurance bereits Ende der achtziger Jahre das
Fahrverhalten jedes Kunden detailliert erfassen, um die Versicherungsprämien individuell
zu ermitteln. Doch erst 2010
ließ sich das verwirklichen.
Seither haben eine Million
Kunden einen kleinen Computer im Auto, der etwa aufzeichnet, wie abrupt der
Fahrer bremst und wie stark
er Gas gibt.
Wie so oft gibt es auch bei
Big Data einen regelrechten
Hype. Unternehmen investieren in die nötige Hardund Software und versprechen sich aufgrund der Datenanalysen deutliche Umsatzsteigerungen. Da viele von ihnen
aber ohne klares Ziel an das Thema
herangehen, ist die Enttäuschung oft
groß, da sich aus den Datenmengen
doch nicht so viel herauslesen lässt
wie erhofft. Oft können nur der Einzelhandel und die Finanzbranche, die
schon früh mit Big Data hantierten,
nützliche Erkenntnisse aus der Datenflut gewinnen.
Ein Big-Data-Pionier ist Wal-Mart. Bereits vor 20 Jahren fand die amerikanische Einzelhandelskette heraus,
dass Freitagabend oft Windeln und
Bier zusammen gekauft werden. Man
erklärte sich das damit, dass junge
Väter auf dem Rückweg von der Arbeit oft den Windelvorrat fürs Wo-
WISU-MAGAZIN
chenende kauften und sich dabei
gleich ein paar Dosen Bier in den Einkaufswagen legen — auch um sich
selbst zu belohnen. Als Wal-Mart daraufhin begann, Windeln und Bier im
Regal nebeneinander zu platzieren,
soll der Umsatz beider Produkte stark
gestiegen sein. Diese Anekdote aus
der Frühzeit des Data Mining ist mittlerweile so häufig kolportiert worden,
dass sich ihr Wahrheitsgehalt nicht
mehr ermitteln lässt.
uch das eine oder andere neuere
Big-Data-Konzept erscheint etA
was zweifelhaft. So prüft das kalifor-
zeitdaten eingesetzt. Wealthfront etwa optimiert die Wertpapierportfolios
seiner Kunden anhand von aktuellen
Kurs- und anderen Finanzdaten. Das
US-Unternehmen hat eine Software
entwickelt, die für die Kunden automatisch Wertpapiere kauft oder verkauft, wenn sich aufgrund aktueller
Entwicklungen an den Finanzmärkten Steuervorteile ergeben. Durch
dieses „Tax Loss Harvesting“ in
Echtzeit erhöht sich die Rendite der
Kunden-Portfolios laut Angaben von
Wealthfront um durchschnittlich einen Prozentpunkt.
nische Start-up LendUp die Bonität Was Generationen von Chartanalysvon Kreditnehmern anhand der Da- ten nicht gelungen ist, wollen nun Fiten, die diese bei Facebook und in nanzexperten von der Carnegie Melanderen sozialen Medien produzie- lon University mithilfe von Big Data
ren. Die Idee: Menschen, die Kon- Realität werden lassen: die Vorhertakte zu ihren Facebook-Freunden sage von Aktienkursen. Während
pflegen und soziale Netzwerke rege sich die Anhänger der Chartanalyse,
nutzen, sind verantwortungsbewuss- auch technische Analyse genannt,
ter und zahlen ihren Kredit mit hö- bislang oft vergeblich abmühen, aus
herer Wahrscheinlichkeit zurück als Kursmustern wie „umgekehrte UnMenschen, die kaum Freunde bei Fa- tertasse“, „Schulter-Kopf-Schultercebook haben. Obwohl dies mehr als Top“ oder „Dreifachtief“ auf steigenfraglich ist und ein solches Verhalten de oder sinkende Kurse zu schließen,
auch völlig anders interpretiert wer- ziehen Big-Data-Prognostiker Daten
den kann — etwa dass es sich dabei aus unterschiedlichsten Quellen hereinfach um geschwätzige Menschen an. So wird etwa aus den Kommenmit großem Selbsttaren in Blogs zu eidarstellungsbedürfnem neuen Applenis handelt, deren fiProdukt auf den künfBig Data
nanzielle Verhältnistigen Aktienkurs der
und
se ähnlich instabil
Firma geschlossen.
Big Brother
sein dürften wie ihre
Psyche, was nicht
Wenn Unternehmen
gerade auf hohe Kreditwürdigkeit sich auf Big Data stürzen, erinnert
schließen lässt —, werden die Lend- das viele unweigerlich an Big Brother
Up-Analysen unter anderem von der — die Durchleuchtung des Menamerikanischen Citibank bei der schen bis auf die Unterhose. Denn
Prüfung von Kreditanträgen einge- um beispielsweise an Daten aus
setzt. Allerdings müssen die Kunden sozialen Netzwerken zu gelangen,
zuvor ihr Einverständnis erklären, muss die Big-Data-Software tief in
dass Lend-Up ihre Facebook-Daten die Privatsphäre der Nutzer eindrinanalysieren darf.
gen. Das Perfide daran: Meist bekommt man es gar nicht mit, wenn
Big Data wird von der Finanzindustrie Unternehmen die digitale Spur, die
auch anderswo genutzt. So analy- jeder Nutzer im Internet hinterlässt,
siert das US-Unternehmen Climate verfolgen, um mithilfe der dabei geCorporation Unmengen von Wetter- sammelten Daten ihre Produkte zu
daten, um die Preise für Ernteaus- vermarkten.
fallversicherungen zu ermitteln, die
von vielen Landwirten abgeschloso ist Big Data nicht losgelöst
sen werden. Um mit den vorhandevom Datenschutz und der Frage,
nen Daten Wettersimulationen durch- wem welche Daten gehören und wer
zuführen und Vorhersagen zu Ex- sie nutzen darf. Hier ist vieles noch
tremwetterlagen zu treffen, benötigt ungeklärt. Was Firmen wie Google
die Firma Hochleistungsrechner, die und andere oft nicht daran hindert,
noch vor wenigen Jahren für kleinere extreme Positionen einzunehmen, bis
Unternehmen unerschwinglich wa- sie von den Gerichten zurückgepfifren. So können heute viele Firmen fen werden. Bei Big Data wird desmit wenig Kapital von Big Data pro- halb nicht selten vermintes Gelände
fitieren, indem sie sich die nötige Re- betreten. Nicht nur, dass der Nutzen
chenpower für wenig Geld von den der Datenanalyse oft unklar ist. DaCloud-Anbietern mieten.
tenskandale können sich auch rasch
gegen ein Unternehmen richten und
Big Data wird von der Finanzindustrie sein Image massiv schädigen.
auch bei der Auswertung von Echt-
S
Netzbetreiber
vs. Google
s ist ein alter Interessenkonflikt, der sich in den letzten
E
Jahren zusehends verschärft hat.
Auf der einen Seite stehen die
Content-Provider, die den Nutzern immer mehr datenintensive
Angebote machen — etwa gestreamte Filme oder Musik —, auf
der anderen die Netzbetreiber
und Zugangs-Provider, deren Infrastruktur durch die riesigen Datenpakete verstopft wird und die
deswegen ihre Kapazitäten ausbauen müssen, ohne dass sich
jedoch die Content-Provider an
den Investitionen beteiligen. Die
Zugangs-Provider unternehmen
immer wieder Anläufe, die Kosten gerechter zu verteilen — zuletzt im Dezember bei der Konferenz der Internationalen Fernmeldeunion (ITU) in Dubai —, doch
bislang erfolglos.
Der Konflikt drohte zu eskalieren,
als der französische Zugangs-Provider Free Anfang des Jahres die
Muskeln spielen ließ — und sich
als Gegner ausgerechnet den Internet-Riesen Google herauspickte: Das Unternehmen kündigte an,
bei seinen 5,2 Mio. Kunden automatisch die Google-Werbung auszufiltern. Eine Provokation für den
Suchkonzern, dessen wichtigste
Einnahmequelle die neben den
Suchergebnissen oder auf Partner-Websites eingeblendete Werbung ist, der aber durch seine beliebte Tochter YouTube in erheblichem Maße für den explodierenden Datenverkehr im Netz mitverantwortlich ist.
achdem sich die französische
N
Ministerin für digitale Wirtschaft, Fleur Pellerin, eingeschaltet hatte, gab Free die Pläne allerdings schnell wieder auf. Offenbar
war der Respekt vor Google, dessen Angebote zu den meistgenutzten im Internet gehören, zu
groß.
WISU
1/13
29
WISU-MAGAZIN
Apple 2.0, das ist Apple ohne Steve Jobs. Als das Marketing-Genie im Oktober 2011 starb, glaubten viele, die
Computerfirma werde seinen Abgang nicht verkraften. Doch der neue CEO Tim Cook beweist: Es geht auch
ohne ihn. Cook schreibt die Erfolgsgeschichte fort und hat Apple außerhalb der Fangemeinde ein besseres
Image verschafft. Der Ritterschlag steht allerdings noch aus.
Der Neue
Apple 2.0:
Es geht auch ohne Jobs
anchmal müssen auch erfolgreiche Konzernchefs kleinere
M
Brötchen backen. Tim Cook, seines
Zeichens CEO von Apple, erhielt im
vergangenen Jahr 4,2 Mio. Dollar,
davon 2,8 Mio. Dollar Prämien. Das
ist zwar immer noch ein stattliches
Gehalt. Doch verglichen mit den 378
Mio. Dollar des Vorjahres könnte man
fast von Peanuts sprechen. Außerdem werden andere Apple-Manager
deutlich besser bezahlt. CFO Peter
Oppenheimer etwa bekam 68,6 Mio.
Dollar.
Der Mann sollte also dringend über
einen Jobwechsel nachdenken, er ist
eindeutig unterbezahlt. Schließlich
scheffelt Apple unter ihm so
viel Geld wie kaum ein anderes Unternehmen. Zuletzt
waren es über acht Mrd.
Dollar, die man mit dem Verkauf von Smartphones und
Tablets verdiente — in einem Quartal. Im gesamten
Geschäftsjahr 2011/12 kam
die Apfel-Firma auf 41 Mrd.
Dollar Profit.
Da wird selbst Microsoft neidisch, das zu seinen besten
Zeiten ebenfalls in Dollars
schwamm. Von anderen Unternehmen ganz zu schweigen. Nur Energieriesen wie
ExxonMobil, Gazprom oder Royal
Dutch Shell können einigermaßen mithalten.
Allerdings verdankt Apple seinen Erfolg nicht einer monopolartigen Stellung, wie sie zum Teil in der Software- oder Energiebranche üblich
ist — das Betriebssystem Windows
war jahrelang der beste Beweis, warum Monopole schädlich für die Wirtschaft sind —, sondern überzeugenden Produkten, die Millionen Fans in
aller Welt begeistern. 27 Mio. verkaufte iPhones, 14 Mio. verkaufte
iPads und fünf Mio. verkaufte MacComputer in einem Quartal sprechen für sich. Dass sich manche
Apple-Jünger jedes Mal die Nacht
WISU
30
1/13
um die Ohren schlagen, wenn der
Stapellauf eines iProduktes bevorsteht, mögen viele für verdammenswerten Marken- und Konsumfetischismus halten. Doch zu einer freiheitlichen Marktgesellschaft gehört
eben auch die Freiheit, sich zum
Narren zu machen. Niemand, der ein
Smartphone benötigt, wird gezwungen, sich ausgerechnet ein iPhone
zu kaufen. Es gibt genügend Konkurrenzangebote.
Der Vorwurf, hier treibe ein Unternehmen Corporate Branding auf die Spitze und erziehe seine Kunden zu Konsumsklaven, zieht deshalb nicht. Zumal diejenigen, die nachts vor Apple
für eine elitäre Minderheit herstellt,
die sich dann im Glanz der schicken
und teuren Geräte sonnt. iPhone und
iPad sind Massenartikel und Apple
ist ein ausgewachsener Konzern mit
mehr als 70.000 Mitarbeitern, dessen
Produkte — nicht anders als die seiner Konkurrenten — in China gefertigt werden, von schlechtbezahlten
Lohnarbeitern, die 60 Stunden und
mehr pro Woche schuften, und das
unter fragwürdigen Sicherheits- und
Gesundheitsbedingungen.
Fast hat man den Eindruck, der Hype
habe nach dem Tode Steve Jobs noch
zugenommen. Dabei waren nicht nur
eingefleischte Apple-Fans, sondern
auch zahlreiche Analysten
überzeugt, mit dem Ableben des charismatischen
Steuermanns, der im Oktober 2011 an Bauchspeicheldrüsenkrebs starb, sei
auch Apple dem Untergang
geweiht. Zumindest werde
das Unternehmen jetzt langsam, aber leider unaufhaltsam, den Bach runtergehen.
Doch offenbar ist Jobs Geist
noch immer in der Firma lebendig. Oder wem das zu
transzendental klingt: Seine
Apple-Chef Tim Cook:
Nicht fragen, was Steve getan hätte Persönlichkeit hat Apple so
geprägt, dass das UnterStores campieren, um dann zu den nehmen bis heute daraus Kapital
Ersten zu gehören, die das neueste schlägt. Nicht auszuschließen, dass
iPhone oder den neuesten iPad in den ihn sein früher Tod — Jobs wurde
Händen halten, in der Regel keine nur 56 Jahre alt — und so mancher
von der Werbung verführten Jugend- verklärende Nachruf zum Mythos
lichen sind, sondern gestandene Er- gemacht haben, der auch in Jahrwachsene, die genau wissen (sollten), zehnten die Fans in seinen Bann
warum sie gerade dieses Produkt zieht. Ganz so, wie man es von jung
wollen und kein anderes.
gestorbenen Film- und Pop-Ikonen
kennt. Schließlich war auch der AppDennoch verdient der Hype, der welt- le-Gründer eine Art Popstar, dessen
weit um Apple gemacht wird und den Produktinszenierungen im schwardie Medien mit ihrer umfangreichen zen Rolli und mit Drei-Tage-Bart an
Berichterstattung über jedes neue Rockkonzerte erinnerten.
Apple-Produkt kräftig anheizen, eine
nähere Betrachtung. Schließlich ist Der Mythos Jobs als Kaufargument
die kalifornische Computerschmiede für ein iPhone? Tim Cook würde so
längst dem Stadium einer kleinen etwas sicher nicht unterschreiben.
Kultfirma entwachsen, die Produkte Der neue Apple-Chef ist ein viel nüch-
ANZEIGENSEITE
(bleibt aus technischen Gründen leer)
WISU
1/13
31
WISU-MAGAZIN
Rivale Samsung
lässt nicht locker
as Airbus und Boeing für den
Flugzeugbau sind, sind Apple
W
und Samsung bei mobilen Computern: zwei Firmen, die sich ein
spannendes Duell um die Marktführerschaft liefern. Während die
Amerikaner bei den Tablets vorn
liegen, ist Samsung bei den Smartphones spitze. Der Elektronikkonzern kommt hier auf einen Marktanteil von 28 Prozent. Auf dem gesamten Handy-Markt ist man mit
29 Prozent führend.
Was Apple zu denken geben muss,
ist vor allem die aggressive Dynamik der Koreaner. Im Schlussquartal 2012 steigerte Samsung seinen
Gewinn um 89 Prozent auf 8,3 Mrd.
Dollar und stößt damit in Dimensionen vor, die bislang der kalifornischen Computerschmiede vorbehalten waren. Es war bereits das
fünfte Rekordergebnis in Folge.
Doch nicht nur die Apfel-Männer
Samsung-Zentrale
aus Cupertino müssen sich warm
anziehen. Samsung will auch zum
größten Hersteller von Haushaltsgeräten und Medizintechnik aufsteigen. Offenbar ist den Konzernstrategen das wechselhafte Geschäft mit Handys und TV-Geräten,
wo man ebenfalls Marktführer ist,
auf Dauer zu unsicher. Der abgestürzte Handy-Riese Nokia mahnt
zur Vorsicht.
ass Apple und Samsung nicht
D
nur Rivalen sind, sondern auch
kooperieren — Samsung beliefert
Apple unter anderem mit Prozessoren und Displays —, verleiht dem
Ganzen zusätzlich Brisanz. Immer
wieder machen Gerüchte über ein
Ende dieser Zusammenarbeit die
Runde, die dann dementiert werden. Angesichts der endlosen Patentstreitigkeiten zwischen beiden
Konzernen wäre es jedoch keine
Überraschung, wenn es tatsächlich zum Bruch kommt.
WISU
32
1/13
ternerer und zurückhaltenderer Typ
als der extrovertierte Jobs. Medienwirksame Auftritte sind für ihn eher
lästige Pflichterfüllung als Herzensangelegenheit. Schon die Lebensläufe der beiden Männer unterscheiden sich deutlich. Anders als der
Studienabbrecher Jobs hat Cook brav
zu Ende studiert und besitzt einen
MBA der Duke University. Danach
machte er als leitender Angestellter
in der Computerindustrie Karriere.
Eine eigene Firma besaß Cook nie.
m Jahr 1998 wurde er von Jobs, der
sein überragendes OrganisationsItalent
erkannte, zu Apple geholt.
Fortan sorgte er als Mann im Hintergrund dafür, dass die Visionen des
Apple-Masterminds Realität wurden.
Als es mit dem Unternehmen nach
der Jahrtausendwende steil nach
oben ging, bezeichnete das US-Wirtschaftsmagazin „Fortune“ Cook, der
mittlerweile zum Chief Operating
Officer (COO) aufgestiegen war, als
„Genie hinter Steve“.
Apple gegen das Image eines herzlosen Unternehmens an, das ihm seit
den Tagen von Steve Jobs anhaftet.
Über dessen dürftiges soziales und
politisches Engagement kursierte im
Silicon Valley der Witz, das einzige
Mal, dass sich Jobs zu einem Charity-Projekt habe hinreißen lassen,
sei gewesen, als er Bill Clinton zum
Abendessen einlud.
Unter Cook zahlte Apple seinen Aktionären erstmals seit 1995 wieder
eine Dividende, was Jobs nicht für
nötig befunden hatte — der Aktienkurs ging auch so durch die Decke.
Außerdem kehrte man zum amerikanischen Umweltsiegel EPEAT zurück, nachdem sich Apple-Kunden
beschwert hatten.
Apple-Kenner beschreiben Cook als
umgänglicher als den etwas abgehobenen und unnahbar wirkenden
Jobs. In einem sind sich die zwei
Männer allerdings sehr ähnlich: Beide sind Workaholics und Perfektionisten, die nichts dem Zufall überSpätestens 2004, als sich Jobs we- lassen und ihre Mitarbeiter zu harter
gen seiner Krebserkrankung erstmals Arbeit antreiben. Cook wird nachgeaus der Firma zurückzog, musste der sagt, bereits um halb fünf in der Früh
Mann im Hintergrund zeigen, dass die ersten E-Mails mit Anweisungen
er auch Chef „kann“. Und er konnte. zu verschicken. Der 52-Jährige ist auJetzt, da er dauerßerdem ein Fitnesshaft im Sattel sitzt
Freak. Mit Jobs teilt
und Apple der Erfolg
er die Vorliebe für eine
Mehr
dennoch treu bleibt,
asketische LebensTransparenz
dämmert vielen, dass
weise.
und mehr Charity
es wohl doch nicht
nur an Jobs lag, dass
Als Lebensmotto ziApple von einer pleitebedrohten Fir- tiert Cook einen Satz John F. Kennema zum wertvollsten Unternehmen dys: „Wem viel gegeben wurde, von
der Welt aufstieg.
dem wird auch viel erwartet.“ Dass
er sich alle erdenkliche Mühe gibt,
Fragt man Cook, was ihm sein Vor- diese Erwartungen zu erfüllen, zeigen
gänger und Lehrmeister Steve Jobs die zahlreichen Produkte, die Apple
mit auf den Weg gegeben hat, lautet seit seiner Ernennung zum Appledie Antwort: „Frage dich als CEO nie, Chef herausgebracht hat, darunter
was ich an deiner Stelle getan hätte, das iPad mini, das iPhone 5 und viele
sondern tu, was du für richtig hältst.“ verbesserte Versionen anderer GeTatsächlich hat Cook als Apple-Chef räte, mit denen Apple sonst noch auf
bereits eigene Akzente gesetzt. So dem Markt ist.
ließ er eine Liste mit den Zulieferern
der iPhone-Firma veröffentlichen und
ine echte Innovation wie seinersorgte damit für mehr Transparenz
zeit das iPad ist allerdings nicht
— etwas, das der geheimniskräme- darunter, weshalb der eine oder anrische Jobs stets vermieden hatte. dere Analyst bereits nervös wird, zuAußerdem kündigte er Maßnahmen mal Apples härtester Konkurrent Samgegen die schlechten Arbeitsbedin- sung beständig Boden gut macht. (s.
gungen in manchen Zulieferbetrieben nebenstehende Spalte). Die Zahlen
an, womit er Kritikern den Wind aus der letzten zwei Quartale — obwohl
den Segeln nahm.
so gut wie noch nie — wurden von
der Börse mit Enttäuschung aufgeDass der gelernte Ingenieur Cook in- nommen. Was zeigt, welch enormer
zwischen auch viel von Marketing Druck auf Cook lastet. Um als CEO
versteht, zeigt Apples neues Spen- restlos zu überzeugen, muss er ein
denprogramm: Jede Wohltätigkeits- „eigenes“ Produkt zum Erfolg führen.
spende eines Mitarbeiters wird vom Vielleicht wird es ja der — von der
Unternehmen um dieselbe Summe Fangemeinde sehnsüchtig erwartete
aufgestockt, bis zu einem Betrag von — Apple-Fernseher.
10.000 Dollar im Jahr. Damit kämpft
E
ANZEIGENSEITE
(bleibt aus technischen Gründen leer)
WISU
1/13
33
WISU-MAGAZIN
Neuer Besen
China:
Xi sagt Korruption
den Kampf an
aktuellen Corruption Perceptions Index (CPI) von
ImitmTransparency
International belegt China gemeinsam
Serbien sowie Trinidad und Tobago den 80. Platz.
Für die zweitgrößte Volkswirtschaft und führende Exportnation wahrlich kein Ruhmesblatt, zumal man gegenüber dem letzten Ranking auch noch fünf Plätze abgerutscht ist. Da ist es nur ein schwacher Trost, dass
auch den anderen BRIC-Staaten kein gutes Zeugnis
ausgestellt wird: Brasilien und Indien liegen in der Korruptions-Tabelle auf den Rängen 69 und 94. Russland
ist gar nur 133. von 176 Staaten.
Doch nicht nur ausländische Geschäftsleute und Analysten — auf ihren Erfahrungen beruht das Ranking der
Berliner Organisation — nehmen China als besonders
korrupt wahr. Auch die Chinesen sehen das so: Laut einer Umfrage sind 46 Prozent der Meinung, die Korruption sei in den letzten drei Jahren gestiegen, 25 Prozent
sind vom Gegenteil überzeugt. Kein Wunder: Ständig
müssen sie mitansehen, wie sich Amtsträger und Funktionäre der Kommunistischen Partei illegal bereichern,
sei es bei der Vergabe von Bauaufträgen oder indem
Angehörigen einflussreiche Posten zugeschanzt werden. Immer wieder kommt es deshalb zu lokalen Protesten und Aufständen.
Aufsehen erregte vor allem der Fall Bo Xilai, bis zu seiner
Entmachtung im Frühjahr 2012 selbstherrlicher Bürgermeister von Chongqing. Seine Frau wurde wegen Mordes
an einem britischen Geschäftsmann zu lebenslanger Haft
verurteilt. „Die Korruption verbreitet sich in China wie
Würmer in einem Kadaver“, stellt denn auch der neue
Parteichef Xi Jinping fest, der Hu Jintao im März als
Staatspräsident ablöst.
Ganz nach dem Motto
„Neue Besen kehren gut“
hat Xi dem Filz in der
öffentlichen Verwaltung
bereits den Kampf angesagt. Seit Wochen berichten die Medien von
abgesetzten Beamten,
die bis dato ein Leben in
Saus und Braus führten.
China-Kenner bezweifeln
allerdings, dass es dem
selbsternannten Saubermann Xi tatsächlich ernst
Xi Jinping
ist. Vielmehr seien solche Korruptions-Kampagnen ein bewährtes Mittel, um
eine neue Führungsgeneration mit Posten zu versorgen.
Zudem ist auch Xis Weste möglicherweise nicht ganz
rein: Laut „New York Times“ soll seine Schwester Firmenbeteiligungen und Immobilien im Wert von mehreren
hundert Mio. Dollar besitzen.
WISU
34
1/13
Klimawandel
CO2-Recycling:
Neue Hoffnung für
den Klimaschutz
K
ohlendioxid gilt als Klimakiller Nummer eins. Doch
trotz aller internationalen Konferenzen und Weltklimagipfel — der letzte fand im Dezember in Doha statt —
steigen die Emissionen immer weiter an. Im vergangenen Jahr wurden nach Berechnung des Global Carbon
Project 35,6 Mrd. Tonnen des Treibhausgases ausgestoßen, so viel wie noch nie.
Seit 1990 sind die Emissionen damit um 58 Prozent gestiegen.
Das Zwei-Grad-Ziel der
UNO ist deshalb kaum
noch realistisch. Forscher
gehen mittlerweile davon
aus, dass sich die Erde
bis zum Ende des Jahrhunderts um drei, vier
oder sogar fünf Grad erwärmt. Die Folgen dieses Temperaturanstiegs
sind bekannt: Die PolGutes aus Kohlendioxid
kappen schmelzen, der
Meeresspiegel steigt, weltweit nehmen Dürren, Unwetter und Naturkatastrophen zu.
Während sich die Politik als unfähig erweist, dem Klimawandel Einhalt zu gebieten, machen Wissenschaftler jetzt
Hoffnung: Weltweit arbeiten sie an neuen Verfahren, wie
sich Kohlendioxid, statt es in die Atmosphäre zu pusten
oder mithilfe aufwendiger Verfahren im Erd- oder Meeresboden zu lagern (CO2-Sequestrierung), wieder nutzen
lässt — als Ausgangsmaterial für Chemikalien, Kunstund Kraftstoffe. Schließlich ist der darin enthaltene Kohlenstoff einer der wichtigsten Rohstoffe der chemischen
Industrie. Er steckt in Plastik, Farben und Lacken, in Medikamenten und Lebensmitteln und dient als Kältemittel
bei Kühlschränken und Klimaanlagen.
So will Bayer ab 2015 in großem Stil Schaumstoffe produzieren, die aus „recyceltem“ CO2 bestehen und beispielsweise zu Matratzen weiterverarbeitet werden können. Andere Unternehmen arbeiten daran, Kohlendioxid
mithilfe spezieller Mikroorganismen in das vielseitig verwendbare Ethanol zu verwandeln, oder in Polypropylencarbonat, einen biologisch abbaubaren Kunststoff.
Der Vorteil all dieser Verfahren: Sie verringern nicht nur
die CO2-Emissionen, sondern auch den Erdölverbrauch.
Denn etwa zehn Prozent des weltweit geförderten Öls
werden von der Chemieindustrie verbraucht. Als Wunderwaffe im Kampf gegen den Klimawandel taugen sie
allerdings nicht. Denn selbst wenn alle Chemieunternehmen in der EU ihren Kohlenstoff-Bedarf durch Kohlendioxid decken würden, würde dies die CO2-Emissionen nur um 5,5 Prozent reduzieren.
WISU-MAGAZIN
Rohstoffboom
EU-Ratsvorsitz
Australien:
Mehr Bergbau,
weniger Touristen
B
Irland:
Zwischen Tradition
und Moderne
E
rände wie die im Januar und Dürren gehören seit
längerem zu den Heimsuchungen, denen sich die
Australier ausgesetzt sehen. Doch es gibt auch landschaftliche Schönheiten wie Ayers Rock, den bekannten Felsen, die jedes Jahr sechs Millionen Besucher
zum fünften Kontinent locken. Darunter 150.000 Deutsche, die den 20-Stunden-Flug nicht scheuen. Der
Tourismus ist längst zu einem wichtigen Standbein der
Wirtschaft von Down Under geworden, er trägt etwa
drei Prozent zum BIP des Landes bei. Noch wichtiger
ist er für den Arbeitsmarkt: Jeder Zehnte der 22 Millionen Australier hat direkt oder indirekt mit ihm zu tun.
Doch in letzter Zeit gehen die Besucherzahlen, vor allem
aus Europa und Japan, zurück. Grund ist nicht nur die
dortige Wirtschaftsflaute. Vielen ist Australien zu teuer
geworden, seit der australische Dollar stark gestiegen ist
und den US-Dollar überflügelt hat. Bekam man vor vier
Jahren für einen Euro noch fast zwei australische Dollar,
sind es heute nur noch 1,25 Dollar. Vor allem die zahlreichen jungen Rucksacktouristen aus Europa, die Australien jedes Jahr besuchen und oft Monate im Land
bleiben, werden davon abgeschreckt.
Zum starken Aussie-Dollar trägt vor allem der Rohstoffboom bei. Australien ist der weltgrößte Exporteur von
Kohle und Eisenerz und auch bei anderen Bodenschätzen wie Gold, Kupfer und Uran führend. Chinas Hunger
nach Rohstoffen aller Art hat dazu geführt, dass die australische Wirtschaft seit zwei Jahrzehnten permanent
wächst, im vergangenen Jahr um etwa drei Prozent.
Selbst die Finanzkrise 2008/09 konnte ihr nichts anhaben. Das Rohstoff-Fieber und der starke Dollar locken
zahlreiche Investoren an,
die Börse in Sydney mit
den zwei Schwergewichten BHP Billiton und Rio
Tinto ist seit Monaten im
Höhenrausch.
Die Kehrseite des Bergbaubooms: Australien ist
zunehmend von der Konjunktur in China abhängig, in das 30 Prozent
seiner Ausfuhren gehen.
Noch zur Jahrtausendwende waren es weniger als fünf Prozent. Der
Ayers Rock
Anteil Europas, Amerikas und Japans ist hingegen geschrumpft.
Ausländer schreckt übrigens nicht nur die teure Währung ab. Oft wird ohne Rücksicht auf den Tourismus
nach Bodenschätzen gebuddelt. Und da im Bergbau besonders gut gezahlt wird, fehlt es woanders an Personal.
nde letzten Jahres waren wieder tausende Iren auf
der Straße. Diesmal richtete sich ihr Protest allerdings nicht gegen den Sparkurs der Regierung, sondern
gegen das strenge Abtreibungsverbot. Auslöser war der
Tod einer schwangeren Immigrantin aus Indien, die in
einem Krankenhaus an Blutvergiftung starb, weil ihr
trotz drohender Fehlgeburt und akuter Lebensgefahr eine Abtreibung
verweigert wurde.
Seitdem wird in Irland —
wie schon häufiger — leidenschaftlich über das
Für und Wider des Abtreibungsverbots diskutiert. Neben Malta ist es
das einzige Land in der
EU, in dem Abtreibungen,
aus welchem Grund auch
immer, strafbar sind. Irische Frauen, die einen
Protest gegen Abtreibungsverbot
Schwangerschaftsabbruch wünschen, müssen deshalb nach Großbritannien
oder in ein anderes Land ausweichen. Der Tod der jungen Inderin sorgte jetzt allerings dafür, dass das Verbot
gelockert wurde.
Bis heute gehen die Uhren im katholischen Irland anders.
So sind Ehescheidungen erst seit 1997 erlaubt. Die katholische Kirche hat nach wie vor viel Einfluss, auch
wenn er durch den Wirtschaftsboom um die Jahrhundertwende, der mehr Modernität ins Land brachte, etwas bröckelte. Durch den Boom sind viele Immigranten ins Land geströmt, jeder achte der 4,5 Millionen Iren hat heute fremde Wurzeln. Und obwohl die
Wirtschaft 2008/09 zusammenbrach und viele Iren ihre
Heimat verließen, hält der Zustrom an. Was auch damit
zu tun hat, dass namhafte US-Konzerne wie Google und
Apple auf der grünen Insel ihr europäisches Headquarter aufgeschlagen haben — nicht zuletzt wegen der
niedrigen Unternehmenssteuer von 12,5 Prozent.
Jetzt müssen die zwischen Tradition und Moderne hinund hergerissenen Iren Europa führen: Zu Jahresbeginn
übernahmen sie von Zypern den halbjährigen EU-Ratsvorsitz. Premier Enda Kenny will die Gelegenheit nutzen,
um Europa neues Selbstvertrauen einzuflößen. Nachdem
die schwere Immobilien- und Bankenkrise einigermaßen
verdaut ist — 2010 musste Irland als erster Staat unter
den Euro-Rettungsschirm schlüpfen und wurde von EU
und IWF mit 67,5 Mrd. Euro gestützt —, fühlt sich Dublin
offenbar stark genug für die neue Führungsrolle. Mit den
USA soll ein Freihandelsabkommen ausgehandelt werden. Ende des Jahres will Irland dann den ungeliebten
Rettungsschirm verlassen.
WISU
1/13
35
WISU-MAGAZIN
BITS AND BYTES
Kein Kartellverfahren
Gründen umformuliert. Facebook erklärte daraufhin, die Klage sei unberechtigt, weshalb ihr energisch entgegengetreten werde.
a hat Google noch mal Glück
D
gehabt: Anfang Januar stellte Neue Appledie amerikanische Wettbewerbsbehörde FTC das Kartellverfahren gegen den Suchmaschinenriesen ein.
Den Hauptvorwurf, Google habe andere Websites bei der Internetsuche zugunsten eigener Dienste benachteiligt, ließ die FTC fallen. Das
Unternehmen hatte freiwillig einige
Zugeständnisse gemacht. So haben
FTC-Chef Jon Leibowitz
Werbetreibende künftig mehr Freiheiten bei ihren Online-Kampagnen.
Außerdem wird der Konzern seinen
Konkurrenten Zugriff auf grundlegende Smartphone- und Tablet-Technologien seiner Handy-Tochter Motorola gewähren. Bei einem ähnlichen Verfahren der EU-Kommission
dürfte es nicht so günstig für Google ausgehen, da hier andere Kriterien im Vordergrund stehen.
Instagram verärgert Kunden
Produkte
m vergangenen Jahr hat Apple so
viele neue Produkte auf den Markt
gebracht, dass nun selbst Skeptiker
überzeugt sein dürften, dass das
Unternehmen auch nach Steve Jobs
kreativ geblieben ist. So hat der
wertvollste Konzern der Welt nicht
nur das iPhone 5, sondern auch das
iPad Mini, zwei weitere iPad-Varianten, neue Macs und das Macbook
mit Retina-Display vorgestellt. Offenbar hat man bereits weitere neue
Produkte in der Pipeline. So verdichten sich schon seit längerem die
Gerüchte um das iTV, ein Fernsehgerät von Apple. Außerdem wollen
Branchenkenner in Log-Dateien von
Web-Servern Spuren der nächsten
iPhone-Generation, dem iPhone 6,
sowie der nächsten iOS-Version
entdeckt haben. Bei der firmeneigenen Entwicklermesse WWDC im
Sommer dürfte das Unternehmen
also wieder einiges Neues zu bieten
haben.
I
Google:
Neues Handy
as neue Tablet aus Googles Nexus-Reihe, das Nexus 10, ist eiD
ne Art Phantom: Obwohl schon seit
eniger Glück hat Facebook mit
seiner Tochter Instagram: Als
W
der Online-Fotodienst kürzlich seine Nutzungsbedingungen änderte,
brach ein Sturm der Entrüstung aus.
Nutzer warfen der Firma vor, ihre
privaten Fotos verkaufen zu wollen.
Zwar dementierte Mitgründer Kevin
Systrom umgehend solche Pläne
und kündigte an, „irreführende Formulierungen“ in den Richtlinien zu
korrigieren. Dennoch wurde Ende
Dezember eine Sammelklage gegen
Instagram eingereicht. Zur Begründung heißt es in der Klageschrift,
das Unternehmen habe seine Pläne
nicht vollständig zurückgenommen,
sondern die Regeln nur aus PR-
WISU
36
1/13
schlechten Erfahrungen mit dem Nexus 10 darf man gespannt sein, ob
das jüngst von Google angekündigte Smartphone — Codename „X
Phone“ — irgendwann mal zu kaufen sein wird. Der von Google für
12,5 Mrd. Dollar erworbene HandyHersteller Motorola soll an einem
Smartphone basteln, das das iPhone und das Samsung Galaxy in den
Schatten stellt — so behauptet zumindest Google. Das „Super-Smartphone“ mit unklarem Erscheinungstermin arbeitet selbstverständlich
mit Android.
iPhones —
nicht von Apple
eit neuestem kann man in Brasilien iPhones kaufen, die mit AnS
droid arbeiten und nicht von Apple
hergestellt werden — und das ganz
legal. Der brasilianische Hersteller
Gradiente hat bereits im Jahr 2000
— lange vor Apple — die Rechte am
Namen iPhone beantragt, die ihm
2008 auch zugesprochen wurden.
Dass Gradiente erst jetzt ein Smart-
Der Namensvetter
phone mit dieser Bezeichnung auf
den Markt gebracht hat, liegt nach
Angaben des Unternehmens daran,
dass man bislang mit internen Restrukturierungsprozessen beschäftigt war. Gradiente besitzt die exklusiven Rechte an dem Namen iPhone in Brasilien bis 2018.
China verschärft
Kontrolle
er bereits vonstatten gehende
Machtwechsel in China führt ofD
fenbar nicht zu mehr Liberalität. Ein
Monaten auf dem Markt, ist es irgendwie ständig ausverkauft. Immer mal wieder tauchen Meldungen auf, wonach es kurzzeitig bei
Google Play gesichtet worden sein
soll, doch dann ist es binnen kurzem wieder ausverkauft. Nach den
neues Gesetz verlangt von den Internet-Providern des Landes, dass
sie sich ab jetzt die Ausweise ihrer
Kunden vorlegen lassen müssen,
damit diese eindeutig identifiziert
werden können. Eine Mammutaufgabe angesichts der 500 Mio. Netznutzer in China.
ANZEIGENSEITE
(bleibt aus technischen Gründen leer)
WISU
1/13
37
WISU-MAGAZIN
NUMBERS – YOU CAN USE
Produktion sinkt
Italien ist mit fast 41 Mio. Hektolitern 2012 wieder der größte
Weinhersteller der Welt. 2011 hatte Frankreich erstmals seit Jahren mehr Wein gekeltert als das südeuropäische Nachbarland.
Beide Länder haben jetzt im Vergleich zum Vorjahr weniger produziert, bei den Franzosen fiel der Rückgang mit 19 Prozent jedoch deutlich höher aus als bei den Italienern (drei Prozent).
Deutschland liegt im internationalen Vergleich der Weinnationen
auf dem neunten Rang. Auch hier wurde 2012 weniger geerntet
und verarbeitet als im Jahr zuvor. Die Gründe für die geringere
Ernte sind regional unterschiedlich: Frost und Hagel im Winter
oder Trockenheit und Hitze im Sommer, aber auch die Verkleinerung von Anbauflächen gehören dazu. (Statistische Angaben: Internationale Organisation für Rebe und Wein)
Schwergewicht
Die 27 Länder der Europäischen Union bringen ein stattliches Gewicht auf die Wirtschaftswaage der Welt. Zwar leben nur sieben
Prozent der Weltbevölkerung in der EU. Sie erarbeiten aber über
ein Viertel der Weltwirtschaftsleistung und liegen damit vor den
USA. Ebenso groß ist die Bedeutung der Europäischen Union im
Welthandel. Über ein Siebtel aller Exporte gehen auf das Konto
der erweiterten EU (dabei ist der Handel untereinander herausgerechnet). China ist die Nummer zwei mit 13,2 Prozent, die USA liegen an dritter Stelle mit 10,3 Prozent. Die wirtschaftliche Stellung
in der Welt bringt auch Verpflichtungen mit sich, denen sich die
EU-Länder nicht entziehen wollen: Von ihnen stammt mehr als die
Hälfte der gesamten öffentlichen Hilfe für die Entwicklungsländer.
(Statistische Angaben: Eurostat, OECD, IEA, WTO)
Unterdurchschnittlich lang
Junge Chilenen drücken die Schulbank am längsten: Bis zu ihrem
14. Lebensjahr sind 8.664 Unterrichtsstunden (gerechnet in Zeitstunden von 60 Minuten) für sie vorgesehen — mehr als in allen
anderen OECD-Ländern. Estnische Schüler haben dagegen ein
Drittel weniger Stunden. Auch die Deutschen sind im OECD-Vergleich unterdurchschnittlich lang in der Schule. In Belgien unterscheidet sich die Länge des Schultags je nach Wohnort: Im flämischen Teil des Landes sind gut 7.000 Stunden bis zum Alter von
14 vorgesehen, im französischen Teil 700 mehr. Vor allem im Alter
von sieben und acht Jahren entfällt die Mehrzahl der Stunden
(55 Prozent) auf Lesen, Schreiben, Literatur, Mathematik und Naturwissenschaften. Bei den Neun- bis Elfjährigen sind es noch
47 Prozent, bei den Älteren nur noch 41 Prozent. (Statistische Angaben: OECD)
WISU
38
1/13
WISU-MAGAZIN
PROFESSOREN–PROFILE
Prof. Dr. Gerald Willmann, 44, ist Inhaber des Lehrstuhls für internationale
Wirtschaftsbeziehungen an der Universität Bielefeld. Er studierte in Kiel und
promovierte bei Prof. Peter Hammond
in Stanford. Seine Lehrtätigkeit führte
ihn in die USA und nach Belgien. Seine
wichtigsten Forschungsgebiete: Politik
des Außenhandels und europäische Integration.
Drei seiner wichtigsten Veröffentlichungen: „Escaping a Protectionist Rut? Policy Mechanisms for Trade Reform in a
Democracy“ (zus. mit E. Blanchard),
„The Political Economy of International
Factor Mobility“ (zus. mit G. Facchini)
und „On the Endogenous Allocation of
Decision Powers in Federal Structures“
(zus. mit O. Lorz). Er hat derzeit einen
Forschungsauftrag am Institut für Weltwirtschaft in Kiel.
Gerald Willmann
as ist Ihre Prognose für 2013: Wird Deutschland
W
konjunkturell mit einem blauen Auge davonkommen oder wird es größere Blessuren geben? Ich bin op-
Ist man auf anderen Kontinenten unterwegs, wird man
oft erstaunt gefragt, wie es möglich ist, dass ein kleines
Land wie Griechenland eine solche Krise auslösen
timistisch, was die weitere wirtschaftliche Entwicklung hierkonnte. Was würden Sie darauf antworten? Wenn man
zulande betrifft. Fiskal- und Geldpolitik sind beide expandas Ganze nicht gleich am größten Mitgliedsland der Eurosiv, und die Lage auf den wichtigen Absatzmärkten wie
Zone, also an Deutschland, misst, ist Griechenland gar nicht
China und den USA hat sich zuletzt stabilisiert.
so klein. Viele andere Euro-Länder wie Portugal, Irland,
In den letzten zwei Jahren war viel davon die Rede,
Belgien, Zypern, die Slowakei oder Luxemburg haben auch
dass die Euro-Zone zerbrechen könnte. Wie sehen Sie
nicht mehr oder sogar deutlich weniger Einwohner. Entdie Zukunft des Euro? Ich bin überzeugt, dass uns der
scheidend ist jedoch die Ansteckungsgefahr. Hinzu kommt,
Euro erhalten bleibt und dass weitere Länder zur Euro-Zone
dass ein Austritt Griechenlands aus dem Euro einen Präzestoßen werden. Was ich für sehr positiv halte. Auch wenn
denzfall geschaffen hätte, der mit Sicherheit dazu geführt
sich die Inflationsrate am Ende um ein oder zwei Prozent erhätte, dass es zu Spekulationen gegen größere Mitgliedshöhen sollte.
länder gekommen wäre. Zum Teil ist es ja geschehen.
Einer der umstrittensten Sätze der letzte Zeit war die
Jetzt benötigt auch das Euro-Land Zypern wegen seiAussage von Angela Merkel: „Scheitert der Euro, scheiner Bankenkrise Hilfe. Bekanntlich ist es auch Fluchtort
tert Europa.“ Würden Sie ihn unterschreiben? Das Risifür russische Gelder. Sollen deutsche Steuerzahler rusko für Europa wäre sehr hoch, sollte der Euro scheitern. Und
sische Oligarchen retten? Wie man der Presse entnehmen
ich stimme der Intention dieser Aussage, dass wir alles tun
kann, erlässt der griechische Teil Zyperns jetzt Gesetze gesollten, um dies zu verhindern,
gen Geldwäsche. Die Unterstütvollkommen zu.
zung wird auch im Falle Zyperns
„Mario Draghi hat einfach seinen Job
Mit seiner Erklärung im Somnur gegen Reformen zu haben
mer, die EZB werde alles tun,
sein, was sich letztlich auch hier
gemacht — und auch gut. Die bisherige
um den Euro zu bewahren,
positiv auf die Wirtschaft des
positive
Entwicklung
gibt
ihm
Recht“
hat Mario Draghi erst einmal
Landes auswirken wird.
für Ruhe auf den FinanzmärkViele hatten befürchtet, dass
ten gesorgt. Von vielen ist er dafür gelobt worden, andas Quantitative Easing der amerikanischen Zentraldere kritisieren ihn wegen seiner Politik. Wie sehen Sie
bank und der Bank of England sowie die Geldpolitik der
das? Vom Präsidenten der EZB kann man schon erwarten,
EZB zu höherer Inflation führen würden. Hat es Sie
dass er alles tut, um den Euro zu bewahren. Insofern hat
überrascht, dass dies bislang nicht geschehen ist? Das
Mario Draghi einfach seinen Job gemacht — und auch gut.
Problem ergibt sich meines Erachtens erst, wenn die WirtDie bisherige positive Entwicklung gibt ihm jedenfalls
schaft weltweit wieder zu florieren beginnt. Man muss also
Recht.
abwarten, ob es mittelfristig nicht doch noch zu einer höheWenn man sieht, wie ein einziger Satz des EZB-Chefs
ren Inflation kommt. Ich gehe jedenfalls davon aus und spedie Wogen glättet, fragt man sich, warum das nicht
kuliere sogar darauf.
schon Jean-Claude Trichet, Draghis Vorgänger, eingeDen Krisenstaaten ist von der Troika — Brüssel, EZB
fallen ist. Mit anderen Worten: Hätte die ganze Krise
und IWF — eine strenge Sparpolitik verordnet worden.
nicht durch ein entschlosseneres Handeln gleich zu AnFür einige Ökonomen wie den Nobelpreisträger Paul
fang verhindert werden können? Die angekündigten StütKrugman hat das die Krise weiter verschärft, andere
zungskäufe sind an die Bedingung geknüpft, dass die Eurosehen darin den einzig gangbaren Weg. Wer hat Recht?
Länder, die sie in Anspruch nehmen wollen, dann auch
Dass man nicht weiter von außen Primärdefizite in den KriReformen umsetzen müssen. Viele Reformen sind ja schon
senstaaten finanzieren möchte, ist selbstverständlich. Das
auf dem Weg. Ich denke, es wäre verfrüht gewesen, Hilfe zu
hieße ja, andere sollen zahlen, damit man weiter über seine
versprechen, bevor sich die Politik in den Krisenländern zu
Verhältnisse leben kann. Was die Zinszahlungen und die TilReformen entschlossen hatte.
gung betrifft, wird man sehen. Im Übrigen denke ich, dass
WISU
1/13
39
WISU-MAGAZIN
Strukturreformen unerlässlich sind, um in den Krisenstaaten
triotismus vorgeworfen. Sollten die Staaten nicht im
längerfristiges Wachstum herbeizuführen.
Steuerwettbewerb stehen und ist es nicht das Recht jeLaut dem neuesten Brüsseler Armutsbericht zerfällt die
den Bürgers, exorbitanten Steuern auszuweichen? Der
EU immer mehr in einen reichen Norden und einen arFall Depardieu stellt sich aus französischer Sicht so dar,
men Süden. Eine der Grundideen des europäischen Zudass da jemand jahrelang von der staatlichen Filmfördesammenschlusses war jedoch, dass sich die wirtschaftrung profitierte und sich jetzt der Steuer, die sicherlich
lichen Verhältnisse der Mitgliedsländer durch den Zusehr hoch, entziehen will. Dass er ausgerechnet einen russammenschluss angleichen. Hat Europa damit nicht eisischen Pass von Präsident Putin entgegennimmt, spricht
nes seiner Hauptziele verfehlt? Es gibt einen Unterschied
— ebenso wie andere Fehltritte in letzter Zeit — auch nicht
zwischen der Angleichung der wirtschaftlichen Verhältnisunbedingt für ihn. Der französische Verfassungsrat hat die
se der Mitgliedsländer und der Angleichung der MöglichSteuer übrigens inzwischen für unzulässig erklärt. Letztlich
keiten für ihre Bewohner. Letzteres ist wünschenswert, Erssteht es natürlich jedermann und damit auch Depardieu frei,
teres jedoch zum Scheitern verurteilt. Außerdem gibt die
Frankreich zu verlassen.
Europäische Union jedem Südeuropäer die Möglichkeit, in
Obama hatte im Wahlkampf versprochen, Arbeitsplätze
nördliche Mitgliedsländer umzuziehen, um dort zu leben
aus dem Ausland in die USA zurückzuholen. Apple hat
und zu arbeiten.
so etwas bereits angekündigt. Könnte sich jetzt dieser
Das größte Drama ist derzeit
oft beklagte Teil der Globalidie extreme Jugendarbeitssierung korrigieren lassen?
losigkeit in Ländern wie Grie- „Strukturelle Reformen wie die Liberalisie- Die Globalisierung ist keine Einrung des Arbeitsmarktes sind der richtige
chenland und Spanien, wo
bahnstraße. Irgendwann gleiüberwiegend auch die Sparchen sich die Lohnniveaus an
und einzig erfolgversprechende Weg,
politik für die Krise verantund der Preisvorteil, den man
die Jugendarbeitslosigkeit zu bekämpfen“ einst durch die Auslagerung der
wortlich gemacht wird. Besteht da nicht die Gefahr, dass
Produktion hatte, verringert sich
Millionen junge Menschen eine tiefe Aversion gegen die
oder erledigt sich gar ganz. An der Globalisierung, also der
EU entwickeln — und damit gerade diejenigen, die den
Freiheit, wirtschaftliche Aktivitäten über Grenzen hinweg
europäischen Gedanken weitertragen sollen? Die relativ
auszuüben, ändert das jedoch nichts.
hohe Jugendarbeitslosigkeit in diesen Ländern war schon
Die ursprünglichen strengeren Regeln bei Basel III wurvor der Krise ein Problem, das sich durch die Krise nur noch
den jetzt gelockert und der Termin für die Änderungen
verschärft hat. Europa jetzt dafür verantwortlich zu machen,
verschoben. Die Banken begrüßen das. Kritiker sind
wäre reiner Populismus. Ich denke, dass strukturelle Reforhingegen der Meinung, damit werde wieder der gefährmen wie die Liberalisierung des Arbeitsmarktes der richtiliche Zustand wie vor der Finanzkrise 2008/09 hergege und einzig erfolgversprechende Weg sind, die Jugendarstellt. Bei der Bankenregulierung gibt es einen großen Nachbeitslosigkeit zu bekämpfen.
holbedarf. Generell sollten Politikentscheidungen im InteEs wird viel über die Zukunft Europas diskutiert. Für die
resse des Landes und seiner Bevölkerung getroffen werden
einen hat Brüssel bereits zu viel Macht, für die anderen
und weniger dem Einfluss finanzstarker Interessengruppen
zu wenig. Das muss man differenziert sehen. Während
ausgeliefert sein.
gewisse Politikbereiche zentralisiert werden sollten, sollDurch die Krisen sind neoklassische Theorien und Moten Entscheidungen in anderen Bereichen dezentral gedelle ins Wanken geraten, etwa die Efficient-Markettroffen werden. Da wird sich in jeder Hinsicht immer etwas
Hypothesis. Auch der Streit zwischen Keynesianern
verbessern lassen. Das ist so ähnlich wie in Deutschland
und Nicht-Keynesianern hat wieder zugenommen. Hadas Verhältnis zwischen Bund, Ländern und Gemeinden.
ben Krisen wenigstens das Gute, dass sie die TheorieKönnen Sie sich vorstellen, dass es eines Tages die Verdiskussion in Schwung bringen? Die letzten Jahre haben
einigten Staaten von Europa gibt? Oder gibt es dazu zu
dazu geführt, dass ökonomische Modelle und Theorien verviel Nationalismus in Europa? Ich denke schon, dass die
stärkt hinterfragt werden, was sehr gut ist. Außerdem hat
Integration weitergehen wird. Angesichts der globalen Entsich der Fokus von fundamentalen — um nicht zu sagen
wicklung ist das auch sehr sinnvoll. Ab wann man das dann
fundamentalistischen — Theorien zur hoffentlich theoredie Vereinigten Staaten von Europa — oder wie auch immer
tisch fundierten Politikberatung verschoben, was ich eben— nennt, ist eher eine semantische Frage.
falls sehr positiv sehe.
Viele Briten würden die EU gern auf eine FreihandelszoDurch die Krisen und die widerstreitenden Erklärungsne reduzieren. Laut Umfragen
und Lösungsversuche ist das
ist heute sogar die Hälfte der
Interesse vieler Studenten an
„Die letzten Jahre haben dazu geführt,
Bevölkerung für einen Ausder Volkswirtschaftslehre gedass ökonomische Modelle und Theorien
tritt des Landes aus der EU.
sunken. Was kann das Fach
Wäre das ein Drama? Oder
tun, um wieder mehr Interesverstärkt hinterfragt werden,
sollte man Reisende nicht einse zu wecken? Ich habe genau
was sehr gut ist“
fach ziehen lassen? Großbriden entgegengesetzten Eintannien ist eine Demokratie mit
druck. Durch die Krise ist das
langer Tradition. Man wird sicher auch dies nach demokraFach interessanter geworden, da jetzt neue Fragen gestellt
tischen Spielregeln entscheiden. Ein Austritt wäre jedoch
werden. Und dass wir nicht überall sofort die richtige Antfür keine Seite von Vorteil. Das sehen übrigens auch viele
wort parat haben, gehört zur Raison d’être jeder WissenBriten so.
schaft.
Die EU und der Euro waren für viele andere WeltregioSie haben Ihren Ph.D. in Stanford gemacht und waren
nen wie Asien, Lateinamerika, die Golfstaaten, die Kariauch in anderen Ländern als Wissenschaftler tätig. Was
bik und auch Afrika ein Vorbild. Hat sich das durch die
kann die wirtschaftswissenschaftliche Ausbildung in
Krise erledigt? Auf keinen Fall. Die politische Integration
Deutschland von anderen Ländern lernen? Die LehrinEuropas ist eine außergewöhnliche Errungenschaft. Damit
halte sind inzwischen sehr ähnlich, auch wenn die Schwerwird sie auch für andere Teile der Welt ein Vorbild bleiben.
punkte etwas variieren. Was hierzulande im Argen liegt, ist
So streitet sich heute niemand mehr um Helgoland — ganz
das fehlende Studium Generale. In anderen Ländern ist es
im Gegensatz zu einigen Felsen im ostchinesischen Meer.
durchaus üblich, dass sich Studenten auch mal VorlesunZuletzt machte Gérard Depardieu Schlagzeilen, weil er
gen anderer Fachrichtungen anhören. So können Wirtnicht 75 Prozent Einkommensteuer in Frankreich zahschaftsstudenten sehr von anderen Fächern profitieren.
len will und deshalb in ein Land mit niedrigeren Steuern
Umgekehrt können auch andere Fächer vieles von den
ausweicht. Zuhause wird ihm deshalb mangelnder PaÖkonomen lernen.
WISU
40
1/13
ANZEIGENSEITE
(bleibt aus technischen Gründen leer)
WISU
1/13
41
WISU-MAGAZIN
LEHRBÜCHER – DIE WEITERHELFEN
G. Eilenberger / D. Ernst / M. Toebe: Betriebliche Finanzwirtschaft.
Oldenbourg, 8. Aufl. 2013, kt. 419
Seiten, 49,80 Euro.
Die Bearbeitung und Lösung von Finanzierungen, Entscheidungen über
Investitionen, die Strukturierung von
Kapital und Vermögen, die Steuerung der Zahlungsströme — all das
sind Aufgaben der betrieblichen Finanzwirtschaft. Während früher häufig nur einzelne Aspekte in den Lehrbüchern zu Finanzierung und Investition behandelt wurden, ist es angesichts der Entwicklung der Finanzmärkte, der Globalisierung und der
finanzwirtschaftlichen Interdependenzen im Unternehmen, zwischen
den Unternehmen und den Kapitalmärkten längst notwendig, einen integrativen Ansatz zu verfolgen, wie
er in diesem Buch geboten wird.
Nach einem Überblick über die Finanzpolitik und das Finanzmanagement, über die Finanzierungspotenziale und -quellen sowie die externen und internen Risiken von Finanzierungen wird zunächst gefragt, wofür die Finanzmittel eingesetzt werden — für Investitionen in Sach- oder
Finanzanlagen? Dabei werden die
WISU
42
1/13
üblichen Verfahren der Investitionsrechnung und die gängigen finanzwirtschaftlichen Bewertungsansätze vorgestellt. In diesem Zusammenhang wird auch die wertorientierte
Unternehmensführung (Corporate
Value) mit ihren zentralen Begriffen
wie Shareholder Value oder dem
Stakeholder-Ansatz thematisiert.
Über 100 Seiten nimmt die Darstellung der Finanzierungsmöglichkeiten
ein. Während die Instrumente der
Außenfinanzierung auf den Kreditund Kapitalmärkten, die sich durch
viele technische Details unterscheiden, ausführlich behandelt werden,
wird der Innenfinanzierung im Vergleich wenig Platz eingeräumt. Danach stellt sich die Frage, welche Instrumente eingesetzt werden sollen. Dies zu klären und zu entscheiden ist die Aufgabe des Finanzierungsmanagements, wobei etliche
Faktoren wie etwa die Finanzierungskosten, die Mitbestimmungsrechte oder die Fristigkeit zu berücksichtigen sind. All das kann die Finanzierungsentscheidungen ausgesprochen komplex machen.
Im letzten Teil werden die Finanzierungstheorie und die Theorie der Fi-
nanzmärkte behandelt. Dazu gehören Ansätze wie Agency-Theorien der
Finanzierung oder die Efficient Capital Market Theory, die vor allem aufgrund der weltweiten Finanzkrise
2008/09 massiv in die Kritik geraten
ist. Hätte die Krise — wäre die Theorie richtig — doch gar nicht stattfinden dürfen.
Verständlich geschrieben, mit zahlreichen Zahlenbeispielen, anschaulichen Grafiken und klaren Zielvorgaben zu jedem Kapitel — das Lehrbuch hinterlässt viele positive Eindrücke, gleichgültig, ob man es als
Studienanfänger oder Fortgeschrittener zur Hand nimmt.
WISU-MAGAZIN
DIE KOPFNUSS
DES MONATS
Bei diesem Buchstaben-Sudoku müssen die Felder so mit den
Buchstaben A, B, E, I, F, L, N, O und R gefüllt werden, dass jeder
Buchstabe in allen Zeilen, Spalten und fett umrandeten Unterblöcken jeweils einmal vorkommt:
EU plant
neues Ranking
Uni-Rankings sind zwar umstritten, helfen aber, sich im Dschungel der vielen deutschen und internationalen Ausbildungsangebote zurechtzufinden. In Zukunft
kommt noch eine weitere Rangliste hinzu: Im Auftrag der EU-Kommission wird das „U-Multirank“
erstellt, das weltweit ungefähr 500
Hochschulen erfasst. Kriterien bei
der Bewertung sind die Qualität
der Lehre, das Renommee der Forschung, die Internationalität, das
regionale Engagement der Hochschulen sowie der Wissenstransfer in die Wirtschaft. Das Ranking
wird von der EU mit zwei Mio. Euro
gefördert.
Studieren
mit Facebook
Die Buchstaben in den farbig markierten Feldern ergeben — in
die richtige Reihenfolge gebracht — eine Abkürzung, die im Zusammenhang mit Bilanzierung auftritt. Welche?
Wer die richtige Lösung bis zum 20. Februar 2013 an kopfnuss@
wisu.de schickt, nimmt an der Auslosung eines Geldpreises von
100 Euro teil. Der Rechtsweg ist ausgeschlossen. Lösung und
Gewinner der Kopfnuss werden in der März-Ausgabe veröffentlicht.
Lösung und Gewinner der November-Kopfnuss
Gesucht war der Nationalökonom David Ricardo, der 1817 seine „Principles of Political Economy and Taxation“ veröffentlichte.
Gewinner der November-Kopfnuss ist Kevin Deuter aus Greifswald.
Herzlichen Glückwunsch!
Wie haben es die Studenten früher
bloß angestellt, ihr Studium ohne
Facebook zu absolvieren? Heute
ist das soziale Netzwerk jedenfalls mindestens genauso wichtig
wie Mensa und Erstsemesterparty. Viele Studenten suchen bei Facebook den Kontakt zu Kommilitonen, wenn sie in der Vorlesung
etwas nicht verstanden haben,
wenn sie sich nach Übungsaufgaben erkundigen, einen wichtigen
Termin nicht mitbekommen haben oder ein WG-Zimmer suchen.
Oft wird Facebook auch als virtuelle Lerngruppe bei der Vorbereitung auf Klausuren genutzt. Die
Hochschulen sind ebenfalls sehr
aktiv in den sozialen Medien. So
verzeichnet die Facebook-Seite der
Uni Köln täglich 60.000 Zugriffe.
Arme
Doktoranden?
Das Institut für Forschungsinformation und Qualitätssicherung hat
die wirtschaftliche Situation von
Doktoranden untersucht und herausgefunden, dass sie meist nicht
so prekär ist, wie oft behauptet
wird. Allerdings sind die Unterschiede zwischen den Fachgebieten beträchtlich. Während Wirtschaftswissenschaftler im Schnitt
über 1.627 Euro im Monat verfügen und häufig eine Assistentenstelle an der Universität haben,
müssen Doktoranden im Fach Germanistik im Schnitt mit 1.047 Euro
auskommen, die sie zum großen
Teil aus befristeten Stipendien beziehen.
WISU
1/13
43
ANZEIGENSEITE
(bleibt aus technischen Gründen leer)
WISU
44
1/13
wisu
Karriere
Gefragt:
Ideen und Pioniergeist
Durch die Krisen ist die Volkswirtschaftslehre wieder ein spannendes
Fach geworden.
ie Krisen, die seit 2008 um die
Welt ziehen, haben nicht nur
D
die Wirtschaft in vielen Ländern abstürzen lassen, sondern auch viele
volkswirtschaftliche Theorien und
Modelle massiv erschüttert. Beispielsweise die Efficient-MarketHypothesis oder die Idee, massive
Ausschläge auf freien Märkten würden sich selbst korrigieren. Wäre
dies richtig, hätte es beispielsweise
erst gar nicht zu der gewaltigen Finanz- und Wirtschaftskrise 2008/
09 kommen dürfen. Der bekannte
Würzburger Ökonom Peter Bofinger, immerhin einer der fünf Weisen,
spricht sogar von „Mickey-MouseModellen“, die „Zerrbilder der Realität“ seien.
Die Vorstellung, die Wirtschaftswissenschaften
hätten für alles eine Erklärung und alles im
Griff, ist also falsch. Der
Eindruck entsteht jedoch leicht, wenn man
Experten in Talkshows
erlebt oder ihre Kommentare in den Medien
liest oder hört. Nachdem das Kind im Brunnen liegt, wissen immer
alle gleich genau, wie es dorthin gelangt ist. Wobei die Erklärungen
auch hier oft voneinander abweichen. Vor einer Krise — insbesondere der von 2008/09 — warnen jedoch stets nur sehr wenige.
Auch wenn über die Lösung der Krisen diskutiert wird, weichen die Meinungen meist stark voneinander ab.
Das war 2008/09 nicht anders als es
bei der aktuellen Euro- und Staatsschuldenkrise ist. Dabei liegen sich
nicht nur Keynesianer und NichtKeynesianer in der Wolle, auch die
Vorschläge von Mainstream-Ökonomen können sehr unterschiedlich
sein. Viele Politiker wie etwa Angela
Merkel beklagen sich denn auch,
dass sie von den Ökonomen keine
übereinstimmenden Antworten auf
ihre Fragen erhielten. Auch SPDKanzlerkandidat Peer Steinbrück,
immerhin ein gelernter Volkswirt, hat
sich schon sehr negativ über ökonomische Theorien und Modelle geäußert.
All das und natürlich die Krisen
selbst haben dazu beigetragen, dass
Volkswirtschaftslehre als Studienfach an Attraktivität verloren hat.
Harvard-Studenten verließen sogar
schon aus Protest eine Vorlesung
von N. Gregory Mankiw, weil er realitätsferne, traditionelle Modelle
predige. Bofinger: „An dem Unsinn,
den Studenten heute oft lernen müssen, gibt es sehr vieles
zu kritisieren.“
So haben die Krisen zumindest ein Gutes: In
der Volkswirtschaftslehre ist so einiges in Bewegung geraten. Aufgrund der Krisen werden „jetzt neue Fragen
gestellt“, meint der Ökonom Gerald Willmann
(s. S. 40). Womit sie
wieder interessant wird. Das meinen auch Studenten und Wissenschaftler in verschiedenen Ländern,
die sich für eine „Real World Economics“ einsetzen.
Berufsbild:
Tourismusmanager
ufatmen in der Reisebranche:
Endlich einmal blieb sie 2012
A
von Revolutionen, Epidemien, Tsunamis und anderen Katastrophen
verschont, die sich in den Vorjahren negativ auf die Reiselust der
Deutschen ausgewirkt hatten. Laut
Schätzung des Deutschen Reiseverbands (DRV) nahm die Zahl der
Teilnehmer an organisierten Reisen — auch wegen des verregneten Sommers — um drei Prozent
auf 43,6 Millionen zu, der Umsatz
kletterte um fünf Prozent auf 24,4
Mrd. Euro.
Von zweistelligen Wachstumsraten
wie in den neunziger Jahren ist man
zwar weit entfernt. Doch auf das
Fernweh der Deutschen ist Verlass:
Kein anderes Volk geht so gern auf
Reisen und gibt dabei so viel Geld
aus. Damit das so bleibt, lassen
sich die Veranstalter ständig etwas
Neues einfallen: Exotische Urlaubsziele, Schnäppchen-Preise und Extra-Service locken den Reiselustigen in die Ferne. Für die Entwicklung und zielgenaue Vermarktung
dieser Angebote sorgt der Tourismusmanager. Er kennt die aktuellen Trends und stellt sie für seinen
Arbeitgeber, etwa ein Reiseveranstalter oder ein Fremdenverkehrsbüro, zu attraktiven Programmen
zusammen. Dazu muss er mit Hotelketten, Transportunternehmen
und Versicherungen über freie Kapazitäten und Konditionen verhandeln. Oft nehmen Tourismusmanager auch organisatorische und
Controlling-Aufgaben wahr. Oder
sie kümmern sich vor Ort um einen
reibungslosen Service und die Betreuung der Gäste.
it anderen Worten: Die Krisen
etriebswirte, die gern reisen
haben dafür gesorgt, dass VWL B und fremde Kulturen kennenM
wieder ein spannendes Fach ist. lernen, aber auch scharf kalkulieAllerdings nicht so sehr für Leute, die
Fertiglösungen wollen, sondern eher
für solche mit Pioniergeist und Freude an anspruchsvollen intellektuellen Auseinandersetzungen. So wie
die Wissenschaftler des Institute
for New Economic Thinking in New
York, die auch neuen Erklärungen
auf der Spur sind.
ren und gut mit Menschen umgehen können, sind in diesem vielseitigen Beruf bestens aufgehoben.
Man kann entweder BWL mit dem
Schwerpunkt Tourismus studieren
oder entscheidet sich gleich für
Tourismusmanagement als Studienfach.
WISU
1/13
45
WISU-KARRIERE
Immer mehr Deutsche
zieht es zum Studieren
nach Holland. Denn
im Land der Grachten
herrschen fast paradiesische Studienbedingungen. Und einen
Numerus clausus gibt
es auch nicht.
Studieren im Ausland
Auf
nach
Holland!
olland war schon immer ein beliebtes Reise- und Ausflugsziel
H
der Deutschen. Kein Wunder: Wer in
Westdeutschland, etwa in NordrheinWestfalen, wohnt, für den ist es nach
Venlo, Maastricht oder Nijmegen, wo
man sich seit langem auf die Gäste
aus dem großen Nachbarland eingestellt hat, oft nur ein Katzensprung.
Das Meer ist ebenfalls nicht weit
weg. Und für viele ist nicht Paris,
Rom oder Prag die schönste Stadt
der Welt, sondern das durch seine
unzähligen Grachten und schmalen,
windschiefen Häuser bezaubernde
Amsterdam.
Auch als Studienort sind die Niederlande längst kein Geheimtipp mehr.
Im vergangenen Jahr waren 25.000
Deutsche an einer niederländischen
Hochschule immatrikuliert. Damit ist
das Land bei deutschen Studenten
genauso beliebt wie Österreich. In
den Niederlanden stellen die Deutschen die mit Abstand größte ausländische Studentengruppe. Und sie
wird immer größer: In den letzten
Jahren nahm sie um jeweils rund
2.000 Gaststudenten zu.
Grund ist nicht nur die Nähe zu
Deutschland, obwohl holländische
Unistädte wie Nijmegen und Groningen für deutsche Studenten, die aus
Emden oder Kleve kommen, leichter
zu erreichen sind als jede deutsche
Universität. Nicht wenige von ihnen
fahren sogar täglich zum Studieren
über die nahe gelegene Grenze. Für
viele deutsche „Expats“ steht eher
WISU
46
1/13
die Möglichkeit, jenseits der Grenze das Wunschfach studieren zu
können, an erster Stelle. Denn während bei beliebten Studiengängen
wie Psychologie, Biochemie, Medizin oder BWL hierzulande meist ein
Numerus clausus überwunden werden muss, der vielen den Weg zum
Traumberuf versperrt, gibt es diese
Form der Zulassungsbeschränkung
in den Niederlanden nicht. Übersteigt
die Nachfrage doch einmal das Angebot, werden die Studienplätze unter den Bewerbern einfach verlost —
ein Verfahren, das man dort „Numerus fixus“ nennen.
Auch das Studium selbst ist für viele
ein Grund, die Hochschulausbildung
in den Niederlanden zu absolvieren.
Denn trotz übersichtlicher Hochschullandschaft — es gibt zwei Dutzend
Universiteiten und Hogescholen (vergleichbar mit den deutschen Fachhochschulen) mit 650.000 Studenten, davon 80.000 aus dem Ausland
— ist das Studienangebot breit und
vielfältig. Sogar Fächer wie Physiotherapie und Logopädie kann man in
Holland studieren.
Viele Hochschulen genießen zudem
einen exzellenten Ruf. So belegt die
Rotterdam School of Management
(RSM) — die Business School der
dortigen Erasmus-Universität — bei
internationalen Vergleichen regelmäßig Spitzenplätze. Im letzten europäischen B-School-Ranking der „Financial Times“ kam sie auf Platz neun.
Auch die Universiteit Maastricht, die
Universiteit van Amsterdam oder die
bereits 1575 gegründete Universiteit
Leiden, Lehr- und Ausbildungsstätte so berühmter Persönlichkeiten wie
Rembrandt, René Descartes und Albert Einstein, erfreuen sich eines hohen Renommees.
gar deutschsprachige Studiengänge.
Hier zahlt sich aus, dass die Niederlande früher als andere europäische
Staaten internationale Studienprogramme eingeführt und auf das europaweit kompatible Bachelor/Master-System umgestellt haben. Selbst
wer ein Fach studiert, in dem überwiegend oder ausschließlich Niederländisch gesprochen wird, muss sich
keine grauen Haare wachsen lassen.
Denn kaum eine Fremdsprache lernt
sich für Deutsche leichter. Um den
obligatorischen Sprachtest zu bestehen, bieten viele Hochschulen vierbis sechswöchige, jedoch kostenpflichtige Intensivkurse an.
Paradiesische Zustände also. Wären
da nicht die Studiengebühren von
1.800 Euro pro Jahr und die — vor
allem in beliebten Studentenstädten
wie Amsterdam und Maastricht —
recht hohen Lebenshaltungskosten.
Wer kein Auslands-Bafög erhält und
auch kein Stipendium, etwa vom
DAAD oder vom Erasmus-Programm,
ergattert hat, kann sich jedoch beim
niederländischen Staat das Geld
fürs Studium leihen. Oder er nimmt
einen Studentenjob an (mindestens
32 Stunden pro Monat). Dann hat er
Anspruch auf staatliche Unterstützung.
Der Unterricht an holländischen Unis
findet meist in kleinen Gruppen statt
und ist „problemgesteuert“. Soll heißen: Frontalunterricht in überfüllten
Hörsälen ist die absolute Ausnahme.
Stattdessen erarbeiten sich die Studenten den Stoff selbständig anhand
von Fallstudien, Projektarbeit und Präsentationen. Jeder Studienanfänger
wird zudem von einem persönlichen
Mentor betreut. An der Ausstattung
von Bibliotheken und Seminarräumen
gibt es ebenfalls nichts zu bemängeln, auch wenn die hässliche Beton-Architektur so mancher Hochschule so gar nicht zum Puppenstuben-Flair niederländischer Städtchen
passt.
Dann wäre da noch die hohe Prüfungsdichte. In der Regel folgt auf
jede sechswöchige Vorlesungs- und
Seminarreihe eine zweiwöchige Prüfungsphase. Ausgedehnte Semesterferien sind in Holland unbekannt.
Dafür sind Immatrikulationen — das
Studienjahr startet im September —
oft bis kurz vor Studienbeginn möglich.
Sogar die Sprachbarriere ist in den
meisten Fällen kein Hindernis, denn
es gibt zahlreiche englisch- und so-
Weitere nützliche Informationen unter
studieren-in-holland.de und studyin
holland.nl.
Universiteit Nijmegen:
Nicht schön, aber komfortabel
ANZEIGENSEITE
(bleibt aus technischen Gründen leer)
WISU
1/13
47
WISU-KARRIERE
In Deutschland sind sie
noch ein zartes Pflänzchen: die Vereinigungen ehemaliger Studenten, auch Alumni
genannt. Vorreiter sind
die privaten Hochschulen. Kein Wunder, denn
die Alumni-Clubs sind
auch ein wichtiges
Marketing-Instrument.
Alumni-Clubs
Dabei
bleiben
ist alles
ls das Spendenaufkommen wähA
rend der Finanzkrise 2008/09
einbrach und das Stiftungsvermögen
dahinschmolz, geriet so manche amerikanische Hochschule in Schwierigkeiten. Denn im Unterschied zu den
staatlichen Universitäten in Deutschland, die sich zum größten Teil aus
Steuermitteln finanzieren, sind viele
US-Unis als private Stiftungen organisiert und deshalb auf Spenden und
Studiengebühren als Einnahmequelle
angewiesen.
Inzwischen fließen die Spendengelder wieder reichlich. Denn in den
USA — vor allem an den dortigen
Elite-Universitäten — gehört es gewissermaßen zum guten Ton, seiner
Hochschule auch nach dem Studium verbunden zu bleiben und sie
finanziell zu unterstützen. Und die
Unis sorgen mit regelmäßigen Fundraising-Kampagnen dafür, dass dieser gute alte Brauch bei den Ehemaligen (Alumni) nicht in Vergessenheit
gerät.
So meldete die Tuck School of Business des Dartmouth College kürzlich,
im abgelaufenen Studienjahr von
über 70 Prozent ihrer Ehemaligen eine Spende erhalten zu haben. Und
der Stanford University brachte eine
fünfjährige Fundraising-Kampagne
über sechs Mrd. Dollar von insgesamt 166.000 Spendern ein, wobei
sich Nike-Gründer Phil Knight und
WISU
48
1/13
Yahoo-Gründer Jerry Yang mit 105
bzw. 75 Mio. Dollar besonders großzügig zeigten.
Von solchen Beträgen können deutsche Hochschulen, ob staatlich oder
privat, nur träumen. Denn die Spenden- und Alumni-Kultur ist hierzulande noch ein zartes Pflänzchen,
das erst wachsen und gedeihen
muss. Erst Ende der achtziger Jahre
entstanden in Deutschland die ersten Alumni-Vereinigungen, die sich
darum kümmerten, dass der Kontakt der Ehemaligen zu ihrer Hochschule nicht abriss.
Inzwischen sind Alumni-Organisationen an den meisten Universitäten
und Fachhochschulen fest etabliert
und werden von ihnen nach Kräften
unterstützt. Alumni-Clubs.net, der Verband der Alumni-Organisationen im
deutschsprachigen Raum, zählt über
250 Mitglieder. Denn an den Hochschulen hat sich herumgesprochen,
dass es kaum ein besseres Mittel
gibt, das Image in der Öffentlichkeit
aufzupolieren und potenzielle Spender auf sich aufmerksam zu machen,
als umtriebige Alumni-Vereine. Deren
Mitglieder wiederum profitieren vom
gegenseitigen Informations- und Erfahrungsaustausch und ihrer guten
Vernetzung. Nicht selten wird eine
Mitgliedschaft im Alumni-Verein somit zum Karrierebeschleuniger.
Seit 2008 gibt es an der ZU zudem
ein Alumni-Office, das den AlumniVerein unterstützt, indem es Veranstaltungen und Schulungen organisiert und Kontakte zu Unternehmen
aus dem Partnerpool der Hochschule vermittelt. Allerdings ist es ein Geben und Nehmen. So wird von den
Alumni als Botschafter der Hochschule auch eigenes Engagement
erwartet, sei es, dass sie als Referenten über ihre beruflichen Erfahrungen berichten, bei der Auswahl
neuer Studenten mithelfen, Veranstaltungen organisieren oder Jobs
und Praktika an andere Alumni vermitteln.
Auch bei In Praxi, der EhemaligenVereinigung der WHU — Otto Beisheim School of Management, sind
viele Alumni als Referenten, Prüfer
oder persönliche Coaches aktiv. Ein
von In Praxi entwickeltes CoachingProgramm bietet Studenten die Möglichkeit, ihre Soft Skills zu trainieren.
Pro Jahr finden etwa 100 Veranstaltungen statt. Highlights sind die jährliche Mitgliedertagung, das WHU
Alumni Homecoming für Jubilare der
Uni, der Alumni Career Day und die
Lifelong Learning Seminare, mit denen sich die WHU-Alumni weiterbilden können.
Vor allem an den Privatunis — Vorreiter in Sachen Kontaktpflege —
dienen Alumni-Vereine in erster Linie dem Zweck, die Berufsaussichten der Mitglieder zu verbessern.
Denn wer sich für ein Studium an einer privaten Hochschule entscheidet,
erwartet als Gegenleistung für die
meist üppigen Studiengebühren auch
nach dem Studium eine intensive
Betreuung und beste Karrierechancen. Um möglichst viele Studenten
anzulocken, werben die Unis deshalb mit einem umfangreichen Angebot an Karriere-Events, Info-Veranstaltungen, Mentor-Programmen
und ihren guten Kontakten zur Wirtschaft.
So stellt die Zeppelin Universität in
Friedrichshafen auf ihrer Homepage
mehrere Alumni vor, die in Wirtschaft und Politik Karriere gemacht
haben und heute als Consultant arbeiten oder ein Unternehmen leiten.
Ein Ehemaliger hat es sogar zum
persönlichen Referenten von Bundesbildungsministerin Annette Schavan gebracht. Die damit verknüpfte
Botschaft: Wer sich im Kreis solcher
Männer und Frauen bewegt, muss
sich um seine berufliche Zukunft
keine Sorgen machen.
Doch nicht nur die Privatunis umgarnen ihre Ehemaligen. So manche
staatliche Hochschule ist ebenfalls
sehr aktiv. Die TU München etwa hat
ein Netzwerk mit 40.000 Alumni aufgebaut, von denen sich über 500 als
Mentoren engagieren. Mit „KontakTUM“ gibt man sogar ein eigenes
Alumni-Magazin heraus. Das Veranstaltungsprogramm umfasst Bewerbungstrainings, Sprachkurse, Karriereforen oder auch einen Entrepreneur-Workshop für Alumni, die sich
selbständig machen wollen.
ANZEIGENSEITE
(bleibt aus technischen Gründen leer)
WISU
1/13
49
WISU-KARRIERE
Eine gute Platzierung
auf den Ergebnisseiten von Suchmaschinen kann für
Unternehmen entscheidend sein. Hier
kommt die Suchmaschinenoptimierung
ins Spiel — ein neues
Betätigungsfeld, nicht
nur für IT-Experten.
SEO
Herr
übers
Suchergebnis
as Internet hat bereits für zahllose neue Berufe gesorgt — nicht
D
zuletzt für den Suchmaschinenoptimierer. Denn Studien belegen: Das
Gros der Suchenden begnügt sich
mit den Resultaten auf der ersten
Seite bei Google oder Bing, die wenigsten machen sich die Mühe, die
Folgeseiten aufzurufen. Die meisten konzentrieren sich sogar nur auf
die ersten drei angezeigten Links.
Mit anderen Worten: Websites, die
es nicht in die Top 10 — auf einer
Ergebnisseite tauchen normalerweise zehn „organische Suchergebnisse“ auf — oder noch besser in die
Top 3 schaffen, werden mit großer
Wahrscheinlichkeit ignoriert. Ein ähnliches Aufmerksamkeitsgefälle gibt
es Studien zufolge bei der Werbung:
Sponsored Links, die über den Suchergebnissen auftauchen, werden
wesentlich häufiger beachtet als
Werbung, die rechts neben den Suchergebnissen erscheint.
Allerdings sagen Statistiken wie diese nur die halbe Wahrheit. Denn erfahrene Suchmaschinennutzer —
und welcher Internet-Nutzer ist das
nicht? — haben ziemlich ausgeklügelte Strategien entwickelt. So gibt
kaum jemand auf, nur weil das gewünschte Ergebnis nicht unter den
WISU
50
1/13
ersten drei Treffern auftaucht. Ist
man bei der ersten Suche nicht fündig geworden, geben die meisten andere oder mehr Begriffe ein. So ist
jeder Suchvorgang meist eine Sequenz mehrerer Suchen mit unterschiedlichen Begriffen. Wobei bei jedem Suchschritt meist nur — siehe
oben — die jeweils erste Ergebnisseite beachtet wird.
Die Herausforderung für Unternehmen lautet deshalb, an die Spitze der
Ergebnislisten zu gelangen, wenn
Internet-Nutzer entsprechende Keywords eingeben. Gerade für mittelständische oder kleine Firmen, die
einen großen Teil des Umsatzes über
das Internet machen oder viele Kundenkontakte online herstellen, kann
eine gute Platzierung entscheidend
für den Erfolg sein. Außerdem spart
man sich die Ausgaben für OnlineWerbung, deren Wirksamkeit ohnehin kaum steuerbar ist.
Hingegen lässt sich eine gute Platzierung bei den organischen Suchergebnissen bis zu einem gewissen
Grad beeinflussen. Hier hilft die Suchmaschinenoptimierung bzw. Search
Engine Optimization (SEO) — wobei
es treffender wäre, von „Google-Optimierung“ zu sprechen, laufen hierzulande doch fast 90 Prozent der Anfragen über den Marktführer. Zahlreiche Agenturen bieten heute entsprechende Dienstleistungen an und
verschaffen Unternehmen aus fast
allen Branchen eine bessere Platzierung.
Suchmaschinenoptimierer müssen
allerdings mit einem großen Problem
fertig werden: Google hält die genaue Rezeptur seines Suchalgorithmus geheim. Über 200 Faktoren
werden angeblich bei der Auswahl
der „passendsten“ Suchergebnisse
herangezogen, die außerdem immer
wieder verändert und neu gewichtet werden. Der Marktführer gibt
zwar „Richtlinien für Webmaster“
und eine „Einführung in die Suchmaschinenoptimierung“ heraus. Die
Tipps und Hinweise sind aber ziemlich allgemein formuliert und dienen
offenbar vor allem dazu, die schwarzen Schafe der SEO-Branche von
unlauteren Praktiken abzuhalten.
So rät Google Webmastern etwa,
nicht zu viele Hyperlinks auf einer
Seite einzubauen — eine klare Warnung an die Betreiber von „Link-Farmen“ und die Verkäufer von „Russen-Links“, die ihren Kunden mit manipulierten Links eine bessere Platzierung zu verschaffen versuchen.
Google hat den Algorithmus ohnehin
mittlerweile so verändert, dass die
Zahl der Links, die auf eine Website
verweisen, nicht mehr so stark gewichtet wird. Stattdessen wurden
Websites, die viel Content bieten,
aufgewertet.
Weil der Suchmaschinen-Gigant ein
solches Geheimnis um seinen Algorithmus macht, besteht die Aufgabe
der Suchmaschinenoptimierer auch
darin herauszufinden, welche SEOMaßnahmen zum Erfolg führen und
welche von Google möglicherweise
mit einer schlechteren Platzierung
bestraft werden. Dabei helfen SEOTools und natürlich die altbewährte
„Trial and Error“-Methode.
Auch Spezial-Agenturen wie Searchmetrics untersuchen die Wirksamkeit von SEO-Maßnahmen, indem
sie riesige Datenmengen auswerten,
um mehr über die Ranking-Faktoren
zu erfahren. So kommt Searchmetrics zu dem — wenig überraschenden — Ergebnis, dass die sozialen
Medien einen immer größeren Einfluss auf die Platzierung von Suchergebnissen haben. Viele FacebookLikes und Tweets wirken sich also
günstig aus.
Gerade weil SEO eine Gleichung mit
vielen Unbekannten ist, hat die SEOBranche gut zu tun. Und da die Suchmaschinenoptimierung immer in Bewegung ist, haben nicht nur IT-Experten gute Chancen, hier einen Job
zu finden. Auch Wirtschafts- und sogar Geisteswissenschaftler werden
gern genommen — wichtig ist nur,
dass man netzaffin ist. Weil SEOAgenturen immer mehr zum umfassenden Berater werden und auch
Schulungen für die IT-Mitarbeiter der
Kunden durchführen, ist nicht nur
technisches Wissen, sondern unter
anderem auch Kommunikationstalent gefragt.
ANZEIGENSEITE
(bleibt aus technischen Gründen leer)
WISU
1/13
51
WISU-KARRIERE
TÜV für Abschlussarbeiten
ei wissenschaftlichen Arbeiten wurde bereits geschumB
melt, als man noch mit Zettelkästen arbeitete und die benötigten
Quellen nur in Bibliotheken zu finden waren. Doch seit es durch
Google und die Digitalisierung viel
einfacher geworden ist, relevante Texte zu finden und für die eigene Arbeit mittels Paste & Copy
anzuzapfen, ist das Abschreiben
ausgesprochen verlockend. Und
so mancher kann der Versuchung
nicht widerstehen. Laut Schätzungen finden sich in rund 90 Prozent
aller wissenschaftlichen Arbeiten
Indizien für abgekupferte Passagen, in 30 Prozent der Fälle erhärtet sich der Verdacht, und bei jeder zehnten Arbeit lassen sich Plagiate nachweisen.
Wer sind die beliebtesten Arbeitgeber
europäischer Absolventen? Die schwedische Firma Universum
hat 85.000 von ihnen
gefragt. An der Spitze
liegen ein InternetKonzern, ein Kosmetikspezialist und eine
WP-Gesellschaft.
Beliebteste Arbeitgeber
Google
ist nicht
zu schlagen
Hochschulen und Professoren haben den Kampf gegen das Plagiieas Unternehmen ist vielen unheimlich, sie halten es für einen
D
gigantischen Datenstaubsauger,
Plagiatjäger Uwe Kamenz
ren längst aufgenommen. Allerdings wird Anti-Plagiat-Software
wie Turnitin meist nur stichprobenartig eingesetzt, um die Schummler zu überführen.
inen anderen und eventuell
erfolgversprechenderen Weg
E
will jetzt der BWL-Professor und
Plagiatjäger Uwe Kamenz von der
FH Dortmund gehen. Er möchte
grundsätzlich alle wissenschaftlichen Arbeiten überprüfen und
setzt auf den Abschreckungseffekt flächendeckender Kontrollen.
Da es dafür jedoch nicht genügend Geld gibt, hat Kamenz Plan B
umgesetzt: Studenten können ihre Arbeit freiwillig und kostenlos
durch die an seinem Institut entwickelte Software prüfen lassen
und sich — hoffentlich — eine plagiatfreie Arbeit bescheinigen lassen. Eine Art AbschlussarbeitenTÜV, der — da Kamenz dabei auf
Spenden angewiesen ist — derzeit allerdings nur den Studierenden von fünf Hochschulen angeboten wird.
WISU
52
1/13
der gierig alle Informationen aufsaugt, die er bekommen kann, um
damit ein von niemandem zu kontrollierendes und jeden Winkel ausleuchtendes Daten-Imperium zu
errichten. Wegen seiner oft monopolartigen Stellung und fragwürdigen Geschäftspraktiken sind ihm
zudem in mehreren Ländern die
Kartellwächter auf den Fersen.
Die Rede ist natürlich von Google,
dem — laut einer Umfrage des
schwedischen Marken-Beratungsunternehmens Universum — beliebtesten Arbeitgeber unter Europas Wirtschaftsabsolventen. Dass
die Suchmaschinenfirma trotz ihres
schlechten Rufes bei Datenschützern und Wettbewerbshütern in
Arbeitgeber-Rankings regelmäßig
vorn liegt, dürfte vor allem mit den
dortigen Arbeitsbedingungen zu tun
haben. Die sollen nämlich geradezu paradiesisch sein: von flexiblen
Arbeitszeiten über freie Getränke
und Snacks bis zu Fitness-Räumen
und Lounges mit Massagesesseln,
Xbox und Tischfußball reicht das
Spektrum der Annehmlichkeiten.
An strenge Dresscodes, wie es sie
in anderen Firmen gibt, muss man
sich auch nicht halten. Es sei denn,
man hält Jeans und T-Shirt für eine
Art Kleiderordnung.
Während Google mit seiner entspannten und kreativen Arbeitsatmosphäre bei jungen Berufsein-
steigern punktet, stehen andere
Unternehmen wegen ihrer weltweit bekannten Produkte oder ihres internationalen Renommees
als Arbeitgeber hoch im Kurs. Wie
etwa der Zweit- und der Drittplatzierte des Rankings, der französische Kosmetikkonzern L’Oréal sowie die WP-Gesellschaft Ernst &
Young.
Insgesamt wurden für die Studie
85.000 Absolventen der Wirtschaftsund der Ingenieurwissenschaften
befragt. Während bei den Wiwis
Prüfungs- und Beratungsunternehmen die Top 15 dominieren — neben Ernst & Young finden sich dort
auch noch KPMG (5.), McKinsey (7.),
PricewaterhouseCoopers (9.), The
Boston Consulting Group (11.) und
Deloitte (15.) —, sind es bei den Ingenieuren IT-Konzerne wie IBM,
Google und Microsoft. Auch die
Konsumgüterindustrie ist bei den
Wirtschaftsabsolventen stark ganz
oben in der Rangliste vertreten.
Außer L’Oréal haben es Procter &
Gamble (4.), Unilever (8.), Nestlé
(12.) und Coca-Cola (14.) unter die
Top 15 geschafft.
Bestplatziertes deutsches Unternehmen ist BMW (6.), das bei den
Ingenieuren sogar die Spitzenposition innehat. Weitere deutsche
Vertreter unter den Top 50 sind die
Deutsche Bank (16.), Adidas (19.),
Volkswagen (25.), Siemens (26.),
Bosch (35.), Henkel (37.), Daimler
(41.), Roland Berger (43.) und die
Allianz (48.).
Die Top 15
1. Google
2. L’Oréal
3. Ernst & Young
4. Procter & Gamble
5. KPMG
6. BMW
7. McKinsey & Company
8. Unilever
9. PricewaterhouseCoopers
10. Microsoft
11. The Boston Consulting Group
12. Nestlé
13. IKEA
14. The Coca-Cola Company
15. Deloitte
Interessant, was den Europäern bei
der Wahl ihrer Lieblingsfirmen besonders wichtig ist. Während bei
Deutschen, Polen und Russen ein
sicherer Arbeitsplatz im Vordergrund steht, sind es bei Franzosen,
Italienern und Spaniern Internationalität und die Aussicht auf Auslandsreisen — angesichts der hohen Arbeitslosigkeit in Südeuropa
eine kleine Überraschung.
ANZEIGENSEITE
(bleibt aus technischen Gründen leer)
WISU
1/13
53
WISU-KARRIERE
Die
Gehaltslücke
uf dem deutschen ArbeitsA
markt gibt es bei den Gehältern nicht nur ein West-Ost-Gefälle, sondern bekanntlich auch ein
Gefälle zwischen den Geschlechtern: Frauen bekommen für gleiche Arbeit meist weniger Geld als
Männer. Begründet wird dies unter anderem damit, dass Frauen
wegen der Kindererziehung oft
weniger Berufserfahrung sammeln
können.
Auch bei MBA-Absolventen ist es
in den letzten Jahren zu einer Gehaltslücke zwischen Männern und
Frauen gekommen. Erhielten die
Absolventinnen renommierter USBusiness-Schools 2002 noch 98
Prozent des Durchschnittsgehalts
ihrer männlichen Kollegen, beträgt die Schere nach zehn Jahren
93 Prozent. Zu diesem Ergebnis
Business School News
Vor verschlossenen Türen
Auch in den USA gibt es schwarze Schafe auf
dem Markt für Business-Ausbildung. Das
mussten die Studenten der Butler Business
School im US-Bundesstaat Connecticut feststellen, als sie nach der Rückkehr aus den
Weihnachtsferien vor verschlossenen Türen
standen: Die private Einrichtung hatte ohne
Vorwarnung Konkurs angemeldet und den
Betrieb eingestellt. Ob die Studenten ihre bereits gezahlten Studiengebühren zurückbekommen, ist noch unklar. Die Butler Business
School, an der man keinen Hochschulabschluss, sondern nur Fortbildungszertifikate erwerben konnte, hat damit gegen ein Gesetz des Bundesstaats
verstoßen, wonach sie den drohenden Konkurs 60 Tage vor der Schließung
hätte ankündigen müssen.
MBAs und Luxusgüter
Während viele MBA-Absolventen seit der Finanzkrise einen Bogen um die Finanzbranche machen, entscheiden sich immer mehr für eine Karriere in der
Mode- und Luxusgüterindustrie (s. WISU 10/12, S. 1276). Das merken nicht
nur B-Schools, die — wie die ESSEC — entsprechend spezialisierte MBAProgramme anbieten. Auch die Absolventen allgemeiner MBA-Programme entdecken zunehmend diese Branchen für sich. So wurden zuletzt
mehrere erfolgreiche Mode-Startups im Internet von frischgebackenen
MBA-Eleven gegründet. Etwa die beiden Online-Shops Quincy Apparel und
The Fold, die von Absolventinnen der Harvard Business School bzw. der London Business School aus der Taufe gehoben wurden.
Zurück nach Afrika
kommt das amerikanische Wirtschaftsmagazin „Bloomberg Businessweek“, das regelmäßig tausende Absolventen der 30 besten
Business Schools in den USA befragt.
A
llerdings gibt es große Unterschiede zwischen den einzelnen Management Schools. So beziehen Absolventinnen der „Class
of 2012“ von Stanford nur 79 Prozent des Durchschnittsgehalts eines männlichen Stanford-MBAs,
an der Cox School of Business der
Southern Methodist University erhalten sie jedoch 103 Prozent.
Die zunehmende Gehaltslücke ist
auf die unterschiedlichen Karrierewege männlicher und weiblicher
B-School-Absolventen zurückzuführen. Vor allem das Investment
Banking — das allerdings auch bei
männlichen MBAs stark an Attraktivität verloren hat — wird trotz der
hohen Gehälter, die dort gezahlt
werden, immer mehr von Frauen
gemieden: Suchten sich 2002 hier
noch 29 Prozent der Absolventinnen einen Job, waren es 2012 nur
noch 16 Prozent.
WISU
54
1/13
Der schwarze Kontinent hat Zukunft (vgl. WISU 12/12, S. 1535). Das wissen
auch diejenigen aus afrikanischen Ländern, die in den USA oder Europa einen MBA machen. 70 Prozent von ihnen planen, nach dem Abschluss in ihre
Heimat zurückzukehren. Das hat die ghanaische Private-Equity-Firma Jacana
Partners herausgefunden. Die Hälfte der Rückkehrwilligen wollen sich mit
einer eigenen Firma selbständig machen, die meisten in der Konsumgüteroder Finanzindustrie.
GMAT hat die Nase vorn
Immer mehr Business Schools in den USA bieten Bewerbern die Alternative,
entweder den Graduate Management Admissions Test (GMAT) oder das
Graduate Record Exam (GRE) abzulegen: Waren es 2009 nur 24 Prozent der
B-Schools, sind es heute 69 Prozent, die beide Tests akzeptieren. Kaplan
Test Prep, eine Organisation, die MBA-Bewerber auf GRE und GMAT vorbereitet, hat jedoch festgestellt, dass 2012 an fast der Hälfte der untersuchten
Business Schools noch nicht einmal jeder zehnte Bewerber ein GRE-Ergebnis vorlegte. Das dürfte sich vor allem damit erklären, dass 29 Prozent der BSchools angaben, den GMAT dem GRE vorzuziehen.
Darden: Kostenloser Online-Kurs
Ed Hess, Professor an der Darden School of
Business der University of Virginia, hat einen
ungewöhnlichen Rekord aufgestellt: Sein
kostenloser Online-Kurs „Smart Growth for
Private Businesses“ wird von knapp 50.000
Teilnehmern belegt — das sind mehr Studenten, als in der fast 60-jährigen Geschichte
dieser B-School ein MBA-Studium abgeschlossen haben. Der „Massively Open Online Course“ ist Teil des Angebots der neuen
Online-Universität Coursera, die Mitte letzten
Jahres ihre Pforten öffnete. Auch andere Business Schools bieten dort Kurse
an. Zertifikate und Studienabschlüsse können bei Coursera allerdings nicht
erworben werden.
ANZEIGENSEITE
(bleibt aus technischen Gründen leer)
WISU
1/13
55
ANZEIGENSEITE
(bleibt aus technischen Gründen leer)
WISU
56
1/13
wisu
Kompakt
BASISWISSEN BWL
Personalcontrolling
er demografische Wandel, der Fach- und FührungsD
kräftemangel, neue Technologien, die steigende internationale Mobilität der Arbeitskräfte und der weltweite
Wettbewerbsdruck — all dies führt dazu, dass Personal
eine immer wichtigere Ressource wird. Damit ist das
Personalwesen nicht mehr wie früher eher administrativ,
sondern zunehmend strategisch orientiert (vgl. Wunderer, S. 299).
Der Kostensenkungs- und Rechtfertigungsdruck steigt
und Personal wird zu einem knappen Erfolgsfaktor (vgl.
Elšik, S. 407). Man erwartet vom Personalmanagement,
dass es einen wesentlichen Beitrag zur Wertschöpfung
im Unternehmen leistet (vgl. Gmür/Peterhoff, S. 235; Nicolai, S. 3 f.). Damit werden auch Informationen zum Wert
des Personals und der Personalarbeit immer wichtiger,
außerdem spielen ökonomische Ziele zunehmend eine
Rolle beim Personalmanagement.
Personalcontrolling als Antwort
Das Personalcontrolling, wie es sich in den achtziger Jahren entwickelt hat, unterstützt die ökonomische und strategische Orientierung des Personalmanagement und verdeutlicht so dessen den Beitrag zum Unternehmenserfolg.
Es befasst sich
— mit dem Personal bzw. seinem Einsatz (faktororientiertes Personalcontrolling) und
— mit der Personalarbeit (prozessorientiertes Personalcontrolling; vgl. Festerling/Möller, S. 868).
Es gibt viele Definitionen des Personalcontrollings (vgl.
Wimmer/Neuberger, S. 510 ff.). Bei enger Definition beschränkt es sich auf konkrete Funktionen, z.B. auf „die
auf den Erfolg der Unternehmung ausgerichtete Planung,
Kontrolle und Steuerung personalwirtschaftlicher Maßnahmen“ (Berthel, S. 1441). Bei weiter Definition kommt
es zu Überschneidungen mit dem Personalmanagement,
etwa wenn das Personalcontrolling dafür sorgen soll,
dass „personalwirtschaftliche Entscheidungen und Maßnahmen zu den Unternehmenszielen und den überwiegend
daraus abgeleiteten personalwirtschaftlichen Zielsetzungen beitragen“ (Scherm, S. 311).
Die Aufgaben des Personalcontrollings leiten sich aus den
klassischen Controlling-Aufgaben Planung, Kontrolle und
Steuerung ab (vgl. Wimmer/Neuberger, S. 620) und berücksichtigen Wirtschaftlichkeits- und Wertschöpfungsüberlegungen beim Personalmanagement. Sie umfassen
— die Evaluation und Bereitstellung von personalwirtschaftlichen Informationen zur Entscheidungsunterstützung und Effizienzüberprüfung,
— die Koordination des Personalmanagements mit
dem Gesamtunternehmen,
— die Integration personalwirtschaftlicher und unternehmerischer Ziele sowie
— die Planung, Steuerung und Kontrolle einschließlich der Früherkennung und Transparenz von personalwirtschaftlichen Chancen und Risiken (vgl. Scherm,
S. 311; Berthel, S. 1443).
Das Personalcontrolling hat eine ökonomische, reflexionsorientierte, strategische, legitimatorische und politische
Perspektive.
Ökonomische Perspektive
Ausgangspunkt der ökonomischen Perspektive ist der
Ökonomisierungsdruck und die Erwartung, dass das
Personalmanagement einen Beitrag dazu leistet, dass das
Unternehmen seine Ziele erreicht (vgl. Scherm, S. 311).
Im Zentrum steht die Bewertung der Wertschöpfung
von Personal und Personalarbeit (vgl. Gmür/Peterhoff,
S. 235).
Personalwirtschaftliche Aktivitäten müssen mithilfe ökonomischer Ziele und Instrumente gesteuert werden, da
die Leistung der Mitarbeiter in einem Zweck-Mittel-Zusammenhang zum Unternehmenserfolg steht. Dabei werden Kosten, Wirtschaftlichkeit und Rentabilität miteinbezogen. Diese Dreistufigkeit findet sich in der Differenzierung nach Kosten-, Effizienz- und Effektivitätscontrolling wieder, wie man sie in der Literatur findet (vgl.
z.B. Berthel, S. 1445 f.; Festerling/Möller, S. 867;
Scherm/Süß, S. 223 ff.).
Strategische Perspektive
Die strategische Perspektive beruht auf der zunehmend
unternehmerischen Bedeutung des Personalmanagements
(vgl. Wunderer, S. 298), wonach Personal als strategischen Erfolgsfaktor gesehen wird. Das Personalcontrolling hat hier die Aufgabe, personalwirtschaftliche Strategien mit den Unternehmenszielen abzustimmen bzw. sowohl das Personal als auch die Personalarbeit in strategische Unternehmensentscheidungen einzubinden (vgl.
Elšik, S. 408). Damit soll die strategische Bedeutung des
Personals im Unternehmen erkannt und beachtet werden
(vgl. Berthel, S. 1444).
Entsprechend wird — wie beim Controlling — von operativem und strategischem Personalcontrolling gesprochen. Während das operative Personalcontrolling kurzfristige alltägliche Aufgaben des Personalmanagements
unterstützt, geht es beim strategischen Personalcontrolling um die Unterstützung der langfristigen Unternehmensentwicklung. Hier stehen die enge Abstimmung der
Planung, Steuerung und Koordination des Personals sowie personalwirtschaftlicher Maßnahmen mit den Personalmanagement- und Unternehmenszielen im VorderWISU
1/13
57
WISU-KOMPAKT
grund. Das zeigt den strategischen Beitrag des Personals und der Personalarbeit bei der Erreichung der Unternehmensziele (vgl. Festerling/Möller, S. 868).
Reflexionsorientierte Perspektive
Was die reflexionsorientierte Perspektive anbelangt, unterstützt das Personalcontrolling die Führung des Unternehmens (vgl. Scherm/ Pietsch, S. 46). Dabei geht es um
die systematische Reflexion personalwirtschaftlicher Entscheidungen, die erforderlich ist, um rationale Entscheidungen im Unternehmen sicherzustellen (vgl. Gmür/Peterhoff, S. 235).
Entsprechend werden personalwirtschaftliche Entscheidungen hinsichtlich ihrer Konsequenzen für das Personalmanagement und das Unternehmen hinterfragt (vgl.
Scherm/Süß, S. 221). Damit dient das Personalcontrolling der Komplexitätsbewältigung und unterstützt die Unternehmensleitung bei Entscheidungen und deren Reflexion zum Personaleinsatz und zur Personalarbeit (vgl.
Festerling/Möller, S. 868; Scherm/Süß, S. 222).
Legitimatorische Perspektive
Diese Perspektive ist Folge des mit der Ökonomisierung
verbundenen Drucks, wobei das Personalmanagement
seinen Beitrag zum Unternehmenserfolg auch nachweisen muss (vgl. Gmür/Peterhoff, S. 235). Angesichts
der Besonderheiten des Faktors Personal ist es jedoch
nicht leicht, die Beiträge und eindeutige Ursache-/Wirkungszusammenhänge konkret festzustellen (vgl. Pietsch,
S. 181).
Das Personalmanagement versucht deshalb, mit dem
Personalcontrolling ein Instrument bereitzustellen, das
die personalwirtschaftlichen Entscheidungen rechtfertigt, um so seine eigene Stellung zu verbessern und seine Existenz zu sichern. So gesehen hat das Personalcontrolling nicht nur operativ-praktische Relevanz, sondern verfolgt auch einen legitimatorischen Zweck, da es
dem Personalmanagement zu Akzeptanz und Ressourcen verhilft. Aufgrund seiner ökonomischen Fundierung
und der Erwartung, dass rational gehandelt wird, stärkt
das Personalcontrolling die Argumentation des Personalmanagements.
Politische Perspektive
Im Mittelpunkt der politischen Perspektive steht die Annahme, dass die Akteure in den Unternehmen eingeschränkt rational handeln, zudem versuchen, ihre individuellen Interessen und Ziele zu realisieren und nach
Macht streben. Dabei werden vorhandene Freiräume genutzt. Mithilfe des Personalcontrollings können die Akteure eigene Interessen und Ziele verfolgen, Macht gewinnen und Einfluss auf Entscheidungen nehmen. Informationen über das Personal lassen sich politisch einsetzen, indem sie z.B. gefiltert, manipuliert, verschleiert, vorgetäuscht und zurückgehalten werden. So gesehen ist
Personalcontrolling auch ein Instrument, die Macht- und
Verhandlungsposition des Personalmanagements zu verbessern, womit es eine politische Funktion erfüllt (vgl.
Wimmer/Neuberger, S. 602 ff.).
Instrumente
Da beim Personalcontrolling quantitative und qualitative
Informationen erhoben und verarbeitet werden, kann auch
zwischen quantitativen und qualitativen Instrumenten
differenziert werden.
Bei der Evaluierung der Auswirkungen personalwirtschaftlicher Entscheidungen auf den Unternehmenserfolg werden vor allem quantitative Instrumente genutzt:
— Mithilfe der Kosten- und Leistungsrechnung wird die
Wirtschaftlichkeit des Personals und des Personalmanagements erfasst (vgl. Festerling/Möller, S. 869). Dabei wird vorrangig eine Quantifizierung sowie bestenWISU
58
1/13
falls eine Monetarisierung angestrebt, indem in der
Regel vergangenheitsbezogene Daten wie Personalkosten, Leistungsstunden, Fluktuationsraten oder Abwesenheitszeiten erhoben werden.
— Wirtschaftlichkeits- und Rentabilitätsberechnungen
finden im Rahmen der Investitionsrechnung Eingang
in das Personalcontrolling und gehen über eine reine Kostenbetrachtung hinaus (vgl. Festerling/Möller,
S. 869).
— Die Bewertbarkeit des Personals steht im Mittelpunkt
mathematisch komplexer Modelle zur Humanvermögensrechnung. Dabei wird auf die ökonomische
Bedeutung des Personals im Sinne eines Vermögenswertes abgestellt (vgl. Pietsch, S. 179 f.).
Qualitative Instrumente sind
— Potenzial- und Portfolioanalysen, die sich beispielsweise auf die (künftige) Leistung des Personals beziehen (vgl. Berthel, S. 1450),
— Leistungsbeurteilungen oder Mitarbeitergespräche
(vgl. Festerling/Möller, S. 869) sowie
— das Benchmarking, mit dessen Hilfe Personalmanagementprozesse bewertet werden. Dabei orientiert
man sich an hervorragenden Vorbildern (Best Practice)
innerhalb oder außerhalb des Unternehmens (vgl. Berthel, S. 1448 f.).
Probleme
Die Controlling-Instrumente bringen jedoch auch einige
Herausforderungen mit sich.
— So besteht eine Besonderheit des Personals darin,
dass es kein passives Objekt ist, sondern aktiv über
seine Arbeitsleitung bestimmt und dabei (auch) individuelle Interessen verfolgt, die angesichts der unternehmerischen Interessen zu Konflikten führen können (politische Perspektive). Damit ist eine rationale
Planung, Steuerung und Kontrolle (der Leistung) des
Personals, wie sie aus ökonomischer Sicht gefordert
wird, nicht möglich.
Stattdessen lässt sich die Leistung des Personals
vom Unternehmen nicht vollständig bestimmen (vgl.
Elšik, S. 406). Das gilt auch, wenn das Personalmanagement das Personalcontrolling nutzt, um sich zu
legitimieren und dabei Effizienz- und Effektivitätsziele außer Acht lässt (legitimatorische Perspektive).
— Das Personalcontrolling zeichnet sich durch Datenerhebungs- bzw. Messprobleme aus, die deshalb auftreten, weil sich Personal und Personalarbeit nicht
immer quantitativ (eindeutig) erfassen lassen. Es sind
auch qualitative Informationen erforderlich, die sich jedoch oftmals nicht (direkt) messen lassen, sondern
unscharf und interpretationsbedürftig sind (vgl. Elšik,
S. 406). Das kann dazu führen, dass sich die strategische Bedeutung des Personals nicht aufzeigen lässt
(strategische Perspektive) und Interpretations- und
Handlungsspielräume für politische Zwecke genutzt
werden (politische Perspektive).
Wegen der Schwierigkeiten, qualitative und quantitative Informationen zu erheben, lassen sich Zielerreichungs- oder -abweichungsgrade nur eingeschränkt bestimmen (vgl. Scherm, S. 311), was wiederum die vergangenheitsorientierte Reflexion
erschwert (reflexionsorientierte Perspektive).
— Da sich Kausalzusammenhänge nicht immer sicher
nachweisen lassen, können die Wertbeiträge des Personals einzelnen personalwirtschaftlichen Entscheidungen bzw. Maßnahmen nicht eindeutig zugerechnet werden. Da der Unternehmenserfolg viele
Ursachen hat, lässt sich nicht genau abzugrenzen,
welcher Wertbeitrag auf das Personal und die Personalarbeit entfällt (Attributionsproblem).
Außerdem wirken personalwirtschaftliche Maßnahmen erst mit zeitlicher Verzögerung, weshalb ihr Erfolg schwer zu antizipieren ist (Prognoseproblem; vgl.
Pietsch, S. 181). Aufgrund dessen sind sowohl die
WISU-KOMPAKT
ÖKONOMIK
INTERAKTIV
Hier werden ökonomische Modelle erläutert und
Aufgaben gestellt. Die ausführlichen Lösungen
finden sich im WISU-Abonnentenbereich im Internet (www.wisu.de). Dort können auch interaktiv Veränderungen der Parameter vorgenommen
und ihre Auswirkungen auf das Ergebnis beobachtet werden.
Niveauproduktionsfunktion
und Skalenertrag
Output bei einer Verdoppelung der Faktorausstattung zu messen, berechnet man also g(2). Der Anstieg der Niveauproduktionsfunktion g'(s) =  X   s
wird Skalenertrag genannt und entspricht somit dem
Grenzertrag eines Bündels aller Faktoren bei konstanter Faktorintensität. Steigende Skalenerträge
(Economies of Scale) weisen auf Betriebsgrößenvorteile bei der Produktion hin, sinkende Skalenerträge
(Diseconomies of Scale) bedeuten dagegen, dass
kleinere Betriebe produktiver sind.
- Wie lautet die Niveauproduktionsfunktion für
X = A . K ?
- Hsieh (vgl. Hisieh, S. 286) schätzte für diese Funktion die Produktionselastizitäten  und  von verschiedenen Branchen in den USA (s. Abb.). Im Inernet lässt sich der Verlauf der Skalenerträge für
die einzelnen Industriezweige bestimmen.
m die Produktion in einem Betrieb bei gegebener
Technologie zu steigern, muss die Einsatzmenge
U
an Produktionsfaktoren erhöht werden. Formal wird
dieser Zusammenhang durch eine Produktionsfunktion dargestellt: z.B. X = f(A,K) mit X als Output und
Arbeit A bzw. Kapital K als Input. Die Auswirkung
einer partiellen Faktorvariation misst der Grenzertrag, der die Output-Steigerung bei Mehreinsatz
eines Faktors bei Konstanz der übrigen Input-Mengen angibt. Dies entspricht den partiellen Ableitungen
der Produktionsfunktion nach dem variierten Faktor.
So gibt es also den Grenzertrag der Arbeit  X   A
bzw. den Grenzertrag des Kapitals  X   K .
Bei der partiellen Variation wird die Betriebsgröße
durch die Kapazität der fixen Faktoren beschränkt.
Um die Auswirkung einer Betriebsgrößenvariation vollständig zu erfassen, muss eine totale Faktorvariation betrachtet werden. Die Effekte willkürlicher simultaner Änderungen aller Input-Mengen lassen sich jedoch nicht sinnvoll miteinander vergleichen. Deshalb
wird als Referenzpunkt eine bestimmte Faktorintensität (Relation der Input-Mengen) vorgegeben und bei
der Faktorvariation beibehalten. Alle Faktoreinsatzmengen werden damit proportional zueinander verändert. Betragen die Input-Mengen in der Ausgangslage A1 und K1, lässt sich die Output-Menge bei
gleichzeitiger Steigerung aller Faktoren um das s-fache bestimmen aus:
X = f(s.A , s.K ) = g(s),
1
1
mit s > 0, wobei A1 = konstant, K1 = konstant und
g(1) = f(A1, K1). Die Variable s heißt Prozessniveau
oder Skalenniveau und die Funktion g(s) wird als
Niveauproduktionsfunktion bezeichnet. Um den
Legitimität des Personalmanagements (legitimatorische
Perspektive) als auch die Reflexion personalwirtschaftlicher Entscheidungen gefährdet (reflexionsorientierte Perspektive).
Der Nutzen ist unbestritten
Die Diskussion um das Personalcontrolling zeigt, welche
Relevanz es hat. Trotz der Probleme ist der Nutzen des
Personalcontrollings für das Personalmanagement, aber
auch für das Unternehmen, unbestritten. Er besteht darin, dass rationales Verhalten gesichert, die strategische
Bedeutung des Personals und des Personalmanagements wahrgenommen wird, eine Reflexion stattfindet
und sich die Legitimation erhöht.
Dipl.-Kffr. Linda Amalou/
Prof. Dr. Stefan Süß, Düsseldorf
Abb.: Schätzungen der Produktionselastizitäten
von Arbeit und Kapital für Industriezweige in den USA
(Quelle: Hsieh, S. 286)
Prof. Dr. Andreas Thiemer, Kiel
Literatur:
Hoyer, W./Eibner, W.: Mikroökonomische Theorie. 4. Aufl.,
Stuttgart 2011.
Hsieh, W.-J.: Test of Variable Output and Scale Elasticities for 20 US Manufacturing Industries. In: Applied
Economics Letters, Vol. 2 (1995), S. 284 ff.
Wied-Nebbeling, S./Schott, H.: Grundlagen der Mikroökonomik. 4. Aufl., Berlin et al. 2007.
Literatur:
Berthel, J.: Personalcontrolling. In: Gaugler, E. et al. (Hrsg.):
Handwörterbuch des Personalwesens. 3. Aufl., Stuttgart
2004, S. 1441 ff.
Elšik, W.: Personal-Controlling und strategisches Personalmanagement. In: Zeitschrift für Personalforschung, 4. Jg.
(1990), S. 403 ff.
Festerling, S./Möller, K.: Personalcontrolling. In: Scholz, C.
(Hrsg.): Vahlens Großes Personallexikon. München 2009,
S. 867 ff.
Gmür, M./Peterhoff, D.: Überblick über das Personalcontrolling. in: Schäffer, U. et al. (Hrsg.): Bereichscontrolling.
Funktionsspezifische Anwendungsfelder, Methoden und
Instrumente. Stuttgart 2005, S. 235 ff.
Nicolai, C.: Personalmanagement. 2. Aufl., Stuttgart 2009.
Pietsch, G.: Humankapitalbewertung im Personalcontrolling
— Jenseits der Verantwortlichkeitserosion. In: ZfCM Controlling & Management, 52. Jg. (2008), S. 179 ff.
WISU
1/13
59
WISU-KOMPAKT
Scherm, E.: Personal-Controlling. Eine kritische Bestandsaufnahme. In: Die Betriebswirtschaft, 52. Jg. (1992), S.
309 ff.
Scherm, E./Pietsch, G.: Erfolgsmessung im Personalcontrolling — Reflexionsinput oder Rationalitätsmythos? In: Zeitschrift für Betriebswirtschaftliche Forschung und Praxis,
57. Jg. (2005), S. 43 ff.
Scherm, E./Süß, S.: Personalmanagement. 2. Aufl., München
2010.
Wimmer, P./Neuberger, O.: Personalwesen 2. Personalplanung, Beschäftigungssysteme, Personalkosten, Personalcontrolling. Stuttgart 1998.
Wunderer, R.: Entwicklungstendenzen im Personal-Controlling und der Wertschöpfungsmessung. In: Personal: Zeitschrift für Human Resource Management, 52. Jg. (2000),
S. 298 ff.
BASISWISSEN WIRTSCHAFTSINFORMATIK
Prozesse in der Wirtschaftsinformatik
ufgabe der Wirtschaftsinformatik als interdisziplinäA
rer Wissenschaft zwischen Betriebswirtschaftslehre und Informatik ist die Analyse, Gestaltung und
Nutzung von Informationssystemen (vgl. Seidlmeier,
S. 1439). Doch wie drückt sich diese Interdisziplinarität
— vor allem in der betrieblichen Praxis — aus?
Letzteres — auch als Business-/IT-Alignment bekannt —
scheint ein „Dauerbrenner“ in den Fach- und IT-Abteilungen zu sein. Das „Praxisproblem“ findet seine Entsprechung — was nicht überrascht — auch in der Lehre.
Denn natürlich ist es beispielsweise sinnvoll, ein Datenbanksystem (Informatik) bei großer Kundenzahl im Marketing (Wirtschaft) einzusetzen. Legt man jedoch —
überspitzt ausgedrückt — ein IT- neben ein MarketingLehrbuch, ergibt sich daraus noch keine Wirtschaftsinformatik. Die Frage ist, was beides zusammenführt. Was ist
der „Missing Link“?
Hinweise finden sich bei den betrieblichen Prozessen.
Worum handelt es sich dabei? Was haben sie mit der Interdisziplinarität der Wirtschaftsinformatik zu tun?
Prozess und Prozessarten
An Prozessdefinitionen herrscht kein Mangel (vgl. etwa
Allweyer, S. 38 ff.; Fischermanns, S. 12 ff; Stahlknecht/
Hasenkamp, S. 206 ff.). Sieht man von Nuancen ab, wird
ein Prozess-Input zielorientiert in einen Output transformiert. Das Wesen des Prozesses liegt in der Veränderung im Zeitablauf. Zur Transformation werden Ressourcen benötigt. Die Umwandlung vollzieht sich — zwischen dem eindeutigen Prozessanfang und -ende —
durch eine Reihe festgelegter Prozessschritte.
Für Unternehmensprozesse oder betriebliche Prozesse
gilt beispielhaft: Aufgrund eines Auftrags (Input) entsteht
ein Produkt (Output). Diese Leistungserstellung (Transformation) benötigt typischerweise Mitarbeiter, Maschinen, Material, Finanzmittel, Informationen etc. Es bestehen (un-/dokumentierte) Arbeitsanweisungen (auch in
Form von Prozessmodellen). Am Anfang steht und am
Ende wartet immer ein den Prozess auslösender externer oder interner Kunde, womit Prozessorientierung
immer Kundenorientierung ist.
Man unterscheidet zwischen verschiedenen Arten von
Unternehmensprozessen:
— Geschäftsprozesse dienen dem Geschäftszweck, erzeugen also die eigentlichen Unternehmensleistungen
und damit den Kundennutzen bzw. Wert (z.B. Auftragsbearbeitung, Produktion, Logistik). Zu den Geschäftsprozessen können auch Prozesse gerechnet
WISU
60
1/13
werden, die für das Unternehmen von erfolgskritischer Bedeutung sind (Forschung und Entwicklung,
Strategie).
— Unterstützungsprozesse führen zu keinem direkten
Kundennutzen. Sie dienen aber der Durchführung und
Aufrechterhaltung von Geschäftsprozessen (Angebotsabgabe, Instandhaltung, Gehaltsabrechnung etc.).
— Geschäfts- und Unterstützungsprozesse werden durch
Führungsprozesse geplant, gesteuert und kontrolliert,
bei denen es sich in der Regel um rein informationsverarbeitende Prozesse handelt (Produktionsplanung,
Controlling etc.). Geschäfts- und Unterstützungsprozesse können Informationen verarbeiten und Material verbrauchen. Am Ende entstehen informatorische
oder materielle Leistungen (Prozess-Output).
Neben der „Wertschöpfung“ gibt es weitere Unterscheidungskriterien wie Strukturierungsgrad, Wiederholfrequenz, organisatorische Reichweite, Prozessumfang und
Prozessdauer.
Prozesse verbinden Wirtschaft und Informatik
Um zu zeigen, weshalb Prozesse bzw. Prozessmodelle
geeignet sind, die Brücke zwischen Informatik und Betriebswirtschaft zu schlagen, kann man auf bekannte
Überlegungen zurückgreifen:
Betriebliche computergestützte Informationssysteme
sind der zentrale Erkenntnisgegenstand der Wirtschaftsinformatik. Sie haben immer den Zweck, Unternehmensprozesse zu unterstützen, indem sie Planungs-, Steuerungs- und Kontrollinformationen bereitstellen.
Ausgangspunkt der Analyse und Gestaltung von Informationssystemen sind — im Rahmen der Systementwicklung — die Systemanforderungen der künftigen Benutzer, die sich — zumindest zum Teil und im Überblick
— aus den zu unterstützenden Prozessen ableiten lassen. Weist man die Systementwicklung eher der Informatik und die Definition der Anforderungen eher der
Wirtschaft zu, sind Unternehmensprozesse das Verbindungsglied. Prozesse enthalten die fachlichen (betrieblichen) Anforderungen und kommunizieren diese
verständlich an den Systementwickler (siehe unten).
Um interdisziplinär zusammenarbeiten zu können, muss
von Wirtschaft und Informatik ein gemeinsames, von
beiden verstandenes und akzeptiertes Prozessmodell
zugrundegelegt werden. Können Betriebswirte und Informatiker dies nicht allein bewerkstelligen, ist der Wirtschaftsinformatiker gefordert, indem er z.B. die notwendigen Prozessmodelle gestaltet und die kooperative Modellierung begleitet.
WISU-KOMPAKT
Prozessorientierte Wirtschaftsinformatik
Prozessmodelle schaffen zunächst eine für beide Seiten
verständliche Kommunikationsgrundlage: Man spricht
über das Gleiche. Dies gelingt jedoch nur, wenn Modelle
verwendet werden, die sowohl von Informatikern als auch
von Betriebswirten verstanden werden. Dies ist umso
eher der Fall, wenn die Prozessmodelle gemeinsam entwickelt werden.
Prozessmodelle sind zudem eine geeignete Grundlage,
um Informationssysteme zu entwickeln — und damit das
„Kerngeschäft“ der Wirtschaftsinformatik. Das Modell
zeigt auf einen Blick die zu unterstützenden Funktionen,
die Systemnutzer und die zu verarbeitenden Informationen. Das Modell muss dann für die Systementwicklung verfeinert oder durch Detaillierungsmodelle ergänzt
werden.
— Funktionen können genauer modelliert werden, etwa
um die automatisierbaren Schritte zu bestimmen und
zwischen Eingabe-, Verarbeitungs- und Ausgabefunktionen zu unterscheiden. Damit werden die funktionalen Anforderungen im Rahmen des Requirements
Engineering deutlich.
— Die Modellierung der Organisationsseite lässt sich
erweitern, indem z.B. Benutzergruppen und Zugriffsrechte festgelegt werden. Dokumente können
mit Entity-Relationship-Modellen zur Datenstrukturierung und zur nachfolgenden Datenbankentwicklung hinterlegt werden.
— Damit ein Mitarbeiter der IT-Abteilung den MarketingLeiter versteht, wenn dieser sagt, er benötige ein System, das die Werbekampagnen unterstützt, ist es notwendig, dass die Werbekampagne als Prozess mit
Arbeitsschritten, Beteiligten und notwendigen Informationen begriffen wird.
Die Modellierungsmethodik ARIS
Wie kommen Wirtschaft und Informatik nun konkret zusammen? Wie muss ein Prozessmodell aussehen? Ein
passender Modelltyp ist die ereignisgesteuerte Prozesskette (EPK; vgl. Scheer, S. 124 ff.; Seidlmeier 2010,
S. 79 ff.).
Abb. 1 zeigt einen Prozess als ereignisgesteuerte Prozesskette. Man erkennt die Start- und Endereignisse und
die Prozessschritte (in der EPK: „Funktionen“; vgl. zu
den Bestandteilen der EPK auch die vorige Prozessdefinition). Weiterhin verdeutlicht das Modell, dass jeder
Prozessschritt ein ausführendes Organisationselement
benötigt (außer es handelt sich um einen vollautomatisierten Schritt), z.B. einen Mitarbeiter, eine Stelle oder
eine Abteilung. Weiterhin benötigt oder erzeugt jeder
Schritt Informationen (in papiergebundener oder digitaler Form). Informations- bzw. Anwendungssysteme können die Prozessschritte dabei unterstützen.
Charakteristisch für die ARIS-Modellierungsmethodik
(Architektur integrierter Informationssysteme) — die EPK
ist nur ein Modelltyp unter diesem „Methodendach“ —
ist die Unterteilung der Prozesse in eine Funktions-, Organisations- und Daten-(Informations-)sicht. Für jede
Sicht stehen zahlreiche passende Modelltypen zur Verfügung.
Die drei Sichten sind die Bausteine für das zusammenfassende Prozessmodell der vierten Sicht, der Prozessoder Steuerungssicht (die EPK ist ein Modelltyp dieser
Sicht). Abb. 1 bringt diese Sichten prägnant zum Ausdruck: Die Prozesse bestehen aus grünen Funktionen
(Funktionssicht), gelben Organisationselementen (Organisationssicht) und graublauen Daten-/Informationsträgern bzw. Informations-/Anwendungssystemen (Datensicht. ARIS unterscheidet nicht konsequent zwischen
Daten und Informationen). Aus Gründen der — hier unschädlichen — Vereinfachung wird nicht weiter auf die
STICHWORT
DES MONATS
Armutsgrenze
erzeit wird im reichen Deutschland wieder einmal
intensiv über Armut diskutiert. Wann sind MenD
schen arm bzw. durch Armut gefährdet?
Aus ökonomischer Sicht gibt es mehrere Definitionen. Während die Weltbank global von (absoluter)
Armut spricht, wenn jemand über weniger als 1,25
Dollar pro Tag verfügt, wird Armut bzw. Armutsgefährdung meist bezogen auf das mittlere Einkommen
der jeweiligen Region definiert. Nach der EU-Definition ist jemand arm, der weniger als 40 Prozent des
mittleren Einkommens der betreffenden Region zur
Verfügung hat. Die Armutsgefährdungsgrenze liegt bei
60 Prozent des mittleren Einkommens. Der Armutsbegriff beruht hier also auf einer relativen Größe. Er
orientiert sich nicht daran, was lebensnotwendig ist,
sondern am mittleren Einkommen.
In Deutschland lag die Armutsgefährdungsgrenze bei
einem Ein-Personen-Haushalt 2011 laut dem Statistischen Amt der Europäischen Gemeinschaften (Eurostat) bei einem jährlichen Nettoeinkommen von
11.426 Euro, bei einem Vier-Personen-Haushalt (zwei
Erwachsene mit zwei Kindern unter 14 Jahren) betrug
sie 23.994 Euro jährlich. Danach sind in Deutschland
aktuell 15,6 Prozent der Bevölkerung arm oder armutsgefährdet.
Die Abbildung zeigt die Armutsgefährdungsgrenze
und den Anteil der armutsgefährdeten Personen für
einige europäische Länder im Jahr 2010. Dem zufolge liegt Deutschland etwas unter dem EU-Durchschnitt.
Dass die so definierte Armut als relative Armut eher
eine gefühlte als eine absolute Armut ist, zeigen zwei
Beispiele. So sind in einer Region, falls alle dortigen
Bewohner ihre Einkommen auf einmal verdoppeln,
immer noch dieselben Personen arm. Zum anderen
verringert sich in der Regel die Armut in einer Region,
wenn beispielsweise die oberen zehn Prozent der Einkommensbezieher auswandern und die Einkommen
ansonsten unverändert bleiben.
Vollends problematisch wird der Armutsbegriff in einer Region, in der 40 Prozent ein hohes und die übrigen 60 Prozent alle dasselbe — aber ein niedrigeres
— Einkommen oder in der sogar alle dasselbe Einkommen haben. Unabhängig von der Höhe dieser Einkommen wäre hier niemand armutsgefährdet oder
sogar arm. Armut richtig zu messen ist also offenbar
nicht einfach.
Prof. Dr. Eckart Bomsdorf, Köln
WISU
1/13
61
WISU-KOMPAKT
Rolle der (violettfarbenen) ablaufsteuernden Ereignisse
und auf die nicht abgebildete Ablauflogik eingegangen.
(Start-)
Ereignis
Dokument
(Daten/
Informationen)
Schritt 1
(Funktion)
Mitarbeiter 1
Anwendungssystem
Schritt 2
Abteilung A
Dokument
(Daten/
Informationen)
Schritt 3
Abteilung B
(End-)
Ereignis
Abb. 1: Prozessmodell in EPK-Darstellung
Prozessorientiertes Requirements Engineering
Die Analyse bzw. das Management der Anforderungen
der Benutzer an ein Anwendungssystem (Requirements
Engineering) ist in der Regel die erste Aufgabe beim Systementwicklungsprozess. Idealerweise beruht sie auf relevanten Prozessmodellen (vgl. Hansen/Neumann, S. 345 ff.).
Typischerweise wird zwischen funktionalen, vom System bereitzustellenden Fachfunktionen, und nicht-funktionale Anforderungen, d.h. technischen Systemeigenschaften wie Bedienbarkeit, Wartbarkeit, Zuverlässigkeit etc. unterschieden. Ein Prozessmodell — dargestellt
in einer EPK — unterstützt vorrangig die Ermittlung funktionaler Anforderungen.
Es ist nach wie vor eine Herausforderung, den Benutzern
zu „entlocken“, welche Anforderungen sie an das System stellen. Sie können ihre Wünsche selten klar äußern,
hinzu kommt, dass diese häufig geändert werden. Sie
wissen zwar, welche Prozesse unterstützt oder automatisiert werden sollen. Wie das System insgesamt funktionieren soll, können sie jedoch meist nur schwer beschreiben. Dabei liegen die betrieblichen Prozesse und
die fachlichen Anforderungen grundsätzlich nicht weit
auseinander, so wie bei diesem Beispiel:
Die Bearbeitung von Servicefällen, d.h. die Wartung und
Reparatur technischer Geräte, die per Telefon, E-Mail
oder Telefax gemeldet werden, soll mithilfe eines Systems verbessert werden. Das Prozessmodell (s. Ausschnitt in Abb. 2) zeigt, dass die Aufnahme und Überprüfung der kundenbezogenen Grunddaten (Name, Kundennummer etc.) die ersten Schritte sind. Diese Daten sind
jedoch immer wieder inkorrekt und unvollständig, was
aufwändige Berichtigungen notwendig macht. (Die Prozessschwachstellen sind durch rote Symbole gekennzeichnet). Das Modell zeigt auf den ersten Blick, dass
das künftige System die Aufnahme, Überprüfung und
Das generische Prozessmodell (Abb.1) veranschaulicht
das Zusammenfließen von Wirtschaft und Informatik.
(Grüner) Prozessablauf, (gelbe) Organisation und (graublaue) Informationen kommen in fachlicher, nichttechnischer Sicht vom Betriebswirt. Der InformaServicefall
gemeldet über
tiker versteht die Prozessschritte als SystemfunkTelefon
tionen, die Beteiligten als Systembenutzer, die
ausgewiesenen Dokumente als Grundlage der Datenstrukturierung und die dargestellten Anwendungssysteme als Unterstützung einzelner Prozessschritte oder als zu entwickelnde oder einzubindende Systeme.
Offensichtlich ist das EPK-Modell nur sehr begrenzt in der Lage, Antworten auf umsetzungsnahe,
DV-technische Fragen zu liefern. Diese Antworten
können entsprechende Detailmodelle geben. So
kann ein Prozessdokument genauer durch ein Entity-Relationship-Modell beschrieben werden. Informatiknähere Modelltypen aus dem UML- und
BPMN-Umfeld werden von ARIS ebenfalls angeboten und können zur technischen Weiterentwicklung der Ausgangs-EPK verwendet werden
(UML, Unified Modeling Language, und BPMN,
Business Process Modeling Notation, sind weitverbreitete, standardisierte Modellierungssprachen- bzw. -notationen).
Entscheidend ist jedoch, dass mit den Prozessmodellen wie der EPK Informatikern, Betriebswirten und Wirtschaftsinformatikern (als zusätzliche
Mittler zwischen den Disziplinen) eine verbindende Sprach- und Kommunikationsgrundlage zur
Verfügung steht, die in der Praxis allerdings oft zu
wenig genutzt wird.
Doppelmeldungen
möglich
Servicefall
gemeldet über
E-Mail
Servicefall
gemeldet über
Telefax
Kundenbezogene
Grunddaten
aufnehmen
Hilfskraft
Serviceabteilung
Grunddaten
überprüfen
Grunddaten
korrekt und
vollständig
Grunddaten
nicht
korrekt und
vollständig
Über die Kommunikation hinaus kann die ProzessGrunddaten
idee in der Wirtschaftsinformatik aber auch — wie
Aufwand
berichtigen
bereits angesprochen — Systementwicklungen unterstützen. Das Beispiel des prozessorientierten
Requirements Engineering zeigt dies.
Abb. 2: Prozessausschnitt zur Bearbeitung von Servicefällen
WISU
62
1/13
Hilfskraft
Serviceabteilung
WISU-KOMPAKT
Kundennummer
erfassen
Anforderung:
"Intelligente Erfassung"
Anforderung:
Automatische
Datenübernahme bei
E-Mails
E-Mail
FAX
Grunddaten
Ansprechpartner
erfassen
Anforderung:
"Intelligente Erfassung"
Anforderung:
Automatische
Datenübernahme bei
E-Mails
Telefon
Servicevertrag
überprüfen
Anforderung:
Automatische
Anzeige möglicher
Serviceverträge
Abb. 3: Detailschritte zur Aufnahme kundenbezogener Grunddaten
Berichtigung der Grunddaten (funktionale Anforderungen) unterstützen soll.
Ein Problem ist auch, dass Servicefälle von Kunden gelegentlich doppelt gemeldet werden (z.B. per Telefon
und E-Mail, um „ja sicherzugehen“). Die Mitarbeiter im
Service müssen dann erkennen, dass es sich um ein und
denselben Fall handelt.
Anhand der Detaillierung der Funktion „kundenbezogene Grunddaten aufnehmen“ in „Kundennummer erfassen“, „Ansprechpartner erfassen“ und „Servicevertrag
überprüfen“ (Abb. 3) können weitere funktionale Anforderungen abgeleitet werden.
Um Doppelmeldungen und Fehleingaben zu vermeiden,
soll das System die „intelligente Erfassung“ von InputDaten ermöglichen. Das kann eine Auflistung der vorhandenen vollständigen Kundennummern nach Eingabe
der ersten Ziffern sein. Damit lassen sich Fehleingaben
reduzieren. Verbunden mit der geforderten automatischen Anzeige aller vorhandenen Serviceverträge — als
Ergebnis von „Servicevertrag überprüfen“ — können die
zuletzt gemeldeten Servicefälle aufgelistet werden, um
Doppelmeldungen zu vermeiden.
Im Ergebnis liefert das Prozessmodell klar nachvollziehbare funktionale Anforderungen: Das System muss die
modellierten Prozessschritte („Grundaten aufnehmen“,
„Servicevertrag überprüfen“ etc.) an sich vollständig
oder auch teilweise unterstützen. Dies gilt auch für die
Anforderungen, die sich aus der Durchführung dieser
Schritte ergeben („intelligente Erfassung von Daten“,
„automatische Datenübernahme bei E-Mails“ etc.).
Das Beispiel zeigt, dass ein prozessbasiertes Requirements Engineering zum systematischen Vorgehen führt.
Durch das Denken in Prozessen liefert die Wirtschaftsinformatik somit einen wertvollen Beitrag zum Unternehmenserfolg.
Prof. Dr. Heinrich Seidlmeier, Rosenheim
Literatur:
Allweyer, T.: Geschäftsprozessmanagement. Herdecke 2005.
Fischermanns, G.: Praxishandbuch Prozessmanagement. 10. Aufl.,
Gießen 2012.
Hansen, H./Neumann, G.: Wirtschaftsinformatik 1. 10 Aufl., Stuttgart 2009.
Scheer, A.-W.: ARIS — Modellierungsmethoden, Metamodelle, Anwendungen. 3. Aufl., Berlin 1998.
Seidlmeier, H.: Prozessmodellierung mit ARIS. 3. Aufl., Wiesbaden 2010.
Seidlmeier, H.: Zentrale Begriffe der Wirtschaftsinformatik.
In: WISU, 41. Jg. (2012), S. 1439 ff.
Stahlknecht, P./Hasenkamp, U.: Einführung in die Wirtschaftsinformatik. 11. Aufl., Berlin/Heidelberg/New York 2005.
Schon gelesen?
Alexander Kornrumpf:
Collective Intelligence
(WISU 11/11)
Adrian Nowak:
Die digitale Fabrik
(WISU 5/12)
Tim Kuster:
E-Learning 2.0 — Social Media
und Personalentwicklung
(WISU 7/12)
Patrick Delfmann:
Informationssysteme
und ihre Modellierung
(WISU 10/12)
WISU
1/13
63
WISU-KOMPAKT
BASISWISSEN VWL
Leistungsbilanzungleichgewichte
und Mechanismen des Leistungsbilanzausgleichs
eit Ende der neunziger Jahre haben sich weltweit
hohe Außenhandelsungleichgewichte aufgebaut. In
S
der Theorie sind Leistungsbilanzdefizite und -überschüsse
Ausland zur Verfügung gestellt werden, womit das Land
einen Exportüberschuss aufweist.
lediglich ein temporäres Phänomen, weil derartige Ungleichgewichte Anpassungsprozesse auslösen, die automatisch zu einem Leistungsbilanzausgleich führen.
Ein Leistungsbilanzüberschuss hat darüber hinaus Auswirkungen auf den gesamtwirtschaftlichen Vermögensbestand: Wenn eine Volkswirtschaft einen Exportüberschuss erwirtschaftet, gibt sie im Außenhandel weniger
Geld aus, als sie einnimmt. Das Einkommen der Volkswirtschaft wird also nicht komplett ausgegeben, die gesamtgesellschaftliche Ersparnis ist positiv. Ein Exportüberschuss hat somit für das betreffende Land einen
Vermögensaufbau (V > 0) gegenüber dem Ausland zur
Folge. Dieser kann entweder in Form von zusätzlichen
Finanztiteln (F), also Aktien, Staatsanleihen, Forderungen etc. erfolgen oder in Form von Währungsreserven
(W), d.h. Gold und Devisen. Da alle ausländischen Vermögenstitel in der Währung des Auslands bewertet sind,
müssen die Vermögenswerte noch mit dem Wechselkurs (e) in die heimische Währung umgerechnet werden.
Damit gilt:
(EX – IM) = V = e . (F + W).
Grundlagen
Die Leistungsbilanz erfasst neben den Exporten und Importen von Gütern und Dienstleistungen auch grenzüberschreitende Einkommens- und Transferzahlungen.
Da die Exporte und Importe jedoch den größten Teil der
Leistungsbilanz ausmachen, werden die Begriffe Leistungsbilanzüberschuss und Exportüberschuss hier synonym verwendet. Aus der volkswirtschaftlichen Gesamtrechnung ergeben sich einige grundlegende makroökonomische Zusammenhänge (vgl. Petersen, S. 87 ff.): Die
von einer Volkswirtschaft innerhalb eines Jahres produzierte Menge an Gütern — also das Bruttoinlandsprodukt (BIP) — kann entweder von den privaten Haushalten konsumiert (C), für die Vergrößerung des Produktionsapparates verwendet (I), vom Staat verbraucht (G)
oder ins Ausland exportiert werden (EX). Die Konsummöglichkeiten des Inlands werden durch den Import von
Gütern aus dem Ausland (IM) erweitert. Damit gelten definitionsgemäß diese Zusammenhänge:
(1)
(1')
(2)
(2a)
(2b)
BIP
BIP
BIP
BIP
BIP
+ IM = C + I + G + EX bzw.
= C + I + G + EX – IM
– (C + I + G) = (EX – IM)
> (C + I + G) ==> (EX – IM) > 0
< (C + I + G) ==> (EX – IM) < 0
Im Fall (2a) lebt die Gesellschaft unter ihren Verhältnissen, weil sie nicht alle Güter verbraucht, die sie hergestellt hat. Die nicht verbrauchten Güter werden ins
Ausland exportiert. Die Volkswirtschaft weist somit einen Exportüberschuss auf. Im Fall (2b) verbraucht die
Volkswirtschaft mehr Güter, als sie hergestellt hat. Diese
Gesellschaft lebt über ihre Verhältnisse und hat ein
Leistungsbilanzdefizit. Gleichung (1') kann um die Staatseinnahmen (T) erweitert werden, indem auf jeder Seite
der Gleichung die Staatseinnahmen abgezogen werden.
(3)
BIP – T = C + I + G – T + (EX – IM)
Der Ausdruck (BIP – T) stellt das verfügbare Einkommen der Bürger dar. Der Teil dieses Einkommens, der
nicht für Konsumausgaben verwendet wird, entspricht
der volkswirtschaftlichen Ersparnis (S = BIP – T – C). Ersparnisse bedeuten ökonomisch gesehen einen Konsumverzicht. In Kombination mit Gleichung (3) resultiert
daraus dieser Zusammenhang:
(4a) BIP – T – C = I + G – T + (EX – IM) bzw.
(4b) S = I + (G – T) + (EX – IM).
Der Ausdruck (G – T) beschreibt den Saldo der staatlichen Ausgaben und Einnahmen. Wenn (G – T) positiv
ist, gibt der Staat mehr Geld aus, als er einnimmt, d.h. es
liegt ein Staatsdefizit vor. Die gesamtgesellschaftlichen
Ersparnisse können im Inland folglich für zwei Zwecke
verwendet werden: zur Bildung von Investitionen und zur
Finanzierung des Staatsdefizits. Sofern nach der Bildung von Investitionen und der Finanzierung des staatlichen Defizits noch Güter übrig sind, können diese dem
WISU
64
1/13
Umgekehrt muss ein Land mit einem Importüberschuss
diesen finanzieren. Es muss sich dafür entweder im Ausland verschulden (durch eine Kreditaufnahme) oder seinen Konsum mit dem Verkauf von Vermögenstiteln finanzieren (Gold, Devisen oder Beteiligungen am Produktivkapital in Form von Aktien oder Direktbeteiligungen). Beides hat zur Folge, dass das Vermögen des Landes geringer wird — entweder direkt, weil Finanztitel
oder Währungsreserven verkauft werden, oder indirekt,
weil die Schulden des Landes gegenüber dem Ausland
steigen und das Reinvermögen (also das Vermögen abzüglich der Verbindlichkeiten) schrumpft.
Leistungsbilanzungleichgewichte haben auch Auswirkungen auf den Arbeitsmarkt. Ein Land mit einem Exportüberschuss produziert mehr Güter, als es verbraucht.
Würde dieses Land nur diejenigen Dinge produzieren,
die es selbst benötigt, wäre dies mit einem geringeren
Einsatz von Produktionsfaktoren verbunden, also auch
mit einem geringeren Arbeitseinsatz. Der Exportüberschuss wirkt sich daher positiv auf das gesamtwirtschaftliche Beschäftigungsniveau aus. Im Fall eines Importüberschusses ist das Beschäftigungsniveau hingegen geringer, was zur Arbeitslosigkeit führen kann.
Aktuelle Leistungsbilanzungleichgewichte
Seit Ende der neunziger Jahre haben sich weltweit hohe
Leistungsbilanzungleichgewichte aufgebaut. In den USA
betrug das Leistungsbilanzdefizit zwischen 2005 und
2008 jeweils rund 700 bis 800 Mrd. Dollar und damit fünf
bis sechs Prozent des BIP. In Spanien und Portugal lagen die Defizite bei bis zu zehn Prozent, in Griechenland
sogar zwischen zehn und 15 Prozent. Den Defizitländern
stehen Überschussländer wie Deutschland, Japan und
China gegenüber (s. Abb.).
Angesichts der skizzierten Zusammenhänge wird deutlich, warum beispielsweise die USA in ihren aktuellen
Leistungsbilanzdefiziten ein Problem sehen: Das Land
lebt über seine Verhältnisse, was für die heimischen Konsumenten zunächst einmal positiv ist. Allerdings müssen
sich die USA entweder im Ausland verschulden oder Tei-
WISU-KOMPAKT
le des heimischen Vermögens an das Ausland abtreten.
Zudem hat das Leistungsbilanzdefizit eine negative Auswirkung auf den amerikanischen Arbeitsmarkt. Gleiches
gilt für andere Defizitländer (EX – IM < 0) wie Griechenland, Portugal und Spanien. Umgekehrt sind die Konsequenzen für Überschussländer (EX – IM > 0) wie
Deutschland, die Niederlande, Japan und China: Länder
mit einem Exportüberschuss haben ein höheres Beschäftigungsniveau als ohne diesen Überschuss.
10
5
0
1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010
-5
-10
Leistungsbilanzungleichgewichten sind vor allem dauerhafte Leistungsbilanzdefizite. Sie haben einen Anstieg der Arbeitslosigkeit und der Verschuldung gegenüber dem Ausland zur Folge. Die steigende Auslandsverschuldung führt früher oder später zu einem Bonitätsverlust, der dann eine abrupte Reduzierung der Binnennachfrage verlangt, weil die Importüberschüsse nicht
mehr finanziert werden können. Dies geht mit drastischen Abwertungen der Währungen von Defizitländern
einher und schmälert so den Wert der Auslandsforderungen der Überschussländer. Über die abwertungsbedingten Vermögensverluste werden Leistungsbilanzungleichgewichte auch für ein Überschussland zu einem gravierenden Problem.
Mechanismen des Leistungsbilanzausgleichs
-15
Deutschland
Griechenland
Portugal
Spanien
Japan
China
Abb.: Entwicklung der globalen Leistungsbilanzungleichgewichte
von 1995 bis 2010 in ausgewählten Ländern, Angabe: Leistungsbilanzsaldo in Prozent des Bruttoinlandsprodukts (Quelle: IMF
World Economic Outlook Database, Oktober 2012)
Zudem erwirtschaften Überschussländer im Außenhandel mehr Einnahmen als Ausgaben, was zu einem Vermögensaufbau gegenüber dem Rest der Welt führt. Aus
den Vermögensbeteiligungen resultieren Einkommen, z.B.
Dividenden oder Zinseinnahmen. Über die Finanzierung
von Leistungsbilanzungleichgewichten sind z.B China und
die USA auch ökonomisch verbunden: Ein Land mit einem Leistungsbilanzüberschuss bildet größere Ersparnisse als zur Finanzierung der heimischen Investitionen
und des eigenen Staatsdefizits erforderlich sind. Die
überschüssigen Ersparnisse werden verwendet, um
dem Ausland einen Konsum über dessen Produktionsmöglichkeiten — also einen Importüberschuss — zu finanzieren. So gesehen finanzieren die chinesischen
Bürger mit ihrem Konsumverzicht zu einem erheblichen
Teil das Haushalts- und Leistungsbilanzdefizit der USA.
Obwohl Leistungsbilanzungleichgewichte vor allem für
Defizitländer ein Problem darstellen, sind die globalen
Ungleichgewichte auch für Überschussländer nicht risikofrei. Die starke Exportabhängigkeit der Überschussländer führt zu einem raschen Rückgang der Beschäftigung, wenn der Welthandel infolge einer globalen Wirtschaftskrise einbricht oder die wichtigsten Exportländer
einen Konjunktureinbruch erleiden. Der Zufluss von Goldund Devisenbeständen erhöht die monetäre Basis der
Überschussländer, was zu inflationären Tendenzen führen kann. Das Vermögen gegenüber dem Ausland kann
an Wert verlieren, wenn diese Forderungen wertlos werden (Bankrott der betreffenden Unternehmen oder sogar
des Staates) oder wenn die Währung des Auslands stark
abgewertet wird. In diesem Fall hätte das Überschussland seine Güter gegen wertlose Forderungen eingetauscht und damit letzlich verschenkt. Schließlich droht
noch die Gefahr, dass es zu einem weltweit wachsenden
Protektionismus kommt. Sofern die Leistungsbilanzungleichgewichte in den Defizitländern den ökonomischen
Problemdruck — steigende Arbeitslosigkeit inklusive
sozialer Folgeprobleme und steigende Verschuldung im
Ausland — immer weiter erhöhen, besteht die Gefahr,
dass einzelne Defizitländer dem permanenten Importüberschuss mit protektionistischen Maßnahmen begegnen. Die Einführung von Zöllen und anderen Handelsbeschränkungen durch ein Land führt häufig zu entsprechenden Maßnahmen der Handelspartner, die ihrerseits
ebenfalls Handelsbeschränkungen einsetzen. Im Ergebnis kann dies zu einem weltweiten Protektionismuswettlauf führen, der die Exportmöglichkeiten der Überschussländer reduziert und damit deren Arbeitsmarkt negativ
beeinflusst.
Wie also sind die gegenwärtigen Leistungsbilanzungleichgewichte zu bewerten? Problematisch an den globalen
Für die Außenwirtschaftstheorie sind dauerhafte Leistungsbilanzungleichgewichte kein gravierendes Problem,
weil es eine Reihe von Anpassungsmechanismen gibt,
die automatisch zu einem Leistungsbilanzausgleich führen. Dieser Ausgleich erfolgt in der Theorie über drei zentrale ökonomische Größen: Wechselkursanpassungen,
Preisänderungen und Veränderungen der Zinssätze.
Sind die Wechselkurse der beteiligten Volkswirtschaften
flexibel, erfolgt ein Leistungsbilanzausgleich primär über
eine Wechselkursänderung. Wenn ein Land einen Leistungsbilanzüberschuss aufweist, bedeutet dies, dass es
eine hohe Nachfrage nach der Währung dieses Landes
gibt, weil Exporte letztlich immer in der Währung des
Exportlandes bezahlt werden müssen: Die Produzenten
der Exportgüter müssen ihre Löhne, Steuern und Abgaben sowie die meisten Vorprodukte in der heimischen
Währung zahlen. Der Exportüberschuss bewirkt damit
eine Aufwertung der heimischen Währung, d.h. das
Ausland muss nun einen höheren Preis für eine Einheit
der Währung des Inlands bezahlen. Dies verteuert die
Exporte, was zu einem Exportrückgang führt.
Dazu ein Beispiel, bei dem der Wechselkurs zwischen
Euro und Dollar bei 1,- Euro = 1,- Dollar liegt: Wenn Europa einen Exportüberschuss und die USA einen Importüberschuss aufweisen, kommt es zu einer Aufwertung
der Euro. Diese Aufwertung könnte sich darin äußern,
dass ein Euro nicht mehr einen Dollar kostet, sondern
1,25 Dollar. Ein europäischer PKW, dessen Preis 20.000
Euro beträgt, verteuert sich auf dem amerikanischen
Markt infolge der Euro-Aufwertung von 20.000 Dollar auf
25.000 Dollar. Dies hat einen Rückgang der europäischen Exporte in die USA zur Folge. Zudem verbilligt die
Euro-Aufwertung die Produkte aus dem Ausland, was zu
einer Importzunahme führt. Beide Entwicklungen — sinkende Exporte und steigende Importe — wirken auf
einen tendenziellen Ausgleich von Exporten und Importen hin. Im Fall eines Leistungsbilanzdefizits kommt es
dagegen zu einer Abwertung, die die Exportchancen des
Landes verbessert, die Importnachfrage wegen der Verteuerung der ausländischen Waren verringert und so das
Leistungsbilanzdefizit über steigende Exporte und sinkende Importe abbaut.
Die Abwertung der Währung eines Defizitlandes erschwert
außerdem die Verschuldung dieses Landes im Ausland.
Eine Abwertung reduziert aus Sicht der Gläubigerländer
den Wert von Forderungen gegenüber dem Defizitland.
Wenn also ein europäischer Sparer 1.000 Euro in USWertpapieren anlegen will, kann er bei einem Wechselkurs von 1,- Euro = 1,- Dollar amerikanische Wertpapiere
im Wert von 1.000 Dollar erwerben. Sollte es dann zu der
erwähnten Euro-Aufwertung kommen, ist dies gleichbedeutend mit einer Abwertung des Dollar. Ein Dollar ist
dann nicht mehr einen Euro wert, sondern nur noch 0,80
Euro. Ein europäischer Anleger erhält daher für sein amerikanisches Wertpapier nach der Dollar-Abwertung nur
noch 800 Euro. Kredite werden daher nur gegen höhere
Zinsen gewährt, um so abwertungsbedingte VermögensWISU
1/13
65
WISU-KOMPAKT
MANAGEMENT—
DENKER UND MACHER
Die wirtschaftliche Entwicklung wird entscheidend
von Gründern und Managern beeinflusst, die neue
Methoden und Strategien entwickeln oder sie in der
Praxis umsetzen. Hier werden einige von ihnen vorgestellt.
Walt Disney
alt Disney revolutionierte wie kaum ein anderer
die Unterhaltungsindustrie — er etablierte den
W
künstlerischen Trickfilm, die erzählende Dokumentation und erfand überdies den modernen Freizeitpark. Sein Credo war es, den Blick auf die Schönheiten der Welt zu lenken und Produkte anzubieten, die
Erwachsene wie Kinder gleichermaßen ansprechen.
Obwohl ihm immer wieder kitschige Scheinwelten
vorgeworfen wurden, blieb er bei seiner Philosophie
und ging als Unternehmer stets neue Wege. So wurde die Walt Disney Company zu einer führenden Weltmarke der Unterhaltungsindustrie.
Walter Elias Disney, von Freunden und Mitarbeitern
nur „Walt“ genannt, kam am 5. Dezember 1901 in
Chicago zur Welt. Die Jugend verbrachte er in ländlicher Idylle in Missouri. Nach seiner Rückkehr vom
Militärdienst in Frankreich beschloss Disney, Zeichner zu werden. Nach mehreren vergeblichen Versuchen, eine feste Anstellung zu finden und kurzen Phasen als Werbezeichner, macht er sich 1920 mit seinem Freund Ub Iwerks in Kansas City selbständig.
Damals entstanden die ersten Zeichentrickfilme, die
Disney „Laugh-O-Grams“ nannte. Sie mussten mühsam Bild für Bild fotografiert werden, waren in SchwarzWeiß, unvertont und würden heute eher als „animierte Cartoons“ bezeichnet werden. Später wagten sich
Disney und Iwerks an kurze Märchenfilme, die jedoch
kaum Geld brachten.
Nachdem Disney erkannte, dass Kansas City für
einen Trickfilmproduzenten das falsche Pflaster
war, machte er sich 1922 mit 40 Dollar in der Tasche
auf nach Hollywood. Der Vater der modernen Unterhaltungsindustrie war schon damals durchdrungen
von seinen künstlerischen und geschäftlichen Visionen und fest entschlossen, sie in die Tat umzusetzen.
In Los Angeles mieten sich Disney und sein Bruder
Roy, der später der kaufmännische Leiter der Disney
Company werden sollte, ein winziges Büro mit Zeichentischen und arbeiteten mit geliehener Kamera
weiter an den Strichmännchen.
Bis im Oktober 1923 der Durchbruch kam: Walt Disney schließt mit der einflussreichen Verleihfirma M.J.
Winkler einen Vertrag über eine Serie von Trickfilmen,
die als Vorfilme im Kino laufen sollen. Zu den Lieferanten der New Yorker Firma gehören die damaligen
Stars des Zeichentrick-Metiers wie Pat Sullivan mit
seiner populären Figur Felix the Cat. Das Datum des
Vertragsschlusses gilt als der Start der Disney Company. Disney allerdings bestand — gegen den Widerstand seines Bruders — darauf, den Erlös jeder Folge
in die nächste zu investieren, um diese technisch und
künstlerisch noch besser zu machen.
Die Firma florierte. Die Disneys heuerten weitere
Zeichner an und bezogen schließlich ein eigenes
Studio in der Hyperion Avenue in Los Angeles. Dort
WISU
66
1/13
entsteht nicht nur die Idee zu Mickey Mouse, neben
Donald Duck Disneys bekannteste Comic-Figur. Sie
sollte eigentlich „Mortimer“ heißen, was ihm jedoch
von seiner Frau ausgeredet wurde. Auch „Steamboat
Willie“, der erste Zeichentrick-Tonfilm der Kinogeschichte, wurde hier 1928 geschaffen. Es folgte noch
eine Pioniertat: Nachdem Technicolor das Drei-Farben-Verfahren entwickelt hatte, erblickte 1932 der
erste Disney-Zeichentrickfilm in Farbe „Flowers and
Trees“ das Licht der Welt.
1948 begann die Disney Company mit der Produktion
von Dokumentar- und Spielfilmen. Disney lagen insbesondere Naturfilme am Herzen: Im selben Jahr erhält er für seinen ersten Dokumentarfilm „Seal Island“, eine Reportage über eine Robbeninsel, den
Oscar. Es war der Auftakt zu den „True Life Adventures“, einer sehr erfolgreichen Naturfilmserie, zu der
auch „The Living Desert“ („Die Wüste lebt“) zählte.
Auch diesmal ließ man sich die Qualität des Films einiges kosten: Von dem Filmmaterial wurde am Ende
nur ein Dreißigstel verwendet.
Obwohl Disney bis heute in erster Linie mit Zeichentrickfilmen asoziiert wird, zählte er hier nicht zu den
Pionieren. Umso mehr legte er jedoch Wert auf Qualität. Außerdem hatte er einen ausgeprägten Sinn für
innovative Produktionstechnik. Als in den Kriegsjahren 1941 bis 1945 das Geld für Neuerungen fehlte,
drehte man für das Verteidigungsministerium Schulungs- und Propagandafilme. Das brachte Geld für
technische Innovationen wie das Cinemascope-Breitwandverfahren, das ebenso konsequent aufgegriffen
wurde wie neue Kopierverfahren und Kameratechniken. Darüber hinaus experimentierte man bereits in
den fünfziger Jahren mit 3D-Filmen und später dann
mit roboterähnlichen Filmen und Computer-Animationen. Allein 13 seiner 51 (!) Oscars erhielten Disney
und seine Techniker für Spezialeffekte und technische Neuerungen.
Intern praktizierte Disney konsequente Arbeitsteilung. Die Zeichner waren in mehrere Gruppen eingeteilt und wurden unterschiedlich bezahlt: vom Hintergrund-Zeichner über die Koloristen bis zum professionellen Einzelkünstler für eine bestimmte Hauptfigur. Er selbst kümmerte sich um die Grundmotive
und Erzählstrukturen, verzettelte sich jedoch nicht in
Details, sondern konzentrierte sich bereits früh auf
die nächsten Projekte.
Disney war nicht nur ein Perfektionist, sondern verfügte auch über beachtliches Charisma. Es gelang
ihm, seine Mitarbeiter nicht nur zu hoher Qualität anzuhalten, sie gaben auch kreativ ihr Bestes. Sein
eigenes letztes Werk war das 1967 uraufgeführte
„Dschungelbuch“. Walt Disney starb am 15. Dezember 1966, zehn Tage nach seinem 65. Geburtstag, an
Lungenkrebs.
In der Nach-Disney-Ära ging es nicht immer nur
bergauf. 2001 kam es zur ersten Massenentlassung in
der Firmengeschichte. Nach internen Querelen und
schlechten Geschäftsergebnissen wurde CEO Michael Eisner im Oktober 2005 durch Robert A. Iger
abgelöst. Iger stärkte die Autonomie der einzelnen
Geschäftsfelder, indem er unter anderem den Zentralstab für die strategische Planung auflöste.
Trotz aller Höhen und Tiefen ist Disney bis heute eine
beeindruckende Erfolgsgeschichte. Laut eigenen Angaben ist der Konzern auf über hundert Geschäftsfeldern tätig. Schon 1999 stammten mehr als 60 Prozent der Einkünfte aus Geschäftsbereichen, die erst
nach 1990 aufgebaut wurden. 2006 übernahm man
WISU-KOMPAKT
von Steve Jobs, einem der Apple-Gründer, das Animationsstudio Pixar, mit dem man bereits seit 1991
mehrere Filmhits wie „Findet Nemo“ produziert hatte.
2009 gelang mit der Akquisition von Marvel Entertainment — einem Spezialisten für Comic-Verfilmungen („Hulk“, „Spider-Man“) — ein weiterer Coup. Bereits 15 Jahre zuvor hatte man die Mediengruppe um
den TV-Sender ABC — Eisners einstiger Arbeitgeber
— erworben, um die Wertschöpfungskette bis zum
Endverbraucher abzurunden.
Walt Disney hatte das in den fünfziger Jahren aufgekommene Fernsehen nicht als Konkurrenz gesehen,
sondern einzelne TV-Sender als Kooperationspartner gewonnen, um sich das gewaltige Potenzial des
neuen Mediums zunutze zu machen. So wurde mit
ABC ein Vertrag geschlossen, der unter anderem eine
wöchentliche, von Disney produzierte TV-Show vorsah. Sie war nicht nur eine zusätzliche Einnahmequelle, sondern auch eine Werbeplattform für die Kinofilme. Später erwarb ABC sogar 34,5 Prozent der
Anteile an der Disneyland Inc., dem Erbauer und Betreiber der Freizeitparks. In der Show, die Walt Disney
selbst moderierte, wurde den Zuschauern auch die
Arbeit hinter den Kulissen des Filmemachens gezeigt. Damit ist er auch der Erfinder des heute so beliebten „Making of“. Es war vor allem diese wöchentliche TV-Show, durch die er zu einer Ikone der amerikanischen Populärkultur wurde.
Man setzte auch früh auf das Merchandising der Trickfilmfiguren und Filmrequisiten. Nach einer Fernsehserie zum Trapper David Crockett wurden über zehn
Mio. Exemplare von dessen Bärenfellmütze verkauft.
Dazu nahm die Disney Company 300 Mio. Dollar
durch Lizenzverkäufe ein.
Erhebliche Synergieeffekte werden auch mit dem
Themenpark (Brand Park) Disneyland erzielt. Der erste entstand in Anaheim südlich von Los Angeles,
später folgten Florida, Tokio, Paris und Hongkong.
Die Themenparks ermöglichen ein Wiedersehen mit
Disneys Comic- und Filmhelden. Dazu gehört auch
die Zweitverwertung von Requisiten wie der Riesenkrake aus „20.000 Meilen unter dem Meer“. Hinzu kamen Disney Stores in vielen Städten.
Später traten weitere Geschäftsfelder wie eine Kreuzfahrtlinie (Disney Cruise Line) und das eher bildungsorientierte DisneyQuest hinzu. Die Hauptsparten sind jedoch nach wie vor das Filmstudio, TV und
Kabelfernsehen — Disney hält unter anderem 50 Pro-
verluste zu kompensieren. Eine Zinssteigerung ergibt
sich darüber hinaus, wenn die Verschuldung eines Defizitlands infolge dauerhafter Leistungsbilanzdefizite immer
weiter steigt. Eine wachsende Verschuldung hat negative Auswirkungen auf die Bonität eines Landes, was in
der Regel zu einer Zinssteigerung führt. Die Opportunitätskosten einer Verschuldung im Ausland nehmen damit zu, was eine Verschuldung im Ausland immer unattraktiver macht und so über die Finanzierungsseite das
Leistungsbilanzdefizit abbaut.
Auch im Fall fester Wechselkurse — bzw. im Fall einer
Währungsunion mit einer Einheitswährung wie dem Euro
— ist theoretisch ein Leistungsbilanzausgleich zu erwarten. Der Ausgleich erfolgt dabei vor allem über Preisänderungen. In einem Überschussland kommt es wegen
der hohen Nachfrage nach Produkten dieses Landes
tendenziell zu einer Preissteigerung, die die Exporte verteuert. Zudem bedeutet die hohe Exportnachfrage eine
hohe Nachfrage nach Produktionsfaktoren, was zu
einem Anstieg der Löhne und Zinsen führt und über stei-
zent am deutschen Sender Super RTL — sowie die
Themenparks und Disney Stores. Damit bilden Medien, Events und Merchandising eine nahezu perfekte Marketing-Einheit — eine Vermarktungsmaschine, bei der alle Rädchen ineinandergreifen. Schon
lange bevor das Wort „Synergie“ in Mode kam, wurde
es von Disney mit Leben erfüllt.
Der Erfinder von Mickey Mouse
Dass der Unterhaltungskonzern weiter auf Expansionskurs ist, zeigt nicht nur das für 2014 geplante Disneyland in Shanghai. Auch für Dubai ist eines geplant. Die Disney Company steht offenbar niemals
still. Dem erfindungsreichen und umtriebigen Walt
Disney hätte das mit Sicherheit gefallen.
Prof. Dr. Dietrich von der Oelsnitz, Braunschweig
Literatur:
Eisner, M.D.: Disney ist jeden Tag ein Abenteuer. München 1999.
Oelsnitz, D.v.d.: Walt Disney — ein Lehrstück in Sachen
Management. In: Frankfurter Allgemeine Zeitung v.
3.12.2001, S. 28.
Oelsnitz, D.v.d.: Produkt- und Timingstrategien am Beispiel der Walt Disney Company. In: Zentes, J./Swoboda, B. (Hrsg.): Fallstudien zum internationalen Management. 4. Aufl., Wiesbaden 2011, S. 573 ff.
Platthaus, A.: Von Mann & Maus. Die Welt des Walt Disney. Berlin 2001.
Schickel, R.: The Disney Version. The Life, Times, Art and
Commerce of Walt Disney. New York 1985.
Smith, D./Clark, S.: Disney. Die ersten 100 Jahre. Berlin
2001.
gende Produktionskosten die Güterpreise erhöht. Die
Preissteigerung führt zu einem Rückgang der Exportgüternachfrage. Gleichzeitig werden die heimischen Konsumenten verstärkt auf die — relativ gesehen — preiswerteren Produkte aus dem Ausland zurückgreifen, sodass die Importe zunehmen. In einem Defizitland stellen
sich entgegengesetzte Preisentwicklungen ein, womit
dort die Exportgüternachfrage steigt und die Importgüternachfrage sinkt.
Ursachen dauerhafter Leistungsbilanzungleichgewichte
Wenn sowohl im Fall flexibler als auch fester Wechselkurse theoretisch ein automatischer Ausgleich von Exporten und Importen zu erwarten ist, stellt sich die Frage,
wie es in der Realität zu dauerhaften Leistungsbilanzüberschüssen und -defiziten kommen kann. Ursache ist
vor allem die Blockierung der genannten Ausgleichsmechanismen. Exemplarisch lassen sich diese Blockierungen anhand einiger Überschuss- und Defizitländer
erläutern:
WISU
1/13
67
WISU-KOMPAKT
— Die Leistungsbilanzüberschüsse Deutschlands beruhen zu einem erheblichen Teil auf der Lohnzurückhaltung der Gewerkschaften. Sie hat dazu geführt,
dass die Lohnstückkosten in Deutschland von 1996
bis 2008 mehr oder weniger konstant blieben, während sie in den wichtigsten Vergleichsländern um 20
bis 30 Prozent stiegen. Die Lohnzurückhaltung verhindert einen Kostenanstieg, der zu steigenden Preisen führen würde. Hinzu kommt, dass ein Leistungsbilanzausgleich durch eine Aufwertung der heimischen
Währung unterbleibt, weil Deutschland seit der EuroEinführung keine eigene Währung mehr besitzt.
— Mit Blick auf China ist festzustellen, dass die Leistungsbilanzüberschüsse zum Teil auf dem Bevölkerungsreichtum dieses Landes beruhen. Der Arbeitsreichtum Chinas ist ein Wettbewerbsvorteil bei arbeitsintensiv produzierten Gütern und Dienstleistungen. Der Vorteil spiegelt die internationalen Faktorknappheiten wider und verhindert einen Lohnanstieg, was auch den Preisanstieg der Exportgüter
dämpft. Daneben resultieren die Exportüberschüsse
aber auch aus einer künstlichen Verbilligung chinesischer Waren durch die Bindung der chinesischen
Währung an den Dollar. Dies verhindert die Aufwertung der chinesischen Währung und blockiert so einen Leistungsbilanzausgleich über Wechselkursanpassungen.
— Japan weist seit Jahrzehnten Leistungsbilanzüberschüsse auf. In den letzten Jahren blieb die deshalb
zu erwartende Aufwertung des Yen jedoch aus. Ein
wesentlicher Grund dafür sind die „Carry Trades“:
Nach dem Platzen der japanischen Immobilien- und
Aktienblase 1990/91 senkte die Zentralbank die Leitzinsen massiv. Sie liegen im Bereich von 0,5 Prozent
und weniger, womit sie geringer als die der wichtigsten Industrienationen sind. Damit lohnte es sich für
internationale Investoren, Kredite in Yen aufzunehmen, da die Gelder auf den internationalen Kapitalmärkten zu höheren Zinsen angelegt werden können. Auf den Devisenmärkten führte das zu einem
hohen Angebot an Yen bei gleichzeitig hoher Nachfrage nach Dollar, Euro, britischem Pfund etc. Dies
hatte trotz der Exportüberschüsse Japans eine Abwertung des Yen zur Folge, was die japanischen Exporte weiter verbilligte und den Exportüberschuss
erhöhte.
— Bei den europäischen Defizitstaaten wie Portugal,
Spanien und Griechenland sind die Leistungsbilanzdefizite vor allem auf die mangelnde internationale
Wettbewerbsfähigkeit zurückzuführen. Seit der Einführung des Euro können diese Staaten ihre Wettbewerbsnachteile nicht mehr durch eine Abwertung der
eigenen Währung kompensieren. Erforderlich sind
stattdessen Preissenkungen und damit letztlich die
Senkung der Produktionskosten. Dies hat auch Lohnsenkungen zur Folge. Sofern diese sozialpolitisch
nicht gewollt sind und deshalb unterbleiben, äußern
sich die geringen Produktivitätsfortschritte in einem
Leistungsbilanzdefizit. Die Leistungsbilanzdefizite dieser Länder sind somit das Resultat einer geringen
Produktivität bei gleichzeitiger Außerkraftsetzung des
Wechselkurs- und Preismechanismus.
— Das seit einigen Jahren größte Defizitland sind die
USA. Die Ursachen dieser Entwicklung sind vielfältig. Zunächst einmal ist die expansive Geldpolitik
(vor allem zwischen 2001 und 2005) zu nennen. Sie
hatte geringe Zinsen zur Folge. Die niedrigen Zinsen
ermöglichten einen kreditfinanzierten Konsumboom,
der zu einer hohen Konsumquote und einer geringen
Sparquote führte. Unterstützend kam eine expansive
Fiskalpolitik hinzu. Auch sie steigerte über eine hohe
Güternachfrage durch den Staat die Binnennachfrage. Die nachfrageseitig getriebene Steigerung der
amerikanischen Leistungsbilanzdefizite wird unterstützt durch faktisch unbegrenzte Verschuldungsmöglichkeiten. Da der Dollar nach wie vor die einzig
anerkannte Leitwährung der Welt ist, akzeptieren alle
Exporteure Dollar. Damit sind die USA — anders als
alle anderen Volkswirtschaften — nicht unmittelbar
auf die Kreditbereitschaft des Rests der Welt angewiesen, da sie Dollar drucken und so ihre Leistungsbilanzdefizite mit eigener Währung bezahlen können.
Dr. Thieß Petersen, Gütersloh
Literatur:
Moritz, K.-H./Stadtmann, G.: Monetäre Außenwirtschaft. 2. Aufl.,
München 2010.
Petersen, T.: Fit für die Prüfung: Außenwirtschaft — Lernbuch.
Konstanz/München 2013.
Siebert, H./Lorz, J. O.: Außenwirtschaft. 8. Aufl., Stuttgart 2006.
AKTUELLE PRÜFUNGSTIPPS
Die Themen im Winter 2013
Wirtschaftspolitische Ereignisse und Diskussionen sind häufig Gegenstand mündlicher und schriftlicher
Prüfungen. Wer demnächst in eine Prüfung geht, sollte sich mit den hier besprochenen Themen vertraut machen. Die angegebene Literatur bietet Gelegenheit, tiefer in den jeweiligen Problemkreis einzudringen.
1. Thema: Deutschland und Frankreich —
ein wirtschaftlicher Vergleich
Das 50-jährige Jubiläum der deutsch-französischen Zusammenarbeit ist von einem auffälligen wirtschaftliches Ungleichgewicht überschattet. Frankreichs Wirtschaftsmotor stottert spätestens seit der Finanzkrise
2008/09. Warum sind der französische Standort und
WISU
68
1/13
die internationale Wettbewerbsfähigkeit des Landes
so gering verglichen mit Deutschland? Welche Lehren ergeben sich für Frankreich aus den Erfahrungen,
die Deutschland mit Strukturreformen gemacht hat?
Ist die Umsetzung aktueller Forderungen des GalloisBericht aus dieser Sicht sinnvoll?
Hintergrund: 1963 wurde durch den Élysée-Vertrag die
bilaterale Zusammenarbeit zwischen Deutschland und
Frankreich besiegelt, die alles in allem als erfolgreich gilt
WISU-KOMPAKT
BEGRIFFE
DIE MAN KENNEN MUSS
Preiselastizität
der Nachfrage
nter der (direkten) Preiselastizität der Nachfrage
U
 versteht man das Verhältnis der relativen Änderung der Nachfragemenge x nach einem Produkt i
(Wirkungsgröße) zu der sie verursachenden prozentualen Änderung des Preises p (Einflussgröße). Der
Elastizitätskoeffizient  ist in der Regel negativ, weil
eine Preiserhöhung bzw. Preisminderung eine umgekehrte Mengenänderung auslöst.
Beispiel: Wird der Preis für ein bestimmtes Automodell um 200 Euro auf 20.200 Euro erhöht, hat das
kaum Auswirkungen auf die Nachfrage. Wird hingegen der Preis eines Mountainbikes um 200 Euro auf
600 Euro erhöht, wird sich die nachgefragte Menge
spürbar reduzieren. Daraus lässt sich jedoch nicht
schließen, dass Autokäufer nicht so stark auf Preisänderungen reagieren wie die Käufer nach Mountainbikes. Der Autopreis wurde nämlich nur um ein Prozent, der Preis des Mountainbike aber um 50 Prozent
erhöht. Würde der Autopreis ebenfalls um 50 Prozent
erhöht, würde die Nachfrage nach dem Automodell
ebenfalls stark zurückgehen.
Bei (infinitesimaler) Betrachtung ist die Preiselastizität der Nachfrage  definiert als
(1)
 x i p i
dx i
-------p dp
xi
= -------= ----i  --------i .
x i dx i
dp i
-------p1
Wertebereiche
Der Wert der Preiselastizität der Nachfrage liegt normalerweise zwischen null und unendlich. Bei einer linear sinkenden Preis-/Absatzfunktion (2) ist die Preiselastizität der Nachfrage (3) stets negativ:
(2)
p i = a – bx i
(3)
i-.
 xi pi = – ----------b  xi
p
Sie bezieht sich zudem immer auf einen bestimmten
Punkt der Preis-/Absatzfunktion (Punktelastizität) und
kann grundsätzlich alle Werte zwischen null und minus unendlich annehmen:
- Bei einem Wert von null verändert sich die abhängige Variable (Menge) nicht, weshalb man von vollkommen unelastischer Nachfrage spricht.
- Ein Elastizitätswert zwischen null und kleiner als
eins bedeutet, dass die relative Änderung der
Menge geringer ist als die relative Preisänderung.
In diesem Fall handelt es sich um eine unelastische Nachfrage.
(vgl. Miard-Delacroix). Es gibt jedoch Einschränkungen:
„Seit Gründung der Währungsunion hatte sich ein wahrer Nicht-Dialog zwischen Frankreich und Deutschland
entwickelt, weil die wiederholten französischen Forderungen nach einer ,Wirtschaftsregierung‘ in Berlin auf taube Ohren stießen und sich die Bundesregierung weigerte,
über die Frage zu diskutieren“ (Uterwedde, S. 154). Tat-
- Bei einem Wert von eins stimmen die relativen Änderungen überein, man spricht von einer isoelastischen Nachfrage.
- Bei Elastizitätswerten größer als eins bis unendlich
wird von einer elastischen Nachfrage gesprochen.
- Hat die Preiselastizität einen Wert von unendlich,
handelt es sich um eine vollkommen elastische
Nachfrage.
Die beiden Grenzfälle der vollkommen unelastischen
Nachfrage und der vollkommenen elastischen Nachfrage sind eher theoretische Konstrukte, die in der
Realität selten vorkommen:
- Bei vollkommen elastischer Preiselastizität (bei der
grafischen Darstellung verläuft die Nachfragekurve
parallel zur Mengenachse) würde bei nur geringer
Abweichung des Preises über den Prohibitivpreis
die Nachfrage auf null sinken. Entspricht der Preis
dagegen dem Prohibitivpreis oder liegt er nur minimal darunter, geht die Nachfrage gegen unendlich.
- Der Fall einer vollkommen preisunelastischen Nachfrage ist dagegen eher vorstellbar. Gibt es etwa für
eine lebensbedrohende Krankheit nur ein einziges
Arzneimittel, können Patienten nicht auf ein Substrat ausweichen. Die Nachfrage nach dem Mittel ist
unabhängig vom Preis konstant, die Nachfragekurve
verläuft parallel zur Preisachse.
Bestimmungsfaktoren der Elastizität
Es gibt mehrere Faktoren, die für unterschiedliche
Elastizitäten sorgen:
- Notwendigkeit des Gutes: Je dringender ein Gut
(z.B. Wasser) benötigt wird, desto unelastischer ist
die Nachfrage.
- Substitutionsmöglichkeiten: Je einfacher es ist, ein
Gut durch ein anderes zu ersetzen, welches das
Bedürfnis ebenfalls befriedigt, desto elastischer
reagiert die Nachfrage auf Preisänderungen (z.B.
Butter und Margarine). Sind hingegen keine vollwertigen Ersatzprodukte vorhanden, ist die Elastizität eingeschränkt.
- Marktabgrenzung: Die Definition des Gutes oder
eines Marktes hat ebenfalls Einfluss auf die Elastizität. So ist die Preiselestizität beim gesamten Automarkt eher gering, da sich ein Auto als solches
nicht ohne weiteres durch andere Transportmittel
wie Bus und Bahn ersetzen lässt. Geht es jedoch
um ein bestimmtes Modell, ist die Elastizität wegen der Substitutionsmöglichkeiten höher.
- Zeithorizont: Je größer die Zeitspanne ist, desto
elastischer die Nachfrage. Kurzfristig sind Autofahrer z.B. an Benzin oder Diesel gebunden. Steigen deren Preise stark an wie bei der Ölkrise in
den siebziger Jahren, müssen sie also die hohen
Preise zahlen, um mobil zu bleiben. Langfristig haben sie jedoch die Möglichkeit, auf gasbetriebene
oder Elektroautos umzusteigen.
Dipl.-Volksw. Gerald D. Müller, Wiesbaden
Literatur:
Hoyer, W./Eibner, W.: Mikroökonomische Theorie. 4. Aufl.,
Konstanz/München 2011.
Schierenbeck, H./Wöhle, C..: Grundzüge der Betriebswirtschaftslehre. 18. Aufl., München/Wien 2012.
sächlich stehen sich zwei wirtschaftspolitische Grundüberzeugungen gegenüber (vgl. Uterwedde, S. 155). Der
französische Interventionismus unterscheidet sich fundamental von der deutschen regelgebundenen Politik (vgl.
Uterwedde, S. 156 ff.). Ordnungspolitik ist noch immer
ein Fremdwort in Frankreich (vgl. Wohlgemuth, S. 4), unter anderem weil bei den dortigen führenden Ökonomen,
WISU
1/13
69
WISU-KOMPAKT
anders als bei der deutschen ordoliberalen Tradition, eher
keynesianische Denkmuster vorherrschen (vgl. Burda/
Wyplosz, S. 23). Die Euro-Krise zwingt die Franzosen
nun jedoch, ihre Wirtschaftspolitik dem Wettbewerb anzupassen.
Produktionsstandorte im Vergleich: Dass derzeit zurecht vom „französischen Patienten“ (o.V., S. 1528) die
Rede ist, zeigen auch besorgniserregende Entwicklungen bei zentralen wettbewerbsrelevanten Indikatoren
im Vergleich zu anderen Ländern der Euro-Zone. Zu nennen sind vor allem (vgl. Schmieding/Schulz, S. 73 f.):
— die Staatsausgaben, die den größten Anteil am Bruttoinlandsprodukt (BIP) haben (Staatsquote von 56
Prozent),
— überdurchschnittliche Steigerungen der Lohnstückkosten, vor allem infolge eines stark regulierten Arbeitsmarktes, „which makes hiring and firing more
difficult in France than in any other eurozone country
except Slovenia“ (Schmieding/Schulz, S. 73),
— ein sehr niedriges Trendwachstum von 0,4 Prozent, das
in der Euro-Zone nur von Italien unterboten wird,
— ein tendenziell abnehmender französischer Exportanteil, wobei auch die absolute Zahl der französischen
Exportunternehmen abnimmt: Nach 124.049 im Jahr
2004 waren es 2011 noch 117.106 (zum Vergleich
Deutschland: 205.980 gegenüber 248.165; vgl. Artus,
S. 2).
Jahr
Land
2009
2012
F
D
F
D
Reales BIP*
-3,1
-5,1
0,1
0,9
Schuldenstand (in % des BIP)
79,2
74,7
90,0
83,0
Haushaltssaldo (in % des BIP)
-7,6
-3,2
-4,7
-0,4
Leistungsbilanzsaldo (in % des BIP)
-1,3
5,9
-1,7
5,4
Arbeitslosenquote (in %)
9,1
7,8
10,7
5,4
Arbeitslosenquote
der 15-24-Jährigen (in %)
23,2
11,0
25,5
8,1
Abb. 1: Ausgewählte Indikatoren zum deutsch-französischen
Wirtschaftsvergleich (* prozentuale Veränderung des realen
Bruttoinlandsprodukts gegenüber Vorjahr; Quelle: IW, S. 4.)
Die Kennzahlen in Abb. 1 zeigen die Unterschiede zwischen den Ländern. Zwar wurde Deutschland von der
Finanzkrise 2008/08 wegen seiner hohen Exportorientierung zunächst härter getroffen, seitdem schwächelt
Frankreichs Wachstum jedoch, der Schuldenstand liegt
höher als in Deutschland und die Budgetdefizite bleiben
hoch. Gleichzeitig ist die Leistungsbilanz im Gegensatz
zu Deutschland defizitär, ohne Aussicht auf Besserung,
und die Arbeitslosigkeit ist doppelt so hoch wie in Deutschland. Die Jugendarbeitslosigkeit überschreitet — unter
anderem wegen des besonders hohen nationalen Mindestlohns auch für Jugendliche — sogar 25 Prozent (vgl.
IW; ausführlich IWF, S. 4 ff.; Burda/Wyplosz, S. 125; Cowen/Tabarrok, S. 233).
Jahr
2007
2008
2009
2010
2011
F
2,4
3,0
2,7
1,8
2,1
D
2.7
3,0
2,2
1,8
2,2
Land
Index der Tariflöhne
F
102.4
105,5
108,3
110,3
112,6
D
102.7
105,8
108,1
110,1
112,5
Abb. 2: Vergleich der Tariflohnentwicklung (Anstieg
in Prozent; Quelle: IW, S. 5)
Kern des französischen Übels sind jedoch nicht die Tariflohnentwicklungen der letzten Jahre (vgl. den ähnlichen
Verlauf in Deutschland in Abb. 2), sondern vor allem inWISU
70
1/13
direkte Kosten und Abgabenbelastungen. Lagen die
durchschnittlichen Arbeitskosten pro Stunde in der für
den Außenhandel besonders wichtigen Industrie 2009
noch bei 32,90 Euro und damit gleichauf mit denen in
Deutschland, waren sie 2011 mit 35,30 Euro den deutschen (33,90 Euro) bereits spürbar voraus. Die starke
Subventionierung vieler Wirtschaftsbereiche und die Arbeitskosten erhöhende Regulierungen — etwa bei der
regulären Wochenarbeitszeit —, führen in Frankreich zu
einem Teufelskreis aus steigenden Abgaben und Kosten, dadurch ausgelösten Beschäftigungsrückgängen
und erhöhtem Subventionsbedarf sowie wiederum zu
zunehmenden Abgaben und Kosten, wenn kein anderes
Ventil zugelassen wird.
Wirtschaftspolitische Alternativen: Aus Sicht vieler französischer Ökonomen befindet sich Frankreich in einer sehr
schwierigen „Sandwich-Situtation“ (Artus, S. 1). Oben
steht die französische Wirtschaft wegen der gestiegenen Wettbewerbsfähigkeit von Ländern wie insbesondere Deutschland unter Druck, das differenzierte und qualitativ hochwertige (Industrie-)Produkte zu wettbewerbsfähigen Preisen anbietet. Von unten gibt es Druck durch
Schwellenländer und etwa das sich reformierende und
kostengünstiger produzierende Spanien, das in preissensiblen Produktionssegmenten mittlerer und niedriger
Qualität konkurriert. Das zwingt Frankreich, entweder
die Produktionskosten — vor allem die Arbeitskosten
— deutlich und nachhaltig zu senken (ohne die sehr
hohen Abgabenlasten zu steigern), um im unteren und
mittleren preiselastischen Produktionsbereich wieder
wettbewerbsfähig zu werden (vgl. Artus, S. 3 f.) oder die
Innovationsfähigkeit seiner Wirtschaft umfassend zu
stärken, um über die Qualität konkurrieren zu können.
Letzteres verspricht jedoch kaum schnelle Erfolge. Die
Herausforderungen sind also beträchtlich.
Deshalb ist es umso problematischer, dass Unternehen
nun durch höhere Steuern aus dem Land getrieben werden (vgl. Schmieding/Schulz, S. 73). Zumindest scheint
sich die französische Regierung von wirtschaftlich kontraproduktiven Wahlversprechen zu verabschieden (vgl.
Moscovici). Anlass dürfte auch der im November veröffentlichte Plan des ehemaligen EADS-Chefs Louis Gallois für eine „Schocktherapie“ sein, der unter anderem
eine Senkung der Lohnnebenkosten um 30 Mrd. Euro vorsieht (vgl. IW, S. 5).
Lehren aus Deutschlands Reformen: Die wesentliche
Lehre besteht darin, dass ein strategischer Kurswechsel
(vgl. Funk 2010, S. 95 f.), durch den die systematische
Überforderung der Verteilungsspielräume durch Überregulierung, einen zu hohen Staatsanteil und einen überbordenden Sozialstaat überwunden wird, Erfolg verspricht. Frankreichs Lage ist ähnlich wie die Deutschlands in den Jahren 2002 bis 2003, als es als „kranker
Mann Europas“ galt. Durch ein Herumdoktern an den
Symptomen, wie es die deutschen Regierungen vor der
Agenda 2010 versuchten (vgl. Funk 2002, S. 270 ff.),
lässt sich vielleicht noch etwas Zeit gewinnen, was im
Ergebnis jedoch nur zu einer noch größeren Krise führen
dürfte.
Fazit: Frankreich schneidet zwar nicht bei allen Standortfaktoren schlechter ab als andere Länder der EuroZone. So ist die demografische Entwicklung besser, außerdem sind die Energiekosten niedriger. Bei den negativen Standortfaktoren besteht allerdings akuter wirtschaftspolitischer Handlungsbedarf. Die deutschen Reformerfolge im letzten Jahrzehnt zeigen, dass adäquate
Strukturreformen, wie sie der Gallois-Bericht vorschlägt, schon nach wenigen Jahren Früchte tragen
können. Die neue französische Regierung muss ihre
Chancen angesichts der wettbewerbsstärkenden Strukturreformen in den europäischen Krisenländern wie Spanien nutzen, da die Lage des Landes sonst in Kürze noch
schwieriger wird.
WISU-KOMPAKT
2. Thema: Expansive Geldpolitik —
die Kritik seitens der österreichischen Schule
Die österreichische Schule der Nationalökonomie hat
durch die Finanzkrise 2008/09 wieder an Bedeutung
gewonnen. Erläutern Sie kurz die Entwicklung, ihre
Hauptaussagen zur „lockeren“ Geldpolitik, die zentrale Kritik an diesem Ansatz und die sich daraus ergebenden wirtschaftspolitischen Folgerungen. Stellen
Sie den Bezug zur Finanzmarktkrise her. Unterstellen
Sie zur Vereinfachung eine geschlossene Volkswirtschaft.
Hintergrund: Die traditionelle neoklassische Lehrbuchdarstellung der Geldpolitik im Fall einer Konjunkturbelebung besagt: Unter bestimmten Umständen — vor allem
bei volkswirtschaftlichem Nachfragedefizit — kann eine
gezielte expansive Geldpolitik helfen, die Wirtschaft aus
einem konjunkturellen Tief herauszuführen, wenn sie die
zinsabhängige Güternachfrage stimuliert (vgl. Funk/Voggenreiter/Wesselmann 2012, S. 1629 ff.). Im Gegensatz
dazu hat die österreichische Denkschule die negativen Effekte dieser Politik schon beim Aufkommen des Keynesianismus in den Vordergrund gerückt (vgl. Burgin, S. 23
f.). In Deutschland hat der mögliche Konflikt zwischen
der keynesianischen und der österreichischen Position angesichts der Erfahrungen mit der Finanzkrise 2008/09
und einer geldpolitischen Strategie, wie so vor allem in
den USA praktiziert wird, erhöhte Aufmerksamkeit erlangt
(vgl. Mayer 2012a und den Überblick bei Erlei 2012a). Keynesianisches Motto scheint zu sein, kleine konjunkturelle Einbrüche einfach mit expansiver Geldpolitik zu bekämpfen. Aus Sicht vieler Kritiker war jedoch gerade das
eine wesentliche Ursache für die nachfolgende noch
größere Krise, die aus der Perspektive der Verfechter einer expansiven keynesianischen Geldpolitik weitere monetäre Lockerungen erforderlich machte (vgl. Harris, S.
13 ff.). Diese aus Sicht der Kritiker verfehlte, allzu expansive Geldpolitik zur Konjunkturbelebung habe jedoch nicht
nur „in die größte Finanzkrise aller Zeiten“ geführt, sondern „die Rolle des Kredits für die Märkte für Vermögenswerte und die reale Wirtschaft schlicht ignoriert“
(Mayer 2012b).
Die österreichische Kritik an der expansiven Geldpolitik: Anders als die führenden, keynesianisch inspirierten
Geldpolitiker und Makroökonomen, zu denen in den USA
etwa Paul Krugman zählt, präferiert die österreichische
Konjunkturtheorie, deren hauptsächliche Begründer die
Österreicher Friedrich v. Hayek und Ludwig v. Mises sind,
die zentrale These, wonach sich eine Geldpolitik zur
Konjunkturbelebung neben ihren kurzfristigen konjunkturellen Impulsen vor allem durch einen negativen Struktureffekt auszeichne. Aus Sicht der österreichischen Denkschule bewirkt die „lockere“ Geldpolitik nicht nur erhöhte
Investitionen, sondern hat in erster Linie Investitionen
zur Folge, die langfristig zu Fehl- und Überkapazitäten
führen. Der Grund ist die Senkung des Zinses auf ein
Niveau, bei dem der Darlehnszins der Geschäftsbanken
— der Zins, der sich auf dem Kreditmarkt durch Angebot
und Nachfrage bildet — unter dem Niveau des natürlichen Zinses liegt, der nachhaltig wäre: „Dies ist zum einen der Zins, bei dem sich die Nachfrage nach Krediten
für Investitionszecke und das Angebot an Ersparnissen
gerade ausgleichen; dieser Zins entspricht zum anderen
in etwa der erwarteten Rendite aus den neuen Investitionen“ (Issing 2007, S. 105). Der natürliche Zins ist folglich der gleichgewichtige Realzins, bei dem es sich allerdings um eine nicht beobachtbare Größe handelt (vgl.
Issing 2008, S. 79).
Durch ein niedrigeres Zinsniveau als dem gleichgewichtigen Realzins komme es zu Investitionen, bei denen die
Einnahmeüberschüsse erst in ferner Zukunft liegen, dies
gelte etwa für den Immobiliensektor und Finanzdienstleistungen. Die entsprechenden Projekte rechneten sich
nur deshalb, weil sich die Zinsen auf einem niedrigen Niveau befinden und die Geschäftsbanken mehr Kredite
vergeben als sich mit einer langfristigen Stabilität vereinbaren lässt. Bei nachhaltigem volkswirtschaftlichem
Gleichgewicht wären diese Kredite nie vergeben und die
damit finanzierten Vorhaben mangels Rentabilität auch
nicht durchgeführt worden.
Zudem verringert sich bei niedrigen Zinsen der Anreiz
zum Sparen, wodurch sich auch die Kredite für Investitionen reduzieren. Stattdessen steigt die Konsumnachfrage. Indem die Konsumgüterbestände abgebaut und Anlagen intensiver genutzt werden, die Arbeitskräfte durch
steigende Löhne in konsumfernen Stufen aus konsumnahen Bereichen abgezogen und die Reserven am Arbeitsmarkt durch die steigende Arbeitsnachfrage über
ihr normales Niveau hinaus ausgeschöpft werden, lässt
sich die damit verbundene Investitions- und Konsumnachfrage zunächst befriedigen. Die Überauslastung der
Maschinen und Anlagen führt jedoch zu einer stärkeren
Abnutzung, sie ist somit quasi ein ungeplanter Kapitalabbau. So kann jedoch kurzfristig die nun höhere Nachfrage nach neuen Investitionsgütern zunächst verwirklicht werden.
Mittel- und längerfristig sind dieses realwirtschaftliche
Ungleichgewicht (vgl. zur grafischen Ableitung Erlei 2012b,
S. 18 f.) und diese Geldpolitik aus österreichischer Perspektive jedoch nicht geeignet, um eine dauerhafte Konjunkturbelebung oder gar mehr nachhaltiges Wachstum
zu erreichen. Denn das dadurch induzierte Auseinanderklaffen zwischen gestiegener Investitionsnachfrage und
gesunkener Bereitschaft zum Sparen wird letztlich aus
österreichischer Perspektive unter sonst gleichen Bedingungen Zinserhöhungen zur Folge haben. Eine Alternative
dazu ist eine immer stärkere expansive Geldpolitik, die
längerfristig in höherer Inflation münden müsse (vgl.
Mayer 2012b).
Eine deutlich zunehmende Inflation und höhere Zinsen
erfordern weitere Anpassungen, da die Notenbank eine
dauerhaft steigende Inflation aufgrund ihres Auftrags
bzw. wegen der negativen Inflationseffekte mit Zinsanhebungen bekämpfen muss. Steigende Zinsen signalisieren jedoch die Ineffizienz und mangelnde Rentabilität
der zuvor aufgebauten Sachkapitalstruktur. Soweit eine
Neubewertung der Vermögensobjekte zu Vermögensverlusten und Unternehmenspleiten sowie Entlassungen
führt (wie etwa in den USA oder in Spanien infolge der
Immobilienkrise), gerät auch die Realwirtschaft in die
Krise.
Zentrale Kritik: Die als Weiterentwicklung der neoklassischen Theorie, die eine vom Realzins abhängige steigende Spar- und fallende Investitionsfunktion unterstellt,
entstandene und oben angenommene Loanable-FundsTheorie stellt im Gegensatz zur hier nicht weiter erläuterten Liquiditätspräferenztheorie des Zinses von Keynes (vgl. Funk/Voggenreiter/Wesselmann 2008, S. 208
ff.) die realen Determinanten des Zinses in den Vordergrund. Allerdings wird das ursprüngliche Modell um monetäre Einflüsse modifiziert. Da auch die Keynesianer die
rein monetäre Erklärung des Zinses um realwirtschaftliche Einflüsse ergänzt haben, scheint es zu einem weitgehenden Konsens gekommen zu sein, wonach „beide
Theorieansätze letztlich zu dem gleichen Ergebnis führen“ (Issing 2008, S. 128). Soweit dies zutrifft, ist die fundamentale österreichische Kritik am Keynesianismus in
dieser Hinsicht überzogen.
Die meist gewählte grafische Darstellung der LoanableFunds-Theorie erfolgt zudem unter einer sehr restriktiven Ceteris-paribus-Klausel, die in jüngerer Zeit vor allem die wirtschaftspolitisch relevante Debatte wieder
angeheizt hat. „Indem … z.B. die Ersparnis ausschließlich in Abhängigkeit von der Zinshöhe abgebildet wird,
werden andere Einflussfaktoren vernachlässigt bzw. als
WISU
1/13
71
WISU-KOMPAKT
gegeben unterstellt. Die Annahme eines gegebenen Volkseinkommens unabhängig von der Zinshöhe und der Größe der Investitionen ist natürlich mehr als problematisch“ (Issing 2008, S. 128).
Darüber hinaus trifft die von der österreichischen Konjunkturtheorie üblicherweise unterstellte Hypothese, dass
schon länger andauerndes inflationsarmes Wachstum regelmäßig als Alarmzeichen für eine zu expansive Geldpolitik zu sehen sei, keineswegs immer zu. Wirtschaftspolitisch besteht bei einer damit verbundenen möglichen Fehldiagnose die Gefahr, dass ein stabiler Aufschwung vorzeitig aus ungerechtfertigter Angst vor Inflationsgefahren durch Zinserhöhungen gestoppt wird.
Diese heute vor allem von Edmund S. Phelps in seiner
strukturalistischen Makroökonomik vertretene These beruht auf konjunkturtheoretischen Erwägungen von Vertretern der deutschen historischen Schule (vgl. vor allem
Zimmermann 2007, S. 215 ff., und als neuerer Überblick
Funk 2013).
Wirtschaftspolitische Implikationen: Die Diagnose der
österreichischen Konjunkturtheorie scheint die wesentlichen empirischen Regelmäßigkeiten von Finanzkrisen
recht gut zu erklären, wie auch die jüngeren Erfahrungen
bestätigen. Konkurrierende keynesianische Erklärungsansätze sind jedoch keineswegs so eindeutig widerlegt,
wie dies bisweilen suggeriert wird (vgl. Krugman/Wells,
S. 933 ff., vor allem S. 950 f.; Krugman).
Folgt man jedoch der österreichischen Schule, so sind
vor allem diese wirtschaftspolitischen Schlüsse relevant: Eine dauerhafte expansive Geldpolitik, die unangenehme strukturelle Wandlungsprozesse hinausschieben
will, ist gefährlich (vgl. Erlei 2012b, S. 19 f.). Ein konjunktureller Abschwung geht oft mit Anpassungen einher, die
die zuvor verzerrten Wirtschafts- und Kapitalstrukturen
korrigieren. Volkswirtschaftliche Produktionsfaktoren sind
dann aus obsolet gewordenen in neue Verwendungszwecke zu lenken, was das „Wirkenlassen des zwischenzeitlich leidvollen Marktprozesses“ voraussetzt, „an
dessen Ende eine ökonomisch nachhaltige Wirtschaftsstruktur steht“ (Erlei 2012b, S. 20). Ein bloßes geldpolitisches Kurieren an den Symptomen ist hingegen kontraproduktiv, wenn gleichzeitig der nötige Strukturwandel
blockiert ist.
Allerdings ist auch aus Sicht der österreichischen Konjunkturtheorie eine expansive Geldpolitik nicht immer falsch:
„Eine vorübergehende Ausweitung der Zentralbankkredite in der akuten Phase einer Finanzkrise ist ja durchaus
zu vertreten. Dadurch kann verhindert werden, dass wegen akuten Mangels an Liquidität nicht nur faule, sondern auch viele gesunde Kredite abgeschrieben werden
müssen“ (Mayer 2012b). Darüber hinaus müsste die Geldpolitik bei Vermögensblasen, deren Platzen erheblichen
volkswirtschaftlichen Schaden anrichten kann, weniger
expansiv gestaltet werden als dies etwa in den USA vor
der Finanzkrise der Fall war — unter noch festzulegenden Bedingungen, auch um den Preis kurzfristiger konjunktureller Einbrüche. Denn nicht wenige wissenschaftliche Studien „have shown that nearly all bubbles in history have been accompanied or preceded by strong
growth in money or credit“ (Issing 2012, S. 27).
Folglich haben möglicherweise riskante makroökonomische Situationen in Form von Vermögensblasen und im
Sinne der österreichischen Konjunkturtheorie eindeutig
die Aufmerksamkeit der Zentralbanken verdient. Sie
können durch adäquate Einflussnahme auf die gesamtwirtschaftliche Geldmengen- und Kreditvergabe zur Eindämmung finanzieller Instabilitäten beitragen: „A major
contribution would be to avoid the emergence of unsustainable developments in money and credit“ (Issing
2012, S. 27).
Prof. Dr. Lothar Funk, Düsseldorf
WISU
72
1/13
Literatur:
Zum 1. Thema:
Artus, P.: France: The sandwich. In: Flash Economics. Natixis
Economic Research, 17.12.2012, Nr. 851, Paris.
Burda, M./Wyplosz, C.: Macroecoomics — A European Text.
6. Aufl., Oxford 2012.
Cowen, T./Tabarrok, A.: Modern Principles: Macroeconomics. 2. Aufl., New York 2012.
Funk. L.: Ohne Fortune und ohne Mut: Die verpassten Reformchancen rot-grüner Arbeitsmarktpolitik. In: Sozialer
Fortschritt, 51. Jg. (2002), H. 11, S. 270 ff.
Funk, L.: Social Market Economy at Sixty: Path Dependence
and Path Changes. In: Glossner, C.L./Gregosz, D. (Hrsg.):
Sixty Years of Social Market Economy: Formation, Development and Perspectives of a Peacemaking Formula.
Berlin/Sankt Augustin 2010, S. 85 ff.
IMF — International Monetary Fund: France 2012 Article IV
Consultation. Washington, D.C., Dezember 2012.
IW — Institut der deutschen Wirtschaft Köln: Nachbar unter
Druck. In: IW-Dienst, 38. Jg. (2012), H. 50, S. 4 f.
Miard-Delacroix, H.: Partner für Europa: 50 Jahre deutschfranzösische Zusammenarbeit — eine Analyse. In: DE Magazin Deutschland 2012, H.3, S. 20 f.
Moscovici, P.: Das Jahr der Abrechnung. In: Handelsblatt v.
27.12.2012, S. 48.
Schmieding, H./Schulz, C.: The 2012 Euro Plus Monitor: The
Rocky Road to Balanced Growth. The Lisbon Council/Berenberg Bank, Brüssel/Hamburg 2012.
Uterwedde, H.: Deutschland und die Gouvernanz des Euroraums. In: Konrad-Adenauer-Stiftung/ifri (Hrsg.): Der deutsche Weg aus der Krise — Wirtschaftskraft und Strukturschwächen des ‚Modells Deutschland'. Paris 2012, S. 154 ff.
o.V.: Der französische Patient. In: WISU, 41. Jg. (2012), S. 1528 ff.
Wohlgemuth, M.: Soziale Marktwirtschaft für Europa? Ordnungspolitik in der Krise. In: Schulten, M./Wohlgemuth, M./
Müller, C. (Hrsg): Ökonomische Bildung und Wirtschaftsordnung. Stuttgart 2012, S. 3 ff.
Zum 2. Thema:
Burgin, A.: The Great Persuasion. Reinventing Free Markets
since the Depression. Cambridge (USA)/London 2012.
Erlei, M.: Die Wirtschaftskrise aus der Sicht der Österreichischen Konjunkturtheorie. In: Held, M./ Kubon-Gilke, G./
Sturn, R. (Hrsg.): Normative und institutionelle Grundfragen
der Ökonomik. Jahrbuch 11: Lehren aus der Krise für die
Makroökonomik. Marburg 2012a, S. 183 ff.
Erlei, M.: Finanzmarktkrise und Staatschuldenkrise. In: AMOS
International, 6. Jg. (2012b), H. 3, S. 15 ff.
Funk, L.: Edmund S. Phelps und die nicht-walrasianische Theorie natürlicher Arbeitslosigkeit. In: Leschke, M./Pies, I.
(Hrsg.): Edmund S. Phelps’ strukturalistische Ökonomik.
Tübingen 2013, S. 33 ff.
Funk, L./Voggenreiter, D./Wesselmann, C.: Makroökonomik.
8. Aufl., Stuttgart 2008.
Funk, L./Voggenreiter, D./Wesselmann, C.: Geldpolitik zur Konjunkturbelebung. In: WISU, 41. Jg., (2012), S. 1629 ff.
Harris, E.S.: Ben Bernanke’s FED. The Federal Reserve after
Greenspan. Boston 2008.
Issing, O.: Der Euro. Geburt — Erfolg — Zukunft. München 2008.
Issing, O.: Lessons for Monetary Policy. In: Blanchard, O./Romer, D./Spence, M./Stiglitz, J. (Hrsg.): In the Wake of the
Crisis — Leading Economists Reassess Economic Policy,
Cambridge (USA)/London 2012, S. 25 ff.
Issing, O.: Einführung in die Geldtheorie. 14. Aufl., München
2012.
Krugman, P.: When Prophecy Fails. In: New York Times v.
24.12.2012, S. A21.
Krugman, P./Wells, R.: Economics. 3. Aufl., New York 2012.
Mayer, T.: Im Zweifel für die Österreicher. In: Frankfurter Allgemeine Sonntagszeitung v. 10.6.2012a. www.faz.net/aktuell/
wirtschaft/mayers-weltwirtschaft/mayers-weltwirtschaftim-zweifel-fuer-die-oesterreicher-118315 53.html
Mayer, T.: Play it again, Ben. In: Frankfurter Allgemeine Sonntagszeitung v. 17.6.2012. http://www.faz.net/aktuell/wirtschaft/ mayers-weltwirtschaft/mayers-weltwirtschaft-playit-again- ben-11831535.html
Zimmermann, G.: Austrian Elements of Structuralist Unemployment Theory? In: Quarterly Journal of Austrian Economics, 10. Jg. (2007), S. 209 ff.
WISU-KOMPAKT
WISU-CHECK-UP
✓
Plankostenrechnung
Der WISU-Check-up dient der Überprüfung des eigenen Kenntnisstandes und soll dazu anregen, Wissensund Verständnislücken aufzuspüren und ihnen anhand geeigneter Literatur nachzugehen. Die Fragen werden aus allen Bereichen der Betriebs- und Volkswirtschaftslehre gestellt und haben unterschiedlichen
Schwierigkeitsgrad. Es ist möglich, dass mehrere Antworten richtig sind.
Die Plankostenrechnung (PKR)
a) ist ein zukunftsbezogenes Verfahren der Kosten- und
Leistungsrechnung.
b) beruht auf Erfahrungswerten, die sich als Durchschnittswerte aus den Ist-Kosten vergangener Perioden ergeben haben.
c) ist die Rechnung mit künftigen Mengen (Planmengen) und tatsächlichen Preisen (Ist-Preisen).
d) dient der Ermittlung und Vorgabe geplanter Kosten
(Plankosten), die eine Kostenkontrolle ermöglichen
und die Grundlage der innerbetrieblichen Steuerung sind.
e) benötigt zur Kostenkontrolle auch die Ist-Kosten.
Zu den Aufgaben der PKR zählen die
a) Kontrolle der Wirtschaftlichkeit durch Soll-Ist-Vergleiche.
b) Aufdeckung der Ursachen von Plan-Ist-Abweichungen.
c) Ermittlung zukunftsbezogener Informationen für die
Entscheidungsträger im Unternehmen.
d) Durchführung der Produktkostenplanung.
Systeme der PKR sind die
a)
b)
c)
d)
Vollkostenrechnung auf Ist-Kostenbasis.
Teilkostenrechnung auf Normalkostenbasis.
Grenzkostenrechnung auf Ist-Kostenbasis.
Plankostenrechnung auf Vollkostenbasis (starr/flexibel).
e) Plankostenrechnung auf Teilkostenbasis (Grenzplankostenrechnung).
Plankosten
a) sind das Produkt aus geplanten Faktormengen und
geplanten Faktorpreisen.
b) werden häufig aufgrund fester Verrechnungspreise
berechnet.
c) ergeben sich aus der Summe aller variablen und fixen Plankosten einer Kostenstelle.
d) haben Vorgabecharakter.
Die Festlegung der Plankosten erfolgt aufgrund von
a) bereinigten Ist-Daten der Vergangenheit unter Anwendung statistischer Verfahren (z.B. mittels Regressionsanalyse).
b) technologischen und organisatorischen Abhängigkeiten.
c) Verbrauchsmessungen.
d) Kostenschätzungen/-prognosen durch Experten
(z.B. Kostenstellenleiter).
Die starre PKR
a) ist eine Form der kurzfristigen Erfolgsrechnung, die
auf einer Teilkostenrechnung aufbaut.
b) berücksichtigt das Kostenverhalten bei Änderungen
des Beschäftigungsgrades.
c) ist ein einfaches, vergangenheitsorientiertes Verfahren der Kostenrechnung.
d) erfordert keine Kostenauflösung in variable und fixe
Kostenbestandteile.
e) ist stets eine Vollkostenrechnung.
In einem Industriebetrieb sind für die kommende Pe-
riode Plankosten von 44.000 Euro vorgesehen. Die
Planbeschäftigung beträgt 800 Stück. Die tatsächliche
Beschäftigung liegt bei 600 Stück mit Ist-Kosten von
40.000 Euro. Wie hoch ist die Kostenabweichung der
Ist-Beschäftigung bei Anwendung der starren PKR?
a) 5.000 Euro
b) 6.500 Euro
c) 7.000 Euro
Die starre PKR
a) ermöglicht bei Abweichungen vom festgelegten Beschäftigungsgrad eine fundierte Kostenkontrolle.
b) ist für die zur Kostenkontrolle notwendigen differenzierten Abweichungsanalysen zwischen Ist- und Plankosten wenig geeignet.
c) ist für die Kostenkontrolle bei schwankender Beschäftigung ungeeignet.
d) legt je Kostenstelle mehrere Beschäftigungsgrade
fest.
Zu den charakteristischen Merkmalen der flexiblen PKR
zählt, dass
a) die Kosten der Kostenstellen planmäßig in fixe und
variable Bestandteile aufgespalten werden (Kostenauflösung).
b) eine Umrechnung der Plankosten bei Planbeschäftigung auf die Ist-Beschäftigung vorgenommen wird.
c) sich die gesamten Plankosten gegenüber Beschäftigungsabweichungen anpassen.
d) auf Vollkostenbasis zwei Plankalkulationssätze errechnet werden (jeweils ein Plankalkulationssatz
für die fixen und die variablen Kostenbestandteile).
Bei einer flexiblen PKR
a) können vom Kostenstellenleiter nicht zu vertretende Abweichungen nicht aus dem Soll-Ist-Vergleich
eliminiert werden.
b) wird eine Kostenstellenrechnung nicht mehr benötigt.
c) zeigt die Abweichung zwischen Ist-Kosten und verrechneten Plankosten eine Kostenüberdeckung oder
eine Kostenunterdeckung.
d) werden die Plankosten der Kostenstellen für die
einzelnen Abrechnungsperioden (z.B. Monate) an
die jeweilige Ist-Beschäftigung angepasst.
Anstelle der Vorgabe von verrechneten Plankosten
mittels starrer Planverrechnungssätze pro Stück verwendet die flexible PKR Soll-Kosten. Diese
a) geben an, welche Kosten zu erwarten sind, wenn die
Beschäftigung von der Planung abweicht.
b) umfassen die fixen Kosten, die vom Beschäftigungsgrad unabhängig sind, und die vom Beschäftigungsgrad abhängigen variablen Kosten.
WISU
1/13
73
WISU-KOMPAKT
c) werden auch als Gesamtkosten der Planbeschäftigung bezeichnet.
d) sind auf die Ist-Beschäftigung umgerechnete
Plankosten.
e) entsprechen dem normalen (wirtschaftlichen) Verbrauch an Produktionsfaktoren.
Die Soll-Kosten lassen sich so ermitteln:
Plankosten  Planbeschäftigung
a) Variable
----------------------------------------------------------------------------------------------------------- + fixe Plankosten
b)
c)
d)
Ist-Beschäftigung
Variable Plankosten  Ist-Beschäftigung
--------------------------------------------------------------------------------------------------------- + fixe Plankosten
Planbeschäftigung
Fixe Plankosten  Planbeschäftigung
------------------------------------------------------------------------------------------------- + variable Plankosten
Ist-Beschäftigung
Fixe
Plankosten
 Ist-Beschäftigung- + variable Plankosten
--------------------------------------------------------------------------------------------Planbeschäftigung
Im Rahmen der flexiblen PKR auf Vollkostenbasis bil-
det die Differenz zwischen
a) Soll-Kosten und verrechneten Plankosten die Verbrauchsabweichung.
b) Soll-Kosten und verrechneten Plankosten die Beschäftigungsabweichung.
c) Ist-Kosten und Soll-Kosten die Beschäftigungsabweichung.
d) Ist-Kosten und Soll-Kosten die Kostenabweichung
der Ist-Beschäftigung (Preis- und/oder Verbrauchsabweichung).
e) Ist-Kosten und verrechneten Plankosten die Gesamtabweichung.
Die flexible PKR auf Vollkostenbasis
a) berücksichtigt nur die variablen Kosten.
b) unterscheidet für unterschiedliche Beschäftigungsgrade variable und fixe Kosten.
c) weist die Plankosten als Vollkosten aus.
Eine Preisabweichung
a) ist grundsätzlich vom Kostenstellenverantwortlichen beeinflussbar.
b) ergibt sich aus der Differenz von (Ist-Verbrauchsmenge x Ist-Preis) und (Ist-Verbrauchsmenge x
Planpreis).
c) kann sich z.B. durch kurzfristig erhöhte Einkaufspreise für das Fertigungsmaterial ergeben.
d) wird vermieden durch den Ansatz von Verrechnungspreisen.
e) wird umgangen durch den Ansatz kalkulatorischer
Kosten.
b) trennt zwar im Rahmen der Kostenstellenrechnung
variable und fixe Kosten, führt diese Trennung aber
nicht bei der Kostenträgerrechnung durch.
c) verwendet bei der Kostenträgerrechnung einen
Vollkostensatz.
d) verwendet bei der Kostenträgerrechnung einen
Teilkostensatz.
Die flexible PKR auf Teilkostenbasis
a) berücksichtigt nur die variablen Kosten, weil nur diese den Kostenträgern verursachungsgerecht zugerechnet werden können.
b) verrechnet ausschließlich Grenzkosten auf die
Kostenträger.
c) übernimmt die fixen Kosten als Block in die kurzfristige Betriebserfolgsrechnung.
d) vermeidet nicht die rechnerische Proportionalisierung der Fixkosten.
e) wird auch als Grenzplankostenrechnung bezeichnet.
In der Grenzplankostenrechnung
a) stimmen die proportionalen Soll-Kosten nie mit
den auf Basis der Ist-Beschäftigung verrechneten
Plankosten überein.
b) gibt es keine Beschäftigungsabweichung, da SollKosten und verrechnete Kosten übereinstimmen.
c) ist die Beschäftigungsabweichung immer null, da
Fixkosten keine Berücksichtigung finden.
d) kennzeichnet die Differenz zwischen den Soll-Kosten und den Ist-Kosten die Verbrauchsabweichung, die sich aus Preis- und/oder Mengenabweichung zusammensetzt.
Die flexible PKR auf Grenzkostenbasis ist nicht ge-
eignet für die
a) Berechnung der Selbstkostenpreise bei öffentlichen Aufträgen.
b) Festlegung des optimalen Produktionsprogramms.
c) Optimierung betrieblicher Engpässe.
d) Ermittlung der handelsrechtlichen Herstellungskosten.
e) Bewertung von Lagerbeständen unfertiger und fertiger Erzeugnisse.
Prof. Dr. Martina Wente,
Braunschweig/Wolfenbüttel
Die Beschäftigungsabweichung
a) entfällt bei der flexiblen Plankostenrechnung auf
Teilkostenbasis.
b) weist auf eine Unter- oder Überdeckung der geplanten variablen Kosten hin, die durch den Beschäftigungsgrad verursacht wird
c) ist gleich null, wenn Ist- und die Planbeschäftigung
übereinstimmen.
Die Verbrauchsabweichung
a) steht im Mittelpunkt der unternehmensinternen
Produktivitätskontrolle.
b) ist dem jeweiligen Verantwortungsbereich nicht
zurechenbar.
c) ist ein Hinweis auf unwirtschaftliches Handeln, für
das der Kostenstellenleiter verantwortlich ist.
d) liegt vor, wenn die Soll-Kosten die Ist-Kosten
übersteigen.
e) entsteht z.B. durch höheren Verbrauch von Betriebsstoffen oder ungewohnt hohen Ausschuss.
Die flexible PKR auf Vollkostenbasis
a) ermöglicht eine aussagefähige Kostenkontrolle
durch Berücksichtigung der Ist-Beschäftigung.
WISU
74
1/13
Literatur:
Däumler, K.-D./Grabe, J.: Kostenrechnung 3 — Plankostenrechnung und Kostenmanagement. 8. Aufl., Berlin/Herne
2009.
Freidank, C.-C.: Kostenrechnung. 9. Aufl., München/Wien
2012.
Haberstock, L.: Kostenrechnung 2: (Grenz-)Plankostenrechnung mit Fragen, Aufgaben und Lösungen. 10. Aufl., Berlin 2008.
Kilger, W./Pampel, J. R./Vikas, K.: Flexible Plankostenrechnung und Deckungsbeitragsrechnung. 13. Aufl., Wiesbaden 2012.
Langenbeck, J., Kosten- und Leistungsrechnung. 2. Aufl.,
Herne 2011.
Schildbach, T./Homburg, C.: Kosten- und Leistungsrechnung. 10. Aufl., Stuttgart 2008.
Die Lösungen stehen auf Seite 81.
Betriebswirtschaftslehre
Investitionsrechnung
Zeitwert des Geldes
Prof. Dr. Frank Schuhmacher / Dr. Benjamin R. Auer, Leipzig
Bei Anlage- oder Investitionsentscheidungen müssen Geldbeträge verglichen werden, die zu unterschiedlichen Zeitpunkten anfallen. Ein heute verfügbarer Geldbetrag ist in der Regel mehr wert als ein künftig verfügbarer gleicher Höhe, da der
heutige Betrag zinsbringend angelegt werden kann. Außerdem kann sich die Kaufkraft aufgrund von Inflation verringern.
I. End- und Barwerte von Einmalzahlungen
Verzinsungsarten
Eine grundlegende Frage bei einfachen zinsbringenden Geldanlagen ist häufig, welcher
Endwert sich bei einem bestimmten Zinssatz ergibt. Die Antwort darauf hängt von der
Art der Verzinsung ab.
Einfache Zinsrechnung
Bei einfacher Zinsrechnung werden während des Anlagezeitraums anfallende Zinsen
entweder dem Anlagekonto entnommen oder so darauf gutgeschrieben, dass die Zinsberechnung für jede Periode immer nur aufgrund des anfänglich angelegten Geldbetrags erfolgt.
Zinseszinsrechnung
Anders bei der Zinseszinsrechnung, bei der während des Anlagezeitraums anfallende
Zinsen periodisch gutgeschrieben werden und damit sukzessive die Grundlage für die
Berechnung weiterer Zinsen erhöhen. Im Gegensatz zur einfachen Verzinsung werden
hier auch die Zinsen verzinst, womit sich ein höherer Endwert der Geldanlage im Vergleich zur einfachen Verzinsung ergibt.
Da die Zinseszinsrechnung der Standardfall ist, wird sie auch hier unterstellt (zur einfachen Verzinsung vgl. Auer/Seitz, S. 70 ff.). Zur Vereinfachung wird zudem davon ausgegangen, dass das Geld für volle Jahre angelegt und jährlich verzinst wird. Das Formelwerk lässt sich unmittelbar in einen unterjährigen Kontext übertragen. Dazu muss z.B.
bei monatlichen Anlagen nur der Jahreszinssatz in einen Monatszinssatz (Division durch
12) und die Anzahl der Jahre in Monate (Multiplikation mit 12) umgerechnet werden.
Außerdem wird nicht mit gerundeten, sondern mit exakten Zwischenergebnissen weitergerechnet.
Endwertbestimmung
Formal kann man für den Endwert oder Future Value FV einer Einmalzahlung z0 nach n
Perioden Verzinsung mit einem Periodenzinssatz i festhalten, dass
(1)
FV = z0 · (1 + i)n,
wobei der Faktor (1 + i)n auch Aufzinsungsfaktor oder Endwert je Geldeinheit genannt
wird. Werden also 100 Euro für zwei Jahre bei sechs Prozent Zinsen p.a. (per annum, pro
Jahr) angelegt, erhält man über (1) einen Endwert von FV = 100 · (1 + 0,06)2 = 112,36
Euro. Nach einem Jahr weist das Anlagekonto einen um die erste Zinszahlung erhöhten
Wert von 100 · (1 + 0,06) = 106 Euro auf, der Grundlage für die Zinsberechnung im zweiten Jahr ist. Im zweiten Jahr liegt der Zins damit bei 106 · 0,06 = 6,36 Euro, was zu einem Endwert von 106 + 6,36 = 112,36 Euro bzw. 106 · (1 + 0,06) = 112,36 Euro führt.
Frage 1: Wie wirkt sich eine Erhöhung des Zinssatzes von zwei auf drei Prozent
p.a. auf den Endwert einer 50-jährigen Anlage von 100 Euro aus?
Barwertbestimmung
Eine weitere Frage lautet, wie viel Geld man heute anlegen muss, um nach n Perioden
bei einem Periodenzinssatz von i einen bestimmten Betrag zn zu erhalten. Es geht also
um den Wert z0, für den nach (1) die Beziehung z0 · (1 + i)n = zn gilt. Eine Umstellung dieWISU
1/13
75
BETRIEBSWIRTSCHAFTSLEHRE
ses Ausdrucks nach z0 liefert z0 = zn / (1 + i)n. Man bezeichnet z0 im Kontext einer solchen Frage auch als Barwert oder Present Value PV von zn und schreibt
(2)
zn
PV = -----------------.
 1 + i n
Der Faktor 1 / (1 + i)n wird Abzinsungsfaktor, Diskontfaktor oder Present Value je
Geldeinheit genannt. Eine Barwertberechnung der Form (2) heißt auch Diskontierung, der
dabei verwendete Zinssatz Diskontrate.
Vergleich
von Zahlungen
Formel (2) ist insbesondere beim Vergleich von Zahlungen wertvoll, die zu unterschiedlichen Zeitpunkten anfallen. Dazu ein Beispiel: Ein Student besitzt 6.000 Euro und
möchte sich davon einen Pkw kaufen. Der befreundete Händler A bietet ihm an, dass er
den gewünschten Pkw sofort haben kann und die 6.000 Euro erst in zwei Jahren zahlen
muss. Händler B bietet hingegen an, dass der Pkw bei Sofortzahlung nur 5.500 Euro kostet. Welches Angebot ist bei fünf Prozent Zinsen p.a. günstiger? Beim Angebot von
Händler B muss der Student heute 5.500 Euro aufbringen. Um beim Angebot von Händler A 6.000 Euro in zwei Jahren zahlen zu können, muss er heute nach (2) bei fünf Prozent
2
Zinsen p.a. jedoch nur PV = 6.000 / 1,05 = 5.442,18 Euro anlegen. Damit ist das Angebot von A günstiger.
Frage 2: Ein Student hat noch 300 Euro auf seinem Girokonto und einen
Schuldschein, wonach ihm ein Kommilitone in einem Jahr 100 Euro
zahlen muss. Ist die Behauptung des Studenten korrekt, dass sein
Vermögen derzeit 400 Euro beträgt? Der aktuelle Marktzins für
einjährige Geldanlagen liegt bei 1,5 Prozent.
II. End- und Barwerte von Zahlungsströmen
Nach- vs. vorschüssige
Zahlungsströme
Neben End- und Barwerten von Einmalzahlungen sind insbesondere auch die End- und
Barwerte von Zahlungsströmen, d.h. Abfolgen von in regelmäßigen Abständen anfallenden Zahlungen, relevant. Sie treten üblicherweise bei Einzahlungen bei Ratensparplänen oder bei Auszahlungen bei Rentenkonten auf. Man unterscheidet allgemein zwischen nach- und vorschüssigen Zahlungsströmen. Zahlungen sind dann nachschüssig, wenn sie jeweils am Ende einer Periode anfallen, und vorschüssig, wenn der
Mittelfluss am Periodenanfang erfolgt (vgl. Auer/Seitz, S. 78 ff.).
Grundlagen
der Endwertbestimmung
Zur Bestimmung des Endwerts eines Zahlungsstroms zunächst ein einfaches Beispiel:
Ein Student entscheidet sich, in den nächsten drei Jahren jedes Jahr 100 Euro zu sparen.
Erfolgen die Einzahlungen auf das Sparkonto nachschüssig, d.h. jeweils am Jahresende,
ergibt sich bei fünf Prozent Zinsen p.a. der Endwert
FVns = 100 · 1,052 + 100 · 1,051 + 100 = 315,25 Euro.
Die erste Zahlung wird nur zwei volle Jahre verzinst, da sie erst nach einem Jahr eingezahlt wird. Die letzte Zahlung wird nicht mehr verzinst, da sie am Ende des dritten Jahres,
d.h. zum Ende der Anlage, erfolgt.
Bei vorschüssiger Einzahlung, d.h. zu Jahresbeginn, ergeben sich nach drei Jahren
FVvs = 100 · 1,053 + 100 · 1,052 + 100 · 1,05 = 331,01 Euro,
da jede Zahlung nun eine Periode länger verzinst wird. Für den Endwert gilt also
FVvs > FVns. Dieser lässt sich auch unmittelbar aus den Ergebnissen der nachschüssigen Berechnung ableiten, da offensichtlich FVvs = FVns · (1 + i) gilt.
Formelwerk zur
Endwertbestimmung
Für den Endwert eines nachschüssigen Zahlungsstroms gibt es eine kompakte Formel, womit sich auch bei langen Zahlungsströmen schnell der Endwert berechnen lässt
(vgl. Bodie/Merton, S. 119; Brealey/Myers/Allen, S. 60 f.). Wird jeweils zum Ende von n
Perioden der gleiche Geldbetrag von z Euro bei einem Periodenzinssatz von i auf ein
Sparkonto eingezahlt, lautet der Kontostand bei Laufzeitende
(3)
FV ns = z  EWF  i n 
 1 + i n – 1 .
mit EWF  i n  = --------------------------i
EWF(i,n) wird hier auch Endwertfaktor genannt. Er gibt den Endwert einer n-maligen
nachschüssigen Einzahlung von einem Euro bei einem Zinssatz von i an.
WISU
76
1/13
BETRIEBSWIRTSCHAFTSLEHRE
Der Endwert eines vorschüssigen Zahlungsstroms kann unmittelbar unter Rückgriff
auf (3) angegeben werden, da
(4)
FVvs = FVns · (1 + i) = z · EWF(i, n) · (1 + i).
Um Endwertberechnungen weiter zu vereinfachen, werden häufig Endwertfaktoren tabelliert. Abb. 1 zeigt eine solche Tabelle für typische Werte von n und i. So erhält man
den Endwert eines Sparkontos mit einer Verzinsung von drei Prozent p.a., auf das
30 Jahre lang jeweils zum Jahresende 500 Euro eingezahlt werden, über (3) als
FVns = 500 · 47,5754 = 23.787,71 Euro.
Laufzeit n
Auch solche Fragen lassen sich leicht beantworten: Welcher Betrag z muss bei einem
Zins von vier Prozent p.a. zu jedem Jahresanfang angelegt werden, damit man nach
20 Jahren 20.000 Euro hat? Das lässt sich mithilfe von (4) beantworten, indem man
zunächst festhält, dass 20.000 = z · 29,7781 · (1 + 0,04). Eine Umstellung nach z liefert
den gesuchten Jahresbetrag von 645,80 Euro.
1
2
3
4
5
6
7
8
9
10
12
14
16
18
20
30
40
1%
1,0000
2,0100
3,0301
4,0604
5,1010
6,1520
7,2135
8,2857
9,3685
10,4622
12,6825
14,9474
17,2579
19,6147
22,0190
34,7849
48,8864
2%
1,0000
2,0200
3,0604
4,1216
5,2040
6,3081
7,4343
8,5830
9,7546
10,9497
13,4121
15,9739
18,6393
21,4123
24,2974
40,5681
60,4020
Zinssatz i
3%
1,0000
2,0300
3,0909
4,1836
5,3091
6,4684
7,6625
8,8923
10,1591
11,4639
14,1920
17,0863
20,1569
23,4144
26,8704
47,5754
75,4013
4%
1,0000
2,0400
3,1216
4,2465
5,4163
6,6330
7,8983
9,2142
10,5828
12,0061
15,0258
18,2919
21,8245
25,6454
29,7781
56,0849
95,0255
5%
1,0000
2,0500
3,1525
4,3101
5,5256
6,8019
8,1420
9,5491
11,0266
12,5779
15,9171
19,5986
23,6575
28,1324
33,0660
66,4388
120,7998
Abb. 1: Endwertfaktor für ausgewählte i und n
Frage 3: Welcher Betrag steht einem Jugendlichen bei seinem 18. Geburtstag
zur Verfügung, wenn seine Eltern bis dahin jedes Jahr vorschüssig
500 Euro auf sein Sparkonto bei einer Verzinsung von drei Prozent p.a.
eingezahlt haben?
Grundlagen
der Barwertbestimmung
Der Barwert eines Zahlungsstroms wird definiert als Summe der Barwerte seiner einzelnen Zahlungen. Er beantwortet allgemein die Frage, welcher Betrag heute zu einem
Zinssatz i angelegt werden muss, um über die Laufzeit von n Perioden die n Zahlungen
des Zahlungsstroms entnehmen zu können. Da solche Fragen meist im Zusammenhang
mit der Altersvorsorge auftreten, bezeichnet man die regelmäßigen Auszahlungen z hier
als Renten.
Um die Unterschiede nachschüssiger und vorschüssiger Renten zu veranschaulichen,
zunächst wieder ein einfaches Beispiel: Welcher Betrag muss heute eingezahlt werden,
um nachschüssig, d.h. jeweils zum Jahresende, über einen Zeitraum von drei Jahren bei
einem Zins von fünf Prozent p.a. 100 Euro entnehmen zu können. Den Betrag bzw. Barwert des Zahlungsstroms erhält man als
100
100
100
PV ns = ----------- + -------------- + -------------- = 272,32 Euro .
1,05 1,05 2 1,05 3
Da die ersten 100 Euro ein Jahr auf dem Konto liegen, bevor sie am Jahresende entnommen werden, werden sie genau eine Periode lang abgezinst. Entsprechend verbleiben
die letzten 100 Euro ganze drei Jahre bzw. bis zum Ende des letzten Jahres auf dem
Konto, sodass sie zur Barwertbestimmung drei Jahre lang abgezinst werden müssen.
Erfolgen die Entnahmen vom Anlagekonto vorschüssig, d.h. wird die erste Zahlung bereits bei Kontoeröffnung entnommen, und findet jede weitere Auszahlung zum Jahresbeginn statt, erhält man den Barwert
WISU
1/13
77
BETRIEBSWIRTSCHAFTSLEHRE
100- + ------------100- = 285,94 Euro .
PV vs = 100 + ---------1,05 1,05 2
Wie sich erkennen lässt, wird die erste Zahlung hier nicht abgezinst, da sie unmittelbar
entnommen wird und daher bereits einen Barwert darstellt. Generell liegen im Vergleich
zur nachschüssigen Betrachtung alle Zahlungen eine Periode weniger auf dem Anlagekonto, sodass sie eine Periode weniger abgezinst werden müssen. Es gilt PVvs =
PVns · (1 + i). Zudem ist PVvs > PVns. Vorschüssige Renten sind also stets teurer als
nachschüssige. Zur Finanzierung einer nachschüssigen Rente muss damit heute weniger Geld angelegt werden. Dies ist unmittelbar einleuchtend, da bei vorschüssiger Entnahme auf eine mögliche zusätzliche Verzinsung und den damit verbundenen Zinseszinseffekt verzichtet wird.
Frage 4: Wie lässt sich tabellarisch zeigen, dass bei einmaliger Anlage
von 272,32 Euro auf einem Rentenkonto mit einem Zins von
fünf Prozent p.a. über eine Dauer von drei Jahren jeweils am
Jahresende 100 Euro entnommen werden können?
Formelwerk zur
Barwertbestimmung
Wie bei der Endwertbestimmung gibt es auch für Barwerte kompakte Formeln (vgl. Bodie/Merton, S. 120; Brealey/Myers/Allen, S. 56 ff.). So ergibt sich der Barwert eines
nachschüssigen Zahlungsstroms mit n Zahlungen von z Euro bei einem Zinssatz von
i als
PV ns = z  RBF  i n 
(5)
1 –  1 + i  –n .
mit RBF  i n  = ----------------------------i
Der Ausdruck RBF(i,n) wird als Rentenbarwertfaktor bezeichnet. Er ist der Barwert eines Zahlungstroms aus n nachschüssigen Zahlungen von einem Euro bei einem Zinssatz
von i.
Wie bereits angemerkt, kann aus (5) direkt auf den Barwert eines vorschüssigen Zahlungsstroms geschlossen werden. Es gilt nämlich
Laufzeit n
(6)
PVvs = PVns · (1 + i) = z · RBF(i, n) · (1 + i).
1
2
3
4
5
6
7
8
9
10
12
14
16
18
20
30
40
1%
0,9901
1,9704
2,9410
3,9020
4,8534
5,7955
6,7282
7,6517
8,5660
9,4713
11,2551
13,0037
14,7179
16,3983
18,0456
25,8077
32,8347
2%
0,9804
1,9416
2,8839
3,8077
4,7135
5,6014
6,4720
7,3255
8,1622
8,9826
10,5753
12,1062
13,5777
14,9920
16,3514
22,3965
27,3555
Zinssatz i
3%
0,9709
1,9135
2,8286
3,7171
4,5797
5,4172
6,2303
7,0197
7,7861
8,5302
9,9540
11,2961
12,5611
13,7535
14,8775
19,6004
23,1148
4%
0,9615
1,8861
2,7751
3,6299
4,4518
5,2421
6,0021
6,7327
7,4353
8,1109
9,3851
10,5631
11,6523
12,6593
13,5903
17,2920
19,7928
5%
0,9524
1,8594
2,7232
3,5460
4,3295
5,0757
5,7864
6,4632
7,1078
7,7217
8,8633
9,8986
10,8378
11,6896
12,4622
15,3725
17,1591
Abb. 2: Rentenbarwertfaktor für ausgewählte i und n
Diese Formeln, unterstützt durch tabellierte Rentenbarwertfaktoren (Abb. 2), erlauben
es, eine Reihe praktischer Frage schnell zu beantworten. Will man etwa wissen, welchen
Geldbetrag eine Person zum Ruhestandsbeginn angespart haben muss, um damit eine
vorschüssige jährliche Rente von 20.000 Euro über einen Zeitraum von 20 Jahren bei einem Zinssatz von drei Prozent p.a. zu finanzieren, so erhält man ihn nach (6) als PVvs =
20.000 · 14,8775 · (1 + 0,03) = 306.475,98 Euro. Statt zu fragen, wie viel man bis zu einem bestimmten Zeitpunkt ansparen muss, um eine bestimmte gegebene Rente zu erhalten, kann man auch fragen, welche Rente man in Zukunft mit einem gegebenen Geldbetrag erzielen kann. So lässt sich z.B. mit 200.000 Euro (etwa aus einer Kapitallebensversicherung) über einen Zeitraum von 30 Jahren bei einer Verzinsung von vier Prozent
WISU
78
1/13
BETRIEBSWIRTSCHAFTSLEHRE
p.a. eine jährliche nachschüssige Rente von 11.566,02 Euro finanzieren. Nach (5) gilt
nämlich 200.000 = z · 17,2920. Die Umstellung nach z liefert die Rente.
Frage 5: Welchen Geldbetrag muss ein heute 35-jähriger Arbeitnehmer bis zu
seinem Ruhestand im Alter von 65 Jahren jährlich nachschüssig beiseitelegen, um mit der angesparten Summe 20 Jahre lang eine nachschüssige
Rente von jährlich 20.000 Euro finanzieren zu können? Der Zinssatz
in der Spar- und Rentenphase beträgt drei Prozent p.a.
Rentenbarwertfaktor
und der Vergleich von
Zahlungsströmen
Der besondere Wert von (5) und (6) liegt ähnlich wie bei Barwerten von Einmalzahlungen
darin, dass sich damit unterschiedliche Zahlungsströme vergleichen und so optimale
Entscheidungen treffen lassen. Dazu ein Beispiel: Der Student hat jetzt 8.000 Euro und
möchte sich wieder einen Pkw kaufen. Der befreundete Händler A bietet ihm an, in einem
Jahr 4.000 Euro und in zwei Jahren die restlichen 4.000 Euro zu zahlen. Händler B würde
ihm den Pkw gegen Zahlung von 7.800 Euro sofort überlassen. Welches Angebot bei vier
Prozent Zinsen p.a. günstiger ist, lässt sich so herausfinden: Aufgrund nachschüssiger
Zahlung erhält man nach (5) für den zweiperiodigen Zahlungsstrom einen Barwert von
PVns = 4.000 · 1,8861 = 7.544,38 Euro. Mit einer heutigen Anlage in dieser Höhe könnte
der Student also die beiden künftigen Zahlungen finanzieren. Bei Händler B müsste er
heute hingegen 7.800 Euro > 7.544,38 Euro aufbringen, womit das Angebot des A günstiger ist.
Rentenbarwertfaktor
und Kredittilgung
Da Kredite üblicherweise die Rückzahlung der ursprünglich zur Verfügung gestellten
Summe (PV) in periodisch konstanten Beträgen (z) vorsehen, können die Formeln (5) und
(6) auch hier eingesetzt werden (vgl. Bodie/Merton, S. 124 f.). In der Praxis wird meist ein
periodisch konstanter Betrag (Annuität) bezahlt, der sich aus dem Zins auf die Restschuld und der Tilgungsleistung zusammensetzt. Da nach jeder Zahlung die Restschuld
durch die Tilgungsleistung sinkt, nimmt der Anteil der Annuität, der auf die Zinsen entfällt, im Laufe der Zeit ab. Gleichzeitig nimmt damit aufgrund der Konstanz der Annuität
der Tilgungsanteil zu. Ein Beispiel: Ein Kredit von 100.000 Euro mit einem vereinbarten
Zins von fünf Prozent soll in fünf Jahren zurückgezahlt werden. Die jährlich konstante
nachschüssige Zahlung ergibt sich nach (5) durch Umstellung von 100.000 = z · 4,3295
zu 23.097,48 Euro. Abb. 3 zeigt den Tilgungsplan des Kredits, d.h. die Entwicklung der
Restschuld sowie der Zins- und Tilgungsbestandteile der berechneten Annuität. So erhält man im ersten Jahr den Tilgungsbestandteil der Annuität, indem man von ihr den
Zins des ersten Jahres subtrahiert. Diesen erhält man als 100.000 · 0,05 = 5.000 Euro,
womit die Tilgung bei 23.097,48  5.000 = 18.097,48 Euro liegt. Den Kreditstand am
Jahresende bzw. die Restschuld, die in der nächsten Periode Grundlage der Zinsberechnung wird, erhält man damit als 100.000  18.097,48 = 81.902,52 Euro. Wie zu erkennen
ist, sinkt (steigt) der Zinsanteil (Tilgungsanteil) jedes Jahr. Bei Laufzeitende entspricht die
Summe der Tilgungsleistungen der anfänglichen Kreditsumme von 100.000 Euro.
Kreditstand
Jahr Jahresanfang
1
100.000,00
2
81.902,52
3
62.900,17
4
42.947,69
5
21.997,60
Annuität
23.097,48
23.097,48
23.097,48
23.097,48
23.097,48
115.487,40
Kreditstand
Zinsanteil Tilgungsanteil Jahresende
5.000,00
18.097,48 81.902,52
4.095,13
19.002,35 62.900,17
3.145,01
19.952,47 42.947,69
2.147,38
20.950,10 21.997,60
1.099,88
21.997,60
0,00
15.487,40
100.000,00
Abb. 3: Beispielhafter Tilgungsplan
Rentenbarwertfaktor
und Endwerte
Abschließend sei darauf hingewiesen, dass die Formeln (3) und (4) zur Endwertbestimmung auch in Abhängigkeit von Rentenbarwertfaktoren formuliert werden können, sodass genau genommen auf eine Tabellierung von Endwertfaktoren bzw. die Kenntnis der
Formeln zu ihrer Berechnung verzichtet werden kann (vgl. Brealey/Myers/Allen, S. 60 f.).
Für die Endwerte nachschüssiger und vorschüssiger Zahlungsströme gilt nämlich auch
(7)
FVns = z · RBF(i, n) · (1 + i)n,
(8)
FVvs = z · RBF(i, n) · (1 + i)n+1.
Den Endwert des nachschüssigen 500-Euro-Sparplans, der im Beispiel zu (3) ermittelt
wurde, hätte man also auch mittels (7) als FVns = 500 · 19,6004 · (1 + 0,03)30 = 23.787,71
Euro bestimmen können.
WISU
1/13
79
BETRIEBSWIRTSCHAFTSLEHRE
III. Inflation
Preissteigerung
und Kaufkraft
Neben der Verzinsung muss bei Anlagen auch die Inflationrate berücksichtigt werden,
will man sinnvolle Anlageentscheidungen treffen. Dazu ein Beispiel: Legt man als 20Jähriger 100 Euro zu acht Prozent Zinsen p.a. an, hat man im Alter von 65 Jahren
3.192,04 Euro. Sollten die Preise in diesem Zeitraum jährlich um acht Prozent steigen,
haben die 3.192,04 Euro die gleiche Kaufkraft wie einst die 100 Euro. Die Geldanlage
hätte also nicht zu zusätzlicher Kaufkraft geführt, sondern sie lediglich erhalten. Liegt die
Inflationsrate noch höher, kommt es sogar zu einem Kaufkraftverlust. Geht der Anleger
also davon aus, dass die Inflationsrate über dem Zinsertrag der Anlage liegt, ist es besser, er gibt das Geld heute aus, statt es zu sparen.
Nominal- vs.
Realzinssatz
Um die Berücksichtigung der Inflation zu gewährleisten, wird zwischen nominalen und
realen Zinssätzen unterschieden (vgl. Bodie/Kane/Marcus, S. 138 f.). Der nominale Zinssatz i ist in den Anlageverträgen vereinbart und misst die periodische prozentuale Erhöhung des Vermögens aufgrund der Anlage. Der reale Zinssatz r berücksichtigt die Inflationsrate  und bringt damit die prozentuale Erhöhung der Kaufkraft durch die Anlage zum Ausdruck. Beide Zinssätze stehen in der Beziehung
(9)
1 + i- ,
1 + r = -----------1+
approximativ kann man auch sagen
(10)
r = i .
Ein Anleger, der sein Vermögen zu einem Nominalzins von fünf Prozent p.a. angelegt hat
und mit einer Inflationsrate von zwei Prozent p.a. rechnet, kann mit diesen Formeln berechnen, dass seine Kaufkraft dadurch jährlich um r = (1 + 0,05) / (1 + 0,02)  1 = 0,0294
= 2,94% bzw. näherungsweise r = 0,05  0,02 = 0,03 = 3% steigt.
Frage 6: Wie erhält man anhand von (9) die Approximation in (10)?
Anlageentscheidungen
im realen Kontext
Die Berechnungen bei II. und III. lassen sich unmittelbar in einen realen Kontext übertragen. Dazu müssen in den Formeln lediglich die nominalen Zinssätze und nominalen
Zahlungen durch reale ersetzt werden (vgl. Brealey/Myers/Marcus, S. 139 ff.). Dazu ein
Beispiel: Ein Rentner erwartet, dass die jährliche Inflationsrate während seines Ruhestands zwei Prozent beträgt. Seine Bank gewährt ihm für sein Rentenkonto einen Nominalzins von fünf Prozent p.a. Um seinen Lebensstandard aufrecht zu erhalten, möchte er
seinem Konto zehn Jahre lang jährlich nachschüssig einen nominalen Betrag entnehmen, der ihm dieselbe Kaufkraft wie 20.000 Euro zum Zeitpunkt der Kontoeröffnung bei
Rentenbeginn sichert. Er fragt sich, welchen Betrag er heute einzahlen muss, damit dies
gewährleistet ist. Das lässt sich leicht errechnen, indem man den bereits im letzten Absatz berechneten Realzinssatz von 2,94 Prozent und den realen Wert von 20.000 Euro in
(5) einsetzt. Man erhält dann PVns = 20.000 · (1  (1 + 0,029)–10) / 0,0294 = 171.117,36
Euro.
Jahr
Kontostand
Jahresanfang
Zwischenstand
nach Zins
1
2
3
4
5
6
7
8
9
10
171.117,36
159.273,22
146.428,88
132.526,17
117.503,83
101.297,41
83.839,03
65.057,27
44.876,95
23.218,94
179.673,22
167.236,88
153.750,33
139.152,48
123.379,03
106.362,28
88.030,98
68.310,13
47.120,79
24.379,89
Jährliche Auszahlung
real
20.000,00
20.000,00
20.000,00
20.000,00
20.000,00
20.000,00
20.000,00
20.000,00
20.000,00
20.000,00
Faktor
1,021
2
1,02
1,023
1,024
5
1,02
1,026
1,027
8
1,02
1,029
10
1,02
nominal
20.400,00
20.808,00
21.224,16
21.648,64
22.081,62
22.523,25
22.973,71
23.433,19
23.901,85
24.379,89
Kontostand
Jahresende
159.273,22
146.428,88
132.526,17
117.503,83
101.297,41
83.839,03
65.057,27
44.876,95
23.218,94
0,00
Abb. 4: Reale vs. nominale Kontoentnahmen beim Beispiel
Abb. 4 zeigt die Entwicklung des Rentenkontos bei dieser Eröffnungssumme. Zur Erklärung der Tabelleneinträge werden beispielhaft die Werte des ersten Jahres
herausgegriffen: Der Kontostand zu Beginn des ersten Jahres entspricht der anfängWISU
80
1/13
BETRIEBSWIRTSCHAFTSLEHRE
lichen Einzahlung von 171.117,36 Euro. Am Jahresende wird nach Verzinsung dieser
Einzahlung, die zu einem Zwischenkontostand von 171.117,36 · 1,05 = 179.673,22 Euro
führt, ein nominaler Betrag von 20.000 · 1,02 = 20.400 Euro entnommen. Dies führt zum
Jahresendstand von 179.673,22  20.400 = 159.273,22 Euro. Den nominalen Betrag erhält man hier aufgrund der Überlegung, dass die Preise in einem Jahr um zwei Prozent
höher sind und daher ein um den Faktor 1,02 höherer nominaler Geldbetrag erforderlich
ist, um die gewünschte Kaufkraftkonstanz zu erhalten. Die Kaufkraft von 20.400 Euro zu
Ende des ersten Jahres ist genau so groß wie die Kaufkraft von 20.000 Euro zu Anlagebeginn. Analoges gilt auch für die weiteren Jahre, da hier in n Jahren die Preise um den
Faktor 1,02n höher sind. Für die Umrechnung von nominalen in reale Größen und umgekehrt lässt sich daher festhalten, dass
z nnominal = z nreal   1 +   n
und
z nreal = z nnominal   1 +   n .
Wie sich erkennen lässt, erlaubt also die Kenntnis der Inflationsrate allgemein die Berechnung der richtigen nominalen Entnahmen, um die gewünschte Kaufkraft zu erhalten.
Frage 7: Ein Student möchte sich in drei Jahren ein neues Auto kaufen. Er weiß,
dass das gewünschte Modell heute 20.000 Euro kostet, wegen der
jährlichen Preissteigerung von zwei Prozent in drei Jahren jedoch teurer
sein wird. Welchen Betrag muss er heute bei einem Nominalzins von
vier Prozent anlegen, um das Auto in drei Jahren kaufen zu können?
IV. Ausblick
Hier konnten naturgemäß nicht alle mit dem Zeitwert des Geldes verbundenen relevanten Fragen abgedeckt werden. So gibt es noch eine Reihe spezieller Renten, für welche
die Bestimmung von Erstanlagesummen oder daraus resultierender Auszahlungsstrukturen von besonderem Interesse ist. Dazu zählen etwa Renten, die periodisch mit gewissen Raten wachsen (vgl. Auer/Seitz, S. 83). Zudem gibt es neben Verzinsung und Inflation noch weitere Faktoren, die dazu führen können, dass eine Zahlung heute mehr
wert ist als eine Zahlung gleicher Höhe zu einem künftigen Zeitpunkt. Dazu gehört etwa,
dass künftige Zahlungen generell mit Unsicherheit behaftet sind, da das Risiko besteht, dass sie nicht erfolgen (vgl. Bodie/Merton, S. 102). Zudem sind die Barwertformeln
bei der Bewertung von Anleihen und Aktien ein Thema, das sich weiter vertiefen lässt, da
beide Wertpapiergattungen als Strom künftiger Zahlungen (Kupons, Dividenden) abgebildet werden können (vgl. Brealey/Myers/Marcus, S. 158 ff., 184 ff.).
Literatur:
Auer, B.R./Seitz, F.: Grundkurs Wirtschaftsmathematik: Prüfungsrelevantes Wissen — Praxisnahe
Aufgaben — Komplette Lösungswege. 3. Aufl., Wiesbaden 2011.
Bodie, Z./Kane, A./Marcus, A.J.: Investments. 6. Aufl., New York 2005.
Bodie, Z./Merton, R.C: Finance. Internationale Auflage, Upper Saddle River 2000.
Brealey, R.A./Myers, S.C./Allen, F.: Principles of Corporate Finance. 10. Aufl., New York 2011.
Brealey, R.A./Myers, S.C./Marcus, A.J.: Fundamentals of Corporate Finance. 7. Aufl., New York 2012.
Die Fragen werden im WISU-Repetitorium beantwortet.
Lösungen des WISU-Check up von Seite 73:
a,d,e a,b,c,d d,e a,b,c,d a,b,c,d d,e c b,c a,b,d d a,b,d b b,d,e b, b,c,d
a,c a,c,e a,b,c a,b,c,e b,c,d a,d,e
WISU
1/13
81
BETRIEBSWIRTSCHAFTSLEHRE
Finanzierung
Risikomanagement
bei Projektfinanzierungen
Prof. Dr. Jens Kümmel / Prof. Dr. Elke Kottmann /
Dipl.-Betrw. (FH) Henny Höfer, Lemgo
Großprojekte sind mit erheblichen Risiken verbunden, die ermittelt, gemessen und
bewertet werden müssen. Um die Risiken zu reduzieren und den Beteiligten entsprechend ihrer Risikotragfähigkeit zuzuordnen, werden bestimmte Techniken angewandt.
I. Überblick
Risiko
und Risikostruktur
Unter Risiko wird hier das negative Abweichen einer Zielgröße von ihrem geplanten Wert
verstanden. Projektfinanzierungen (vgl. Kümmel/Kottmann/Höfer) sind naturgemäß mit
vielfältigen Risiken in den jeweiligen Projektphasen behaftet. Die Risikostruktur verändert sich je nach Phase, d.h. ein und dasselbe Risiko kann unterschiedliche Ausmaße annehmen.
Vierstufiger
Managementprozess
Die Projektrisiken lassen sich mithilfe eines vierstufigen interdependenten Risikomanagementprozess ermitteln, bewerten, reduzieren und den Beteiligten zuteilen. Darüber
hinaus müssen übergeordnete Maßnahmen des Risikomanagement implementiert werden (vgl. Böttcher/Blattner, S. 33 ff.).
II. Ermittlung der Risiken
Projektendogene und
-exogene Risiken
Bei den meisten Projektfinanzierungen gibt es typische projektendogene und -exogene
Risiken. Während sich projektendogene Risiken zumindest teilweise von den am Projekt
Beteiligten steuern lassen, liegen die projektexogenen Risiken regelmäßig außerhalb deren Einfluss (vgl. Böttcher/Blattner, S. 45 f.).
Beeinflussbare Risiken
1. Projektendogene Risiken
Zu den projektendogenen Risiken zählen in der Regel (vgl. Böttcher, S. 73 ff.; Reuter,
S. 75 ff.; Tytko 1999, S. 142 ff.)
— das Fertigstellungsrisiko, d.h. alle Risiken aufgrund der Erstellung des Projekts.
Sie ergeben sich daraus, dass möglicherweise die vereinbarten Leistungswerte nicht
oder nicht dauerhaft erzielt werden, oder dass das Projekt zu spät, zu höheren Kosten
oder überhaupt nicht fertiggestellt wird.
— das Betriebs- und Managementrisiko, d.h. alle Risiken aus der laufenden Produktion, die im Extremfall zur Betriebsunterbrechung oder zum Stillstand der Anlage führen können. Mögliche Ursachen sind Mängel beim Betrieb, Fehler des Personals bei
Betrieb oder Wartung der Anlagen, aber auch fehlende Kompetenz und Erfahrung
des Managements.
— das technische Risiko, d.h. die Gefahr, dass aufgrund unausgereifter oder veralteter
Technologien nicht die zugesagte Qualität und Quantität der von der Anlage herzustellenden Produkte erzielt werden.
— das Zulieferrisiko, d.h. Vormaterialien werden nicht termingerecht bzw. in den vereinbarten Mengen, Qualitäten und/oder teurer geliefert. Dies kann zu Kapazitätsunterauslastungen, Produktionsstörungen und Produktmängeln führen.
— das Markt- und Absatzrisiko, d.h. die Marktfähigkeit der Projektprodukte. Es kann
dazu führen, dass die Preis- und/oder Mengenentwicklungen der Produkte hinter den
Prognosen zurückbleiben.
— das Abandon-Risiko, d.h. dass das Projekt vom Eigentümer aufgegeben bzw. eingestellt wird. Dazu kann es dann kommen, wenn es sich nachhaltig negativ entwickelt, womit seine Fortführung nicht mehr sinnvoll ist.
Frage 1: Welches weitere Risiko kann sich aus dem Fertigstellungsrisiko
ergeben?
2. Projektexogene Risiken
Nicht von den Beteiligten
beeinflussbare Risiken
WISU
82
1/13
Zu den projektexogenen Risiken zählen in der Regel (vgl. Böttcher/Blattner, S. 74 ff.;
Clifford Chance, S. 41 ff.; Schulte-Althoff, S. 112 ff.):
BETRIEBSWIRTSCHAFTSLEHRE
— das Reserve- und Ressourcenrisiko. Darunter wird die Gefahr verstanden, dass
Rohstoffe und andere natürliche Ressourcen nicht in der geplanten Menge und/oder
Qualität am Projektstandort vorhanden sind. Ein Risiko, das häufig bei Öl- und Gasförderungen, Rohstoffminen sowie Projekten im Zusammenhang mit erneuerbaren
Energien auftritt.
— das Wechselkursrisiko. Darunter versteht man die Gefahr von Wechselkursverlusten, weil die Einnahmen und Ausgaben des Projekts in verschiedenen Währungen anfallen. Währungen können sehr volatil sein. Fallen die Einnahmen bzw. Ausgaben
eher in weichen bzw. harten Währungen an, verschärft sich das Problem nochmals.
— das Zinsänderungsrisiko aufgrund schwankender Kapitalmarktzinsen. Bei einer
variabel verzinslichen (fest verzinslichen) Fremdfinanzierung des Projektes können
steigenden Finanzierungskosten zu den Zinsanpassungsterminen (bei der Refinanzierung) entstehen.
— das Inflationsrisiko. Darunter versteht man die Auswirkungen eines durchschnittlichen Preisniveauanstiegs auf die Einnahmen und Ausgaben des Projekts, die nicht
zwingend gleichermaßen steigen müssen. Steigen die Ausgaben relativ stärker als
die Einnahmen, kann dies zu erheblichen negativen Abweichungen von den prognostizierten Projekt-Cash-Flows führen.
— das Vertragsrisiko. Bei länderübergreifenden Projekten können unterschiedliche Rechtsordnungen der jeweiligen Staaten dazu führen, dass die Beteiligten ihre
Rechte nicht wie in ihrem Heimatstaat durchsetzen können.
— das politische Länderrisiko. Instabile politische Verhältnisse im Projektstaat können
das Projekt beeinträchtigen. Dazu zählen Probleme bei den Genehmigungsverfahren,
den Konzessionsvergaben sowie veränderte Gesetze und Regulierungsvorschriften,
die sich nachteilig auswirken.
— das wirtschaftliche Länderrisiko. Dazu gehören alle Risiken, die sich aus einer erheblich verschlechterten Wirtschaftslage im Projektstaat ergeben. So können Beschränkungen des Zahlungsverkehrs dazu führen, dass Gewinnausschüttungen an
Projektbeteiligte zeitlich und/oder der Höhe nach eingeschränkt werden.
— das Force-Majeure-Risiko. Darunter versteht man alle Risiken aufgrund höherer
Gewalt. Dazu zählen Naturkatastrophen wie Sturm, Brände, Überflutungen und Erdbeben sowie politisch-soziale Ereignisse wie Enteignung, Sabotage, Terrorismus,
Generalstreik, Aufstände oder Krieg.
Frage 2: Auf welchen Teil der Planung wirkt sich das Zinsänderungsrisiko
vor allem aus?
III. Bewertung der Risiken
1. Finanzmodelle als Grundlage für die Risikobewertung
Lässt sich das Projekt
durchführen?
Treten einzelne oder mehrere projektspezifische Risiken ein, kann das erhebliche Folgen
für das Projekt haben. Die Risiken wirken als negative Parameter unmittelbar oder mittelbar auf die für die Projektlaufzeit prognostizierten Projekt-Cash-Flows ein. Die Analyse
der Wirtschaftlichkeit und Risikostruktur des Projekts erfolgt daher üblicherweise in
Form einer Cash-Flow-basierten Tragfähigkeitsanalyse, bei der die Höhe des Barwertes der erwarteten Projekt-Cash-Flows der wesentliche Indikator ist.
Finanzmodell
Die Tragfähigkeitsanalyse wird regelmäßig durch ein Finanzmodell abgebildet. Dabei
handelt es sich um ein umfangreiches, komplexes, IT-basiertes Entscheidungsmodell,
mit dessen Hilfe die wirtschaftlichen Aspekte der Projektfinanzierung ex ante geplant,
strukturiert und optimiert sowie ex post kontrolliert werden. Es wird meist mithilfe einer
Tabellenkalkulations-Software wie Microsoft Excel erstellt. Anhand des Finanzmodells
werden die Wirtschaftlichkeit, die Kreditfähigkeit und die Risikostruktur des Projekts
analysiert und beurteilt, um seine Durchführbarkeit zu ermitteln (vgl. Decker, S. 60 ff.;
Wolf/Hill/Pfaue, S. 106 ff.; Yescombe, S. 251 ff.).
2. Prognose der Projekt-Cash-Flows
Deckung des
Kapitaldienstes durch
Cash-Flow-Szenarien
Die Prognose der Projekt-Cash-Flows bildet den Kern der Risikobewertung. Diese Cash
Flows resultieren aus der Differenz der Projekteinzahlungen (z.B. Projekterlöse) und der
Projektauszahlungen (z.B. Betriebs- und Finanzierungskosten sowie Steuern). In der
Praxis werden die Cash Flows regelmäßig mithilfe der Szenariotechnik für drei verschiedene, als realistisch eingeschätzte künftige Umweltzustände prognostiziert: Beim
Base-Case-Szenario wird angenommen, dass der wahrscheinlichste Umweltzustand
WISU
1/13
83
BETRIEBSWIRTSCHAFTSLEHRE
eintritt — auf ihm beruht das Finanzierungskonzept. Das Best-Case-Szenario (WorstCase-Szenario) zeigt die günstigste (ungünstigste) Umweltentwicklung auf. Auf der
Grundlage der jeweiligen Annahmen wird so implizit der Nichteintritt bzw. Eintritt bestimmter Projektrisiken wiedergegeben. Es muss geprüft werden, ob der Kapitaldienst
(d.h. Zinsen und Tilgungen) während der Projektlaufzeit auch im schlechtesten Fall durch
die erwarteten Cash Flow abgedeckt wird oder ob die Finanzierung angepasst werden
muss, Reservekonten eingerichtet oder Nachschussverpflichtungen der Projekteigentümer vereinbart werden müssen. Die Fremdkapitalgeber entscheiden erst nach einer
detaillierten Analyse der drei Szenarien, ob das Projekt aus ihrer Sicht kreditwürdig und
damit „bankfähig“ ist (vgl. Böttcher/Blattner, S. 109 f.; Wolf/Hill/Pfaue, S. 111 f.).
3. Verfahren der Risikobewertung
Bei der Risikobewertung wird vorwiegend auf die Kennzahlenanalyse, Szenariotechnik
und Sensitivitätsanalyse zurückgegriffen (vgl. Decker, S. 110 ff.; Tytko 1999, S. 155 ff.;
Wolf/Hill/Pfaue, S. 106 ff.).
Analyse relevanter
Kennzahlen
Die für die Eigenkapitalgeber wesentlichen Kennzahlen sind z.B. der Kapitalwert (Net
Present Value, NPV) und der interne Zinsfuß (Internal Rate of Return, IRR) des Projekts.
Für die Fremdkapitalgeber sind Kennzahlen relevant, die eine Aussage dazu ermöglichen, ob und inwieweit die prognostizierten Projekt-Cash-Flows vor Abzug des Kapitaldienstes ausreichen, um den erforderlichen Kapitaldienst während der Projektlaufzeit zu
finanzieren. Dazu zählt zum einen das maximale Verschuldungspotenzial als Barwert
der für die Projektlaufzeit prognostizierten Projekt-Cash-Flows vor Abzug des Kapitaldienstes. Zum anderen wird mittels der Annual Debt Service Cover Ratio (ADSCR)
jährlich gemessen, wie hoch der Quotient aus Projekt-Cash-Flow vor Abzug des Kapitaldienstes und dem Kapitaldienst selbst ist. Schließlich wird mit der Loan Life Cover Ratio (LLCR) das Verhältnis des Barwerts der prognostizierten Projekt-Cash-Flows vor Abzug des Kapitaldienstes bis zur vollständigen Rückzahlung des Kreditbetrags zu dem zu
diesem Zeitpunkt insgesamt noch ausstehenden Kreditbetrag ermittelt. Eine Variante
der LLCR ist die Project Life Cover Ratio (PLCR), bei der die bis zum Ende der Projektlaufzeit prognostizierten Projekt-Cash-Flows vor Abzug des Kapitaldienstes ins Verhältnis zum zu diesem Zeitpunkt insgesamt noch ausstehenden Kreditbetrag gesetzt werden. Bei den Fremdkapitalgeber-Kennzahlen werden regelmäßig Benchmark-Größen
herangezogen, wobei je nach Risikostruktur der Branche und des Projekts Quotienten
von jeweils deutlich über 1,0 gefordert werden.
Abb.: Die wesentlichen Kennzahlen für Eigen- und Fremdkapitalgeber (NPV: Net Present
Value, IRR: Internal Rate of Return, Vmax: maximales Verschuldungspotenzial, LLCR: Loan Life
Cover Ratio, PLCR: Project Life Cover Ratio, t: Projektperiode, m: bestimmte Projektperiode
(mit 0  m  T bzw. n), T: Kreditlaufzeit, n: Projektlaufzeit, CFEK: Cash Flow nach Abzug des
Kapitaldienstes, CFGK: Cash Flow vor Abzug des Kapitaldienstes, i: Kalkulationszinssatz,
I: Zinszahlung, R: Tilgungszahlung, K: ausstehender Kreditbetrag)
Sensitivitätsanalyse
WISU
84
1/13
Neben den genannten Kennzahlen und der Szenariotechnik wird die Sensitivitätsanalyse
angewandt. Bei Sensitivitätsanalysen wird mit verschiedenen Annahmen (z.B. hinsichtlich Zinsen, Wechselkursen oder Inflation) sowie Input- und Output-Größen (z.B. Roh-
BETRIEBSWIRTSCHAFTSLEHRE
stoff- und Absatzpreise und -mengen, Bauzeiten und -kosten) gearbeitet, um zu ermitteln, welchen Einfluss dies auf die Cash Flows, die Kennzahlen und damit auf die wirtschaftliche Tragfähigkeit und Risikostruktur des Projekts hat. Ferner wird ermittelt, wo
die kritischen Schwellenwerte der Annahmen und Größen liegen.
Frage 3: Welcher wesentliche Aspekt muss beim Worst-Case-Szenario
überprüft werden? Welche Maßnahmen sind ggfs. zu treffen?
IV. Reduzierung und Zuordnung der Risiken
Risikoübernahme
und Risikotragfähigkeit
Die Projektrisiken müssen — soweit möglich — durch geeignete Maßnahmen reduziert
und den Projektbeteiligten zugeordnet werden. Bei dieser Risikoallokation müssen die
Projektbeteiligten durch entsprechende Anreize zur vertraglichen Risikoübernahme motiviert werden. Zuvor müssen jedoch ihre wirtschaftliche Leistungsfähigkeit und ihre Kreditwürdigkeit ermittelt werden. Die Zuteilung der Risiken hängt letztlich auch von deren
rechtlichen Durchsetzbarkeit und der Verhandlungsstärke der Beteiligten ab (vgl.
Böttcher/Blattner, S. 35 f.; Tytko 2003, S. 16 ff.).
1. Projektendogene Risiken
Die projektendogenen Risiken werden üblicherweise so reduziert und zugeordnet (vgl.
Böttcher, S. 73 ff.; Reuter, S. 75 ff.; Schulte-Althoff, S. 112 ff.):
Fertigstellungsrisiko
Betriebsund Managementrisiko
Technisches Risiko
im engeren Sinn
Zuliefer-, Marktund Absatzrisiko
Abandon-Risiko
— Die Anlagen werden unter Androhung von Vertragsstrafen von leistungsstarken
Dritten zum Festpreis erstellt, womit das Fertigstellungsrisiko weitgehend auf diese
abgewälzt wird. Die Projekteigentümer müssen den Fremdkapitalgebern oft Fertigstellungsgarantien einräumen und/oder sich ihnen gegenüber zu Nachschüssen
verpflichten.
— Das Betriebs- und Managementrisiko wird entweder von Projektbeteiligten wie den
Projekteigentümern oder Anlagenlieferanten getragen, die diese Tätigkeiten übernehmen. Es kann auch auf externe Projektmanagementgesellschaften übertragen
werden. Variable Vergütungsanteile und Vertragsstrafen sollen sicherstellen, dass
das Projekt erfolgreich abgeschlossen wird.
— Durch Expertengutachten, moderne Technologien, Leistungsgarantien und die
Vereinbarung von Vertragsstrafen wird versucht, das technische Risiko im engeren
Sinn zu beherrschen.
— Die Zuordnung des Zuliefer-, Markt- und Absatzrisikos hängt von den jeweiligen
Marktverhältnissen und davon ab, in welchem Maße die Lieferanten und Kunden in
das Projekt eingebunden sind. Aufgrund umfassender Unternehmens-, Branchenund Marktanalysen werden Preise, Mengen und Qualitäten der Vormaterialien und
der Projektprodukte in Zuliefer- bzw. Abnahmeverträgen möglichst langfristig
festgelegt. Der Risikoteilung dienen häufig Preisbindungsklauseln und Höchstpreisvereinbarungen.
— Das Abandon-Risiko kann den Projekteigentümern zugeordnet werden, indem diese
die Projektgesellschaft zum einen angemessen mit Eigenkapital ausstatten und
sich zum anderen zu einer Mindesthaltedauer und Mindestbeteiligung verpflichten
müssen.
2. Projektexogene Risiken
Die projektexogenen Risiken werden in der Regel so reduziert und zugeordnet (vgl. Böttcher/Blattner, S. 74 ff.; Reuter, S. 75 ff.; Schulte-Althoff, S. 112 ff.):
Reserveund Ressourcenrisiko
Technisches Risiko
im weiteren Sinn
Wechselkursrisiko
Zinsänderungsrisiken
Inflationsrisiko
— Dem Reserve- und Ressourcenrisiko wird im Vorfeld durch Sachverständigengutachten zur Qualität des Standortes und z.B. zu Probebohrungen entgegengewirkt.
Soweit möglich werden oft die Nachlieferung oder der Ankauf gleichartiger Reserven
bzw. Rohstoffe zwischen den Projektbeteiligten vereinbart.
— Durch neuartige, jedoch bereits in der Praxis erprobte Anlagen wird versucht, das
technische Risiko im weiteren Sinn zu reduzieren.
— Das Wechselkursrisiko kann in der Errichtungsphase durch Liquiditätsnachschüsse
der Projekteigentümer sowie durch Währungsderivate abgesichert werden.
— Mithilfe von Festzinsvereinbarungen, Zinsderivaten und Zinsbegrenzungen lassen sich die Zinsänderungsrisiken zwischen Projekteigentümern und Fremdkapitalgebern verteilen.
— Wird das Inflationsrisiko nicht durch Preisanpassungsklauseln in den Projektverträgen abgefedert, verbleibt es bei den Projekteigentümern und Fremdkapitalgeber.
WISU
1/13
85
BETRIEBSWIRTSCHAFTSLEHRE
Vertragsrisiko
Politische und wirtschaftliche Länderrisiken
Force-Majeure-Risiken
— Dem Vertragsrisiko wird begegnet, indem die Anwendung eines bestimmten Rechts
(z.B. deutsches Recht), ein bestimmter Gerichtsstand oder ein Schiedsverfahren
vereinbart wird.
— Politische und wirtschaftliche Länderrisiken lassen sich durch die Einbeziehung von
Länder-Ratings, durch staatliche Exportkreditversicherungen, die Einbindung des
Projektstaates und internationaler Organisationen sowie durch Investitionsschutzabkommen zwischen den einzelnen Staaten beherrschen.
— Force-Majeure-Risiken müssen zum einen genau vertraglich bestimmt werden.
Zum anderen muss festgelegt werden, welche Projektbeteiligten bei Eintritt welcher
Ereignisse in welchem Umfang und für welchen Zeitraum von ihren Verpflichtungen
freigestellt werden und in welchen Fällen und in welchem Umfang Projektbeteiligten
Garantien gewährt werden.
V. Übergeordnete Maßnahmen des Risikomanagement
Die Risiken einer Projektfinanzierung können häufig nur zum Teil von den einzelnen Projektbeteiligten übernommen und wirtschaftlich getragen werden. Darüber hinaus sind
übergeordnete Maßnahmen des Risikomanagement erforderlich (vgl. Böttcher/Blattner,
S. 99 ff.).
— Es muss ein umfassendes, auf dem Finanzmodell beruhendes Informationssystem
eingerichtet werden, das die Eigen- und Fremdkapitalgeber anhand kritischer Kennzahlen rechtzeitig über ungünstige Entwicklungen des Projekts informiert.
— Es ist eine Finanzierungsstruktur zu entwickeln, die den Präferenzen der Eigen- und
Fremdkapitalgeber hinsichtlich Renditeerwartung und Risikobereitschaft entspricht.
— Es bedarf anreizkompatibler Verträge, die bei den Projektbeteiligten zu einem angemessenen Ausgleich zwischen ihren Leistungen (einschließlich ihres Risikos) und
ihren Vorteilen (d.h. Rendite und sonstige Vorteile) führt und die so dafür sorgen, dass
alle gleichermaßen am Projekterfolg interessiert sind.
— Es müssen Versicherungen (Sach-, Montage-, Betriebsunterbrechungs-, Exportkredit-, Force-Majeure-Versicherungen etc.) abgeschlossen und die üblichen Kreditsicherheiten (Pfandrechte, Sicherungsübereignungen, Forderungsabtretungen, Garantien Dritter etc.) gestellt werden, um die Risiken der Projektbeteiligten weiter zu reduzieren.
Frage 4: Ist es sinnvoll, eine Art Frühwarnsystem bei Projektfinanzierungen
zu schaffen? Worauf kann dabei zurückgegriffen werden?
Literatur:
Böttcher, J.: Finanzierung von Erneuerbare-Energien-Vorhaben. München 2009.
Böttcher, J ./Blattner, P.: Projektfinanzierung. 2. Aufl., München 2010.
Clifford Chance (Hrsg.): Project Finance. London 1991.
Decker, C.: Internationale Projektfinanzierung. Konzeption und Prüfung. Norderstedt 2008.
Kümmel, J./Kottmann, E./Höfer, H.: Projektfinanzierung. In: WISU, 41. Jg. (2012), S. 1465 - 1470.
Reuter, A.: Projektfinanzierung. Anwendungsmöglichkeiten, ÖPP und Infrastrukturfinanzierung, Risikomanagement, Vertragsgestaltung, Kapitalmarkt, bilanzielle Behandlung. 2. Aufl., Stuttgart 2010.
Schulte-Althoff, M.: Projektfinanzierung. Ein kooperatives Finanzierungsverfahren aus Sicht der AnreizBeitrags-Theorie und der Neuen Institutionenökonomik. Münster/Hamburg 1992.
Tytko, D.: Grundlagen der Projektfinanzierung. In: Backhaus, K./Werthschulte, H. (Hrsg.): Projektfinanzierung. Wirtschaftliche und rechtliche Aspekte einer Finanzierungsmethode für Großprojekte.
2. Aufl., Stuttgart 2003, S. 11 - 36.
Tytko, D.: Grundlagen der Projektfinanzierung. Stuttgart 1999.
Wolf, B./Hill, M./Pfaue, M.: Strukturierte Finanzierungen. Grundlagen des Corporate Finance, Technik
der Projekt- und Buy-out-Finanzierung, Asset-Backed-Strukturen. 2. Aufl., Stuttgart 2011.
Yescombe, E.R.: Principles of Project Finance. Amsterdam et al. 2002.
Die Fragen werden im WISU-Repetitorium beantwortet.
WISU
86
1/13
BETRIEBSWIRTSCHAFTSLEHRE
Logistik
Grüne Logistik
Prof. Dr. Edeltraud Günther, Dresden
Neben Wertschöpfungsstufen wie Beschaffung, Produktion und Absatz kommt der
Logistik als übergreifender Wertschöpfungsstufe eine besondere Rolle bei der
Verfolgung von Umweltzielen zu.
I. Einleitung
Wenn sich Unternehmen Umweltziele setzen und sie realisieren wollen, können die Wertkette von Porter (vgl. Porter, S. 67 ff.) bzw. der darauf aufbauende Wertschöpfungskreis (vgl. Günther, S. 172 ff.) als Orientierungshilfen dienen. Hier geht es um die Wertschöpfungsstufe Logistik.
Zur richtigen Zeit,
in der richtigen Menge,
am richtigen Ort
Die Aufgabe der Logistik ist es, die Verfügbarkeit von Gütern, Ressourcen, Personen und Informationen zur richtigen Zeit in der richtigen Menge am richtigen Ort zur Verfügung zu stellen. Damit kann sie generell als das Management von Güter-, Ressourcen-, Personen- und Informationsströmen verstanden werden (vgl. Stölzle/Jung, S. 31).
Mithilfe der Logistik werden die unternehmensinternen Abläufe „Planung, Ausführung
und Steuerung der Bewegung und der Bereitstellung von Menschen und/oder Waren
und der unterstützenden Tätigkeiten in Bezug auf diese Bewegung und Bereitstellung innerhalb eines zum Erreichen spezieller Ziele organisierten Systems“ (DIN EN 14943,
Punkt 3.575) optimiert.
Bereichsübergreifende
Ausrichtung
Um alle primären Funktionen des Leistungserstellungsprozesses zu verknüpfen, müssen
diese Aktivitäten bereichsübergreifend ausgerichtet werden. Zu den Logistikaufgaben
gehören entsprechend ihrer Zielsetzung alle operativen und dispositiven Tätigkeiten, die
räumlich-zeitliche Gütertransfers einschließlich der damit verbundenen Veränderungen der Gütermengen und -sorten bewirken. Auf diese Weise sollen die Güter bedarfsgerecht und kosteneffektiv bereitgestellt werden.
Multivariates Netzwerk
Logistik ist somit keine exakt definierte Unternehmensfunktion, sondern ein multivariates Netzwerk, um diese Ziele zu erreichen. Üblicherweise wird sie in Beschaffungs-,
Produktions- und Distributionslogistik untergliedert.
— Die Beschaffungs- und Distributionslogistik nehmen die externen Aufgaben der
Beschaffung von Einsatzfaktoren bzw. des Vertriebs der Produkte wahr.
— Die Produktionslogistik beschäftigt sich primär mit internen Aufgaben, d.h. der Planung, Steuerung und Kontrolle von Warenflüssen innerhalb des Unternehmens.
Logistikmanagement
Zur Umsetzung der Logistikaufgaben bedarf es eines Logistikmanagements, das diese
Aufgaben wahrnimmt (vgl. Stölzle/Jung, S. 31 ff.; Pfohl/Stölzle, S. 572):
—
—
—
—
—
—
—
Minimierung der Bestände,
Minimierung der Durchlaufzeiten,
Minimierung von Terminabweichungen,
Minimierung von Fehlern und Störungen,
Minimierung der Umrüstzeiten,
Minimierung der Kosten sowie
Optimierung des administrativen und operativen Handlings.
Frage 1: Wie beschreibt die Norm DIN EN 14943 die Aufgaben der Logistik?
II. Umweltrelevanz
Die Umweltrelevanz der Logistik lässt sich aus dem Anteil des Energieverbrauchs und
der Emissionen des Güterverkehrs, aber auch des Personenverkehrs, soweit es um
Dienstreisen geht, ableiten. Transportketten im Güterverkehr in Verbindung mit Lieferanten-, Produktions- und Kundenstandorten können bei Einsatz verschiedener Verkehrsträger und Verkehrsmittel, die einen spezifischen Ressourcenverbrauch und spezifische
Umweltwirkungen haben, geplant werden.
Perspektive
des Entscheidungsträgers
Um die Umweltleistung von Transportprozessen zu bestimmen, wird die Perspektive eines Entscheidungsträgers, der diese optimieren will, gewählt, wobei die Beschaffung
einer umweltfreundlichen Transportleistung im Zentrum der Überlegungen steht.
WISU
1/13
87
BETRIEBSWIRTSCHAFTSLEHRE
Besonderheiten
Die Leistungserstellung und die Rahmenbedingungen können mehrere Besonderheiten
aufweisen, die in die Überlegungen einbezogen werden müssen:
—
—
—
—
—
Wesentliche
Umweltaspekte
vielfältige Geschäftsfelder,
mehrere Standorte,
besondere Reglementierung der Entsorgungsbranche,
Übernahme öffentlicher Aufträge,
beschränkte Ressourcen des Unternehmens bei verstärkter Konkurrenz.
Bei umweltfreundlichen Logistikprozessen und Teilprozessen wie Transport, Umschlag,
Lagerung und Entsorgung von Hilfs- und Betriebsstoffen, Verpackungen und Behältern
geht es in erster Linie um diese Umweltaspekte (vgl. Maibach/Peter/Seiler, S. 19):
—
—
—
—
—
Emissionen in der Luft (CO, CO2, N2O, NOx, CH4, NMVOC, SO2, Partikel),
Wasser- und Bodenbelastungen (Kraft- und Betriebsstoffe),
Lärm (Lärmemissionen),
Flächenverbrauch (Infrastruktur),
Unfälle (Schadstoffe im Transportgut).
Frage 2: Welche Umweltaspekte spielen bei Logistikprozessen eine
besondere Rolle?
III. Ökologieorientierte Logistik
Bei ökologieorientierter Logistik (Green Logistics) lassen sich zwei Wirkungsrichtungen
unterscheiden:
— Logistik beim Umweltschutz (Entsorgungslogistik) und
— Umweltschutz bei der Logistik (Logistik aller anderen Funktionsbereiche).
Die Abbildung gibt einen Überblick über die funktionelle Einordnung der Entsorgungslogistik und ihre Verbindung zu den anderen betrieblichen Funktionsbereichen (vor allem im
Hinblick auf die systemische Konzeption der Entsorgungslogistik; vgl. Stahlmann, S. 125).
Abb.: Einordnung der Entsorgungslogistik (in Anlehnung an Lasch/Günther, S. 154, 160)
Frage 3: Wodurch unterscheiden sich die beiden Perspektiven
„Logistik beim Umweltschutz“ und „Umweltschutz bei der Logistik“?
IV. Entsorgungslogistik
Durch die ökologische Orientierung des Unternehmens werden die traditionellen Bereiche der Logistik um die Funktionen Entsorgungs- und Informationslogistik ergänzt bzw.
erweitert.
WISU
88
1/13
BETRIEBSWIRTSCHAFTSLEHRE
Ökonomische
und ökologische Ziele
Unter Entsorgungslogistik wird die Anwendung der Logistikkonzeption auf die Kondukte (von lat. conducere = mitführen) verstanden, d.h. des unerwünschten Outputs, der
mit den Produkten entsteht, um einen ökonomisch und ökologisch effizienten Konduktkreislauf zu erzielen. Die Entsorgungslogistik verfolgt damit sowohl ökonomische als
auch ökologische Ziele. Zu den ökonomischen Zielen, d.h. der Frage, wie sich entsorgungslogistische Abläufe wirtschaftlicher gestalten lassen, gehört z.B. der Ausbau logistischer Dienstleistungen und die Kostenreduzierung durch Rationalisierungsmaßnahmen. Bei den ökologischen Zielen geht es um eine verminderte Inanspruchnahme natürlicher Ressourcen, z.B. durch Recycling-Maßnahmen (Input) oder die verminderte Inanspruchnahme der natürlichen Umwelt (Output). Mithilfe der Entsorgungslogistik soll also
das richtige Kondukt zum richtigen Zeitpunkt am richtigen Ort im richtigen Zustand abgenommen bzw. angeliefert werden.
Entsorgungsservice
Beim Entsorgungsservice kann zwischen input- und output-orientierter Sicht unterschieden werden: Die input-orientierte Sicht bezieht sich auf die Anlieferung von Kondukten
an die Orte ihrer Verwertung bzw. Beseitigung, während sich die output-orientierte
Sicht auf die Entsorgung der Kondukte an den Anfallorten konzentriert (vgl. Stölzle/Jung,
S. 33; Pfohl/Stölzle, S. 575 f.).
V. Konzeption der Entsorgungslogistik
Handlungsmaxime
Die Logistik des Versorgungsbereichs wird durch die Handlungsmaxime System-, Gesamtkosten-, Service- und Effizienzdenken bestimmt. Übertragen auf die Entsorgungslogistik bedeutet dies
a) im Hinblick auf das Systemdenken:
Entstehung, Sammlung, Lagerung, Umschlag, Transport und Behandlung von Kondukten können als Vorgänge eines unternehmens- oder funktions- bzw. bereichsübergreifenden Systems in der Entsorgungslogistik gesehen werden. Zur Umsetzung dieser
bereichsübergreifenden Aufgaben bedarf es automatisierter Systeme in den Bereichen
Sammlung, Lagerung und Transport sowie eines entsorgungslogistischen Informationssystems. Dessen Aufgabe ist es, die am Logistikprozess beteiligten internen Unternehmensbereiche miteinander zu verbinden und ihnen mithilfe vernetzter Datensysteme
die notwendigen Informationen zur Verfügung zu stellen.
b) im Hinblick auf das Gesamtkostendenken:
Auch bei der Entsorgungslogistik treten ökonomische Zielkonflikte auf. So verursacht
die Reduzierung des Konduktevolumens einerseits direkt höhere Kosten (z.B. durch
Presseinrichtungen an Sammelfahrzeugen), andererseits kann der Transport wegen des
dann besseren Volumen-Gewicht-Verhältnisses der Kondukte kostengünstiger durchgeführt werden. Darüber hinaus kann es auch zu Konflikten zwischen den ökonomischen und ökologischen Zielen kommen, etwa bei der Entsorgung von Nuklearabfällen, ein wegen der noch nicht absehbaren Umwelteinwirkungen ökologisches Problem. Dies macht deutlich, dass bei entsorgungslogistischen Entscheidungen ökonomische und ökologische Einflussgrößen berücksichtigt werden müssen.
c) im Hinblick auf das Service-Denken:
Das Service-Denken kann sich bei einer entsorgungslogistischen Konzeption auf die Abnahme der Kondukte am Ort im Unternehmen, an dem sie auftreten, beziehen, wie auch
auf die Lieferung von Behandlungs-, Aufbereitungs- und Produktionsanlagen. In beiden
Fällen gilt es, das richtige Kondukt in der richtigen Art und Menge zur richtigen Zeit am
richtigen Ort und im richtigen Zustand (im Sinne von sicherem Zustand) abzunehmen
bzw. anzuliefern. Damit sind die wesentlichen Service-Komponenten Zeit, Zuverlässigkeit, Beschaffenheit und Flexibilität bei den entsorgungslogistischen Leistungen zu beachten.
d) im Hinblick auf das Effizienzdenken:
Bei dieser Maxime spielen insbesondere technische, ökonomische und ökologische
Einflussgrößen eine Rolle. So hängt die Gestaltung entsorgungslogistischer Abläufe
einerseits wesentlich vom Stand der Umwelttechnik ab, andererseits entscheiden wirtschaftliche und ökologische Überlegungen darüber, welche entsorgungslogistische
Technik eingesetzt wird.
Frage 4: Welche Handlungsmaxime bestimmen die Entsorgungslogistik?
WISU
1/13
89
BETRIEBSWIRTSCHAFTSLEHRE
VI. Aufgaben der Entsorgungslogistik
Logistikprozesse
des Beschaffungsbereichs
sind ausschlaggebend
Die Aufgaben der Entsorgungslogistik leiten sich aus den Logistikprozessen des Beschaffungsbereichs ab, wobei hier teilweise andere Schwerpunkte bei der Erfüllung der Aufgaben gesetzt werden müssen und neue Tätigkeitsbereiche hinzutreten (z.B. die Sammlung
und Trennung von Kondukten). Es geht um die Lagerung, den Transport und Umschlag
von Kondukten als typische logistische Aufgaben und um ihre Sammlung und Trennung
sowie um die Behälterwahl und die Auftragsabwicklung als neue Aufgaben. Aufbereitung
und Behandlung gehören nicht zur Logistik im eigentlichen Sinn, jedoch zu den Aufgaben
eines Entsorgungslogistikunternehmens (vgl. Pfohl/Stölzle, S. 581). Die Kondukttransformationen hängen insofern zusammen, als jede Transformationsstufe die jeweils vorherige(n) einschließt. Ebenso sind die entsorgungslogistischen Prozesse nicht voneinander
zu trennen, sondern weisen Interdependenzen auf, z.B. ist der Umschlag mit den
Transportvorgängen verbunden. Die Zuordnung der Transformationsstufen zu den Logistikprozessen erfolgt somit nach dem jeweiligen Schwerpunkt der Prozesse.
Lagerung
— Lagerbestände von Kondukten sind Puffer zwischen den verschiedenen Konduktflüssen, d.h. Puffer zwischen dem Zeitpunkt der Entstehung und dem Zeitpunkt des
Abtransportes zu den Verwertungs-/Beseitigungsanlagen. Sie können somit vor Unsicherheit schützen, etwa wenn die Belieferung ausfällt, sie können aber auch die
Spezialisierung unterstützen oder der Spekulation bei erwarteten Preissteigerungen
dienen. Die Standortwahl bei Konduktlägern ist davon abhängig, wo die Kondukte
anfallen, von einem kostengünstigsten Umschlagplatz hinsichtlich der Verkehrswege
und -träger sowie vom Standort der Entsorgungsanlagen. Bei der Standortwahl eines
Konduktlagers geht es darum, Transport- und Lagerhauskosten im Sinne einer Gesamtkostenbetrachtung gegeneinander abzuwägen und den Standort zu ermitteln, der
zu minimalen Kosten führt.
Transport
— Es kann zwischem innerbetrieblichem und außerbetrieblichem (zu den Entsorgungsanlagen) Transport unterschieden werden. Aufgrund des Kreislaufwirtschaftsund Abfallgesetz (KrW-/AbfG) ergeben sich für den Transport ebenfalls neue Aufgaben: Die gesetzliche Kreislaufführung der Kondukte kann die Frage nach neuen
bzw. zusätzlichen (inner- und außerbetrieblichen) Transportwegen und -mitteln aufwerfen. Bei der ökologieorientierten Bewertung der Transportprozesse können verschiedene Software-Tools wie UMBERTO, SimaPro, EcoTransIT oder ETIENNE verwendet werden.
Umschlag
— Mit dem Umschlag wird aufgrund des Zusammenfassens und Auflösens von Kondukten durch Verlade-, Umlade- und Entladeprozessen die Menge geändert. Umschlagvorgänge können dort, wo die Kondukte entstehen, beim Wechsel von Transportmitteln auf Umschlagplätzen bzw. in Aufbereitungs- und Beseitigungsanlagen erfolgen.
Durch neuere Techniken können sich Rationalisierungspotenziale ergeben, etwa wenn
die Sammelbehälter für die Kondukte gleichzeitig als Einheiten für den Transport benutzt werden, womit auf den Umschlagplätzen nur noch die Behälter selbst umgeladen werden müssen.
Sammlung und Trennung
— Sammlung und Trennung sind Vorgänge, bei denen die Sortenreinheit der Kondukte erhöht werden soll. Ihre getrennte Sammlung hat eine derartige Bedeutung
erlangt, dass Sammlung und Trennung gemeinsam betrachtet werden müssen.
Die Trennung ist notwendig, um Konduktgemische in ihre Bestandteile aufzulösen.
So können nach KrW-/AbfG Abfälle zur Verwertung und die Abfälle zur Beseitigung
ermittelt werden. Die Kondukte können auf verschiedenen Stufen des Entsorgungslogistikprozesses gesammelt und getrennt werden. Die getrennte Sammlung erfolgt
dort, wo sie im Unternehmen anfallen, und die so erzielte Sortenreinheit schafft gleich
am Anfang des Entsorgungsprozesses die besten Voraussetzungen für Wieder- und
Weiterverwendungs- sowie Weiterverwertungsmöglichkeiten.
Behälterwahl
— Behälter sind in zweierlei Hinsicht von Bedeutung: Zum einen können sie selbst als
Kondukte gesehen werden, womit sie zum entsorgungslogistischen Objektbereich
gehören. Zum anderen üben sie wesentlichen Einfluss auf die Lager-, Transportund Umschlageigenschaften der Kondukte aus. Die Behälter erfüllen als Lager-,
Transport- und Umschlageinheiten logistische Funktionen für die Kondukte, weiterhin auch Umweltschutzfunktionen, da die Behälter verhindern, dass Kondukte am
Anfallort oder beim Transport in die natürliche Umwelt gelangen und diese belasten.
Hinzu kommen Informationsfunktionen (speziell bei Containern), da an den Behältern
Hinweise zur Art der enthaltenen Kondukte und deren Versand- und Bestimmungsort
angebracht sind (Kennzeichnungspflicht bei Gefahrgut) sowie Manipulationsfunk-
WISU
90
1/13
BETRIEBSWIRTSCHAFTSLEHRE
tionen, da die Behälter durch die Art ihrer Beschaffenheit (z.B. standardisierte Form;
universell auf Straße, Schiene, Schiff transportierbar) großen Einfluss auf die Kosten
der Sammlung und Trennung sowie des Transports haben.
VII. Auftragsabwicklung
Entsorgungslogistisches
Informationssystem
Für die Auftragsabwicklung, d.h. die Bearbeitung und Übermittlung von Aufträgen, muss
ein entsorgungslogistisches Informationssystem geschaffen werden. Es muss insbesondere diese Aufgaben wahrnehmen, sollen Auftragsabwicklung bzw. Kondukttransport
zum Erfolg führen:
— Information über die nach § 49 KrW-/AbfG vorgeschriebene Transportgenehmigung,
— Informationen über Sonderabfälle und ihre Behandlung (§§ 41 ff. KrW-/AbfG),
— Nachweise zur Art, Menge und Beseitigung der Abfälle (Nachweisverfahren für die
stets überwachungsbedürftigen „Abfälle zur Beseitigung“ (§§ 42, 43 KrW-/ AbfG) sowie für überwachungsbedürftige „Abfälle zur Verwertung“ (§§ 45, 46 KrW-/AbfG),
— Bereitstellung von Unfallmerkblättern, je nach Art des zu transportierenden Konduktes,
— Einholung einer Bescheinigung der besonderen Zulassung,
— Einholung einer Erlaubnis für die Beförderung bestimmter gefährlicher Güter,
— Bereitstellung eventuell erteilter Ausnahmegenehmigungen.
Aufbau zwischenund überbetrieblicher
Strukturen
Im Hinblick auf das KrW-/AbfG ist die wesentliche Herausforderung der Entsorgungslogistik und ihrer einzelnen Aufgabenbereiche der Aufbau von zwischen- und überbetrieblichen Strukturen, um die produktinduzierten Abfälle zurückzuführen (§ 22 KrW-/
AbfG Produktverantwortung). Das erfordert ein flächendeckendes Sammelnetz. Um es
zu schaffen, können interindustrielle Kooperationen und damit interindustrielle Logistiknetzwerke wie im Fall des Dualen Systems Deutschland (Grüner Punkt) aufgebaut werden (vgl. Stölzle/Jung, S. 32; Pfohl/Stölzle, S. 580 ff.).
Beschaffungs-,
Produktionsund Absatzlogistik
Der Umweltschutz bei der Logistik bezieht sich auf alle Bereiche außerhalb der Entsorgungslogistik, d.h. auf die Beschaffungs-, Produktions- und Absatzlogistik. Möglichkeiten bieten sich intern bei der Produktionslogistik, etwa durch die Schadstoffreduzierung
beim betrieblichen Fuhrpark, oder extern bei der Beschaffungs- und Absatzlogistik, indem auf umweltfreundliche Transportmittel zurückgegriffen wird, und die Verkehrsmittel
stärker ausgelastet werden, etwa indem Leerfahrten vermieden oder Routen zusammengelegt werden (Netzplantechnik). Auf diese Weise wird das Transportvolumen reduziert und es werden Transporte vermieden.
Konflikt mit
just-in-time
Die Vermeidung von Transporten erscheint in der Praxis schwierig, da es dem Just-intime-Konzept widerspricht, wonach „ein Produkt oder eine Dienstleistung durch eine geeignete Planung, Steuerung und Kontrolle aller Materialströme und der dazugehörigen
Informationsströme just-in-time“ zu erstellen ist, d.h. es ist „ohne Verschwendung von
Zeit, Material, Arbeitskraft und Energie entsprechend den Wünschen des Kundes bezüglich Preis, Qualität und Lieferservice bereitzustellen“ (Pfohl, S. 130).
Vor- und Nachteile
von just-in-time
Just-in-time hat insofern Vorteile, als es die Lagerkapazitäten und damit — wegen des
geringeren Raumbedarfs — die versiegelte Fläche und auch den Energiebedarf verringert. Ökologische Nachteile ergeben sich durch die Verlagerung der Kapazitäten auf die
Straße, was zu höherem Transportaufkommen und Energiebedarf und damit zu mehr
Emissionen führt. Just-in-time spielt vor allem beim Gefahrguttransport eine Rolle.
Aufgrund der strikten gesetzlichen Auflagen bei der Lagerung von Gefahrstoffen wird
versucht, die Lagerung durch Just-in-time-Produktion zu umgehen. Deshalb wird ein
Gefahrgutbeauftragter, eine Aufsichtsperson, gem. § 1 Gefahrgutbeauftragten-Verordnung (GbV) bestellt, wenn ein Unternehmen innerhalb eines Jahres mindestens 50 Tonnen netto gefährliche Güter (worunter bestimmte radioaktive Stoffe und nicht nur gelegentlich gefährliche Güter fallen) mit Eisenbahn-, Straßen-, Wasser- und Luftfahrzeugen
versendet, befördert, verpackt und/oder verlädt.
VIII. Umweltschutz bei der Logistik
Frage 5: Nennen Sie Beispiele für den Umweltschutz bei der Logistik.
Literatur:
Günther, E. Ökologieorientiertes Management, Stuttgart 2008.
Lasch, R./Günther, E.: ETIENNE — Effiziente Transportketten in Entsorgungsnetzwerken modular und
umweltgerecht gestaltet. Schlussbericht gem. Nr. 3.2 BNBest-BMBF 98. Dresden 2004.
WISU
1/13
91
BETRIEBSWIRTSCHAFTSLEHRE
Maibach, M./Peter, D./Seiler, B.: Ökoinventar Transporte. Grundlagen für den ökologischen Vergleich
von Transportsystemen und den Einbezug von Transportsystemen in Ökobilanzen. Zürich
1999.
Pfohl, H.-C.: Logistikmanagement. Berlin 2004.
Pfohl, H.-C./Stölzle, W.: Entsorgungslogistik. In: Steger, U. (Hrsg.): Handbuch des Umweltmanagements, S. 571 - 591. München 1992.
Porter, M.: Wettbewerbsvorteile. Spitzenleistungen erreichen und behaupten. Frankfurt/Main 2000.
Stahlmann, V.: Umweltorientierte Materialwirtschaft. Wiesbaden 1988.
Stölzle, W./Jung, K. P.: Strategische Optionen der Entsorgungslogistik zur Realisierung von Kreislaufwirtschaftskonzepten. In: UmweltWirtschaftsForum, H. 1, 4. Jg. (1996), S. 31 - 36.
Die Fragen werden im WISU-Repetitorium beantwortet.
Die Fallstudie
Aktivierung von latenten Steuern auf Verlustvorträge
Prof. Dr. Thorsten Jöhnk, Cottbus
I. Der Fall
Die Umsatzerlöse der Muster GmbH sind in den Jahren 2011 und
2012 gegenüber dem Geschäftsjahr 2010 deutlich zurückgegangen.
Während 2011 aufgrund hoher sonstiger Erträgen noch ein ausgeglichenes Jahresergebnis ausgewiesen wurde, ist das vorläufige Jahresergebnis des Geschäftsjahres 2012 deutlich negativ (vgl. Abb. 1).
Das bilanzielle Eigenkapital zum 31.12.2012 sinkt entsprechend.
MoG) die Möglichkeit eröffnet hat, latente Steuern auf Verlustvorträge zu aktivieren. Er überlegt, ob sich der Rückgang des bilanziellen Eigenkapitals zum 31.12.2012 so mindern lässt.
LQ7¼
Umsatzerlöse
LQ7¼
Umsatzerlöse
Sonstige betriebliche Erträge
2010
2011
2012
Ist
Ist
vorl. Ist
100.000
97.440
95.932
245
2.270
30
Sonstige betriebliche
Erträge
2013
2014
2015
2016
2017
Plan
Plan
Plan
Plan
Plan
102.244 103.779 105.334 106.918 108.522
20
0
0
0
0
Materialaufwand
-50.355
-51.108
-51.880
-52.388
-53.180
Personalaufwand
-30.907
-30.907
-30.907
-32.143
-32.624
-9.417
-9.488
-9.155
-9.364
-7.261
-7.372
-7.482
-7.595
Materialaufwand
-50.000
-48.720
-47.966
Abschreibungen
-9.345
Personalaufwand
-30.000
-30.450
-30.907
Abschreibungen
-8.857
-8.929
-8.595
Sonstiger
betrieblicher
Aufwand
-7.154
Sonstiger betrieblicher
Aufwand
-7.350
-7.420
-7.501
Betriebsergebnis
Zinsaufwand
Betriebsergebnis
Zinsaufwand
Ergebnis der gewöhnlichen
Geschäftstätigkeit
4.038
4.191
993
-3.740
-3.879
-4.027
298
312
-3.034
0
0
-1.500
Sonstige Steuern
-100
-110
-120
Steuern vom Einkommen und
vom Ertrag
-186
-193
0
12
9
-4.654
Ergebnis der
gewöhnlichen
Geschäftstätigkeit
4.503
5.086
5.687
5.750
5.759
-4.406
-4.396
-4.393
-4.334
-4.336
97
690
1.294
1.416
1.423
Abb. 2: Geplante Ergebnisse der gewöhnlichen Geschäftstätigkeit
a. o. Ergebnis
Jahresüberschuss/fehlbetrag
Abb. 1: Ergebnisse der Geschäftsjahre 2010 bis 2012
Aufgrund der eingeleiteten Sanierungsmaßnahmen sollen die Ergebnisse der gewöhnlichen Geschäftstätigkeit in den kommenden
Jahre deutlich besser ausfallen (Abb. 2). Außerordentliche Ergebnisse werden in diesen Jahren nicht erwartet.
Dem Geschäftsführer der Muster GmbH ist auf einer Tagung zu Ohren gekommen, dass das Bilanzrechtsmodernisierungsgesetz (Bil-
WISU
92
1/13
II. Aufgaben
a) Erläutern Sie dem Geschäftsführer die relevanten handelsrechtlichen Normen bei der Aktivierung von latenten Steuern auf Verlustvorträge.
b) Legen Sie ihm die relevanten steuerrechtlichen Vorschriften
zu Nutzung von Verlustvorträgen bei Kapitalgesellschaften dar.
c) Ermitteln Sie, in welcher Höhe die Muster GmbH maximal latente
Steuern auf Verlustvorträge im Jahresabschluss des Geschäftsjahres 2012 ansetzten darf. (Runden Sie auf TEUR auf).
Gehen Sie dabei von diesen steuerlichen Rahmenbedingungen für
die Muster GmbH aus: Die sonstigen Steuern belaufen sich ab 2013
auf 90.000 EUR p.a. Der Körperschaftssteuersatz inklusive Solidaritätszuschlag beträgt 15,825 Prozent. Die Gewerbesteuermesszahl
beträgt 3,5 Prozent, der relevante Gewerbesteuerhebesatz liegt bei
BETRIEBSWIRTSCHAFTSLEHRE
400 Prozent. Die Hinzurechnungen und Kürzungen gem. §§ 8 f.
GewStG betreffen ausschließlich den Zinsaufwand.
III. Lösungen
triebs der Körperschaft unbeachtlich“ (Sanierungsklausel). Die EUKommission sieht darin jedoch eine unerlaubte Beihilfe (Entscheidung der EU-Kommission vom 26.1 2011 zur Sanierungsklausel als
unzulässige Beihilfe). Die Rechtslage ist deshalb derzeit unklar.
Aufgabe a):
Aufgabe c):
Durch die Neuformulierung des § 274 HGB im Zuge des BilMoG
wurde die Berücksichtigung latenter Steuern in handelsrechtlichen
Jahresabschlüssen grundlegend geändert. Die Regelung bezieht
sich sowohl auf latente Steuerschulden als auch auf latente Steueransprüche. Erstere führen zum Ansatz passiver latenter Steuern
in der Bilanz, für die eine Passivierungspflicht besteht (§ 274 Abs. 1
S. 1 HGB). Letztere führen zu aktiven latenten Steuern, für die ein Aktivierungswahlrecht gilt (§ 274 Abs. 1 S. 2 HGB). Bei dem entsprechenden Aktivposten handelt es sich jedoch nicht um einen Vermögensgegenstand, sondern um eine Bilanzierungshilfe. Der Ausweis
der passiven und der aktiven latenten Steuern darf sowohl saldiert
als auch unsaldiert erfolgen.
Die genannten Regelungen zur Nutzung von Verlustvorträgen sind
bei der Ermittlung der Steuern vom Einkommen und vom Ertrag der
Geschäftsjahre 2013 bis 2017 zu berücksichtigen. Die Ermittlung
muss getrennt für die Körperschaftsteuer einschließlich Solidaritätszuschlag und die Gewerbesteuer erfolgen. Die Abb. 3 zeigt die Berechnung für die Körperschaftsteuer einschließlich Solidaritätszuschlag.
Gem. § 274 Abs. 1 S. 4 sind steuerliche Verlustvorträge grundsätzlich bei der Ermittlung der aktiven latenten Steuern einzubeziehen. Allerdings dürfen sie nur in der Höhe berücksichtigt werden,
in der innerhalb der folgenden fünf Geschäftsjahre voraussichtlich
eine Verrechnung mit den erwarteten steuerlichen Gewinnen möglich ist (§ 274 Abs. 1 S. 4 HGB). Die maßgebliche Voraussetzung für
die Aktivierung der latenten Steuern auf Verlustvorträge ist demnach
der Nachweis, dass entsprechende Verrechnungsmöglichkeiten in
Zukunft existieren. Die Beträge sind nicht abzuzinsen (§ 274 Abs. 2
S. 1 HGB).
Die Ermittlung der Aktivierungsbeträge hat mit den unternehmensindividuellen Steuersätzen getrennt nach Körperschaftsteuer inklusive
Solidaritätszuschlag und Gewerbesteuer zu erfolgen. Steuerrechtsänderungen sind im Allgemeinen zu berücksichtigen, sobald der
Bundesrat sie verabschiedet hat.
Die Aktivierung der latenten Steuern auf die Verlustvorträge erfolgt
erfolgswirksam. Ihr Ausweis erfolgt gesondert in der Gewinn- und
Verlustrechnung unter dem Posten „Steuern vom Einkommen und
Ertrag (§ 274 Abs. 2 S. 3 HGB). Die Aktivierung von latenten Steuern
auf Verlustvorträge hat somit eine Ergebnisverbesserung und eine
Erhöhung des bilanziellen Eigenkapitals zur Folge.
Es ist allerdings darauf hinzuweisen, dass die Verwendung von Jahresergebnissen aufgrund der Aktivierung von latenten Steuern durch
die neu geschaffene Ausschüttungssperre nach § 268 Abs. 8 HBG
eingeschränkt wird.
Aufgabe b):
Relevante steuerrechtliche Vorschriften bei der Nutzung von Verlustvorträgen bei Kapitalgesellschaften sind der § 8 KStG i.V.m. § 10 d
EStG und § 10 a GewStG, die zur Mindestbesteuerung führen, sowie der „Verlustuntergang“ nach § 8 c KStG.
Gem. § 8 Abs. 1 KStG sind bei der Ermittlung des körperschaftsteuerpflichtigen Gewinns die Gewinnermittlungsvorschriften laut
EStG anzuwenden, womit sind die Vorschriften für den Verlustabzug
gem. § 10 d EStG relevant sind. Danach sind Verluste zunächst innerperiodisch auszugleichen. Ein verbleibender Verlust darf bis zu
511.500 EUR in den unmittelbar vorangegangenen Veranlagungszeitraum zurückgetragen werden (§ 10 d Abs.1 S. 1 EStG, Verlustrücktrag). Nicht ausgeglichene Verluste, bei denen ein innerperiodischer Ausgleich und ein Verlustrücktrag nicht möglich sind, können
gem. § 10 d Abs. 2 EStG zeitlich unbegrenzt bis zu eine Mio. EUR
(Sockelbetrag) unbeschränkt, darüber hinaus bis zu 60 Prozent des
den Sockelbetrag übersteigenden Gesamtbetrages der Einkünfte
abgezogen werden (Verlustvortrag). § 10 a GewStG enthält analoge
Regelungen für die Behandlung von Verlusten bei der Gewerbesteuer.
Der Verlustuntergang ist in § 8 c KStG geregelt. Gemäß dieser Vorschrift gehen Verlustvorträge grundsätzlich anteilig unter, wenn innerhalb von fünf Jahren mehr als 25 Prozent und bis zu 50 Prozent
der Anteile unmittelbar oder mittelbar übertragen werden (§ 8 c Abs.
1 S. 1 KStG). Werden mehr als 50 Prozent unmittelbar oder mittelbar
übertragen, gehen sie ganz unter (§ 8 c Abs. 1 S. 2 KStG). Zwar hat
der Gesetzgeber eine Erleichterung für Sanierungsfälle gem. § 8 c
Abs. 1 a KStG vorgesehen. Danach ist § 8 c Abs. 1 KStG bei einem
„Beteiligungserwerb zum Zweck der Sanierung des Geschäftsbe-
Ergebnis der gewöhnlichen
Geschäftstätigkeit
sonstige Steuern
Bemessungsgrundlage I
Verlustvortrag
2013
2014
2015
2016
2017
7¼
7¼
7¼
7¼
7¼
97
690
1.294
1.416
1.423
-90
-90
-90
-90
-90
7
600
1.204
1.326
1.333
4.654
4.647
4.047
2.925
1.729
Verlustnutzung I
-7
-600
-1.000
-1.000
-1.000
Verlustnutzung II
0
0
-122
-196
-200
Bemessungsgrundlage II
0
0
82
130
133
Körperschaftsteuer
(15,825%)
0
0
13
21
21
Körperschaftsteuer ohne
Verlustvorträge (15,825%)
1
95
191
210
211
Differenz
1
95
178
189
190
Abb. 3: Ermittlung der Körperschaftsteuern der Jahre 2013 bis 2017
Zur Ermittlung der Steuerbemessungsgrundlage sind die geplanten Betriebsergebnisse um den Zinsaufwand und die sonstigen
Steuern zu reduzieren. Ausgehend von der daraus resultierenden
Bemessungsgrundlage I sind die Verlustvorträge zu beachten.
In den Planjahren 2013 und 2014 liegt die Bemessungsgrundlage
unterhalb des Sockelbetrags von einer Mio. EUR. Es ist eine vollständige Verrechnung mit dem Verlustvortrag möglich, der sich entsprechend reduziert. Die Regelungen zur Mindestbesteuerung haben keine Bedeutung. Körperschaftsteuern fallen in den beiden Jahren nicht an.
2015 ist die Bemessungsgrundlage hingegen um 204 TEUR höher
als der Sockelbetrag. Von diesem übersteigenden Betrag können
nur 60 Prozent (122 TEUR) mit dem Verlustvortrag verrechnet werden, der Restbetrag von 82 TEUR unterliegt der Besteuerung. Daraus resultieren Körperschaftsteuern von 13 TEUR. Entsprechende
Überlegungen sind auch für die Jahre 2016 und 2017 anzustellen.
Ohne den Verlustvortrag wäre die Körperschaftsteuer durch Multiplikation der Bemessungsgrundlage I mit dem Körperschaftsteuersatz inklusive Solidaritätszuschlag abzuleiten. Die entsprechenden
Werte sind ebenfalls in Abb. 3 wiedergegeben.
Von dem körperschaftsteuerlichen Verlustvortrag können bei Realisierung der Planergebnisse in den Jahren 2013 bis 2017 4.125 TEUR
genutzt werden. Damit können für Körperschaftsteuer inklusive Solidaritätszuschlag latente Steuern von 653 TEUR (4.125 TEUR ·
15,825%) aktiviert werden. Dieser Betrag entspricht auch der Differenz der Körperschaftsteuer einschließlich Solidaritätszuschlag der
Jahre 2013 bis 2017 mit und ohne Berücksichtigung des Verlustvortrags.
Die Ableitung der Gewerbesteuer bei Berücksichtigung der Nutzung
des Verlustvortrags aus dem Geschäftsjahr 2012 kann grundsätzlich
in analoger Weise erfolgen. Allerdings sind die Unterschiede zwischen den Bemessungsgrundlagen für Körperschaft- und Gewerbesteuer, die aus den Hinzurechnungen und Kürzungen gem. §§ 8 f.
GewStG resultieren, zu berücksichtigen. Entsprechend der Aufgabe
sind hier nur diejenigen Zinsaufwendungen relevant, die — nach Beachtung des Freibetrags von 100 TEUR — zu 25 Prozent hinzuzurechnen sind.
WISU
1/13
93
BETRIEBSWIRTSCHAFTSLEHRE
Dieser Sachverhalt führt auch dazu, dass der gewerbesteuerliche
Verlustvortrag aus dem Jahr 2012 eine andere Höhe hat als der körperschaftsteuerliche Verlustvortrag. Bei einem Zinsaufwand im Geschäftsjahr 2012 von 4.027 TEUR beläuft sich der Unterschied auf
rund 982 TEUR ((4.027 TEUR  100 TEUR)/4), womit der gewerbesteuerliche Verlustvortrag 3.672 TEUR beträgt.
Unter Berücksichtigung der Zinsaufwendungen sowie der Mindestbesteuerung stellt sich die Ermittlung des Gewerbesteueraufwandes so dar (Abb. 4):
Ergebnis der gewöhnlichen
Geschäftstätigkeit
2013
2014
2015
2016
2017
7¼
7¼
7¼
7¼
7¼
690
1.294
1.416
1.423
-90
-90
-90
-90
-90
7
600
1.204
1.326
1.333
4.406
4.396
4.393
4.334
4.336
-100
-100
-100
-100
-100
Zwischensumme II
4.306
4.296
4.293
4.234
4.236
Hinzurechnungsbetrag
(25%)
1.077
1.074
1.073
1.059
1.059
Bemessungsgrundlage I
1.084
1.674
2.277
2.385
2.392
Zwischensumme I
2014
2015
2016
2017
7¼
7¼
7¼
7¼
7¼
1.167
1.019
728
379
190
Steuern vom Einkommen und
vom Ertrag, davon
153
329
510
544
546
Buchung gegen aktive latente
Steuern
148
291
349
189
190
5
38
161
355
356
1.019
728
379
190
0
Zahlungswirksam
97
sonstige Steuern
Bestand aktive latente Steuern
am 1.1.
2013
Bestand aktive latente
Steuern am 31.12.
Abb. 5: Entwicklung des Postens „Aktive latente Steuern
auf Verlustvorträge“
Literatur:
Zinsaufwand
Freibetrag
Verlustvortrag
3.672
2.622
1.218
0
0
Verlustnutzung I
-1.000
-1.000
-1.000
0
0
Verlustnutzung II
-50
-404
-218
0
0
34
270
1.059
2.385
2.392
Gewerbesteuer (14,0%)
5
38
148
334
335
Gewerbesteuer ohne
Verlustvorträge (14,0%)
152
234
319
334
335
Differenz
147
196
171
0
0
Bemessungsgrundlage II
Abb. 4: Ermittlung der Gewerbesteuern der Jahre 2013 bis 2017
Wegen der Hinzurechnung des Zinsaufwandes liegt die Bemessungsgrundlage II durchgängig über dem Sockelbetrag, sodass die
Regelungen der Mindestbesteuerung hier bereits ab 2013 wirken.
Im Jahr 2013 übersteigt die Bemessungsgrundlage I den Sockelbetrag um 84 TEUR. Davon können nur 60 Prozent (50 TEUR) mit dem
Verlustvortrag verrechnet werden, der Restbetrag von 34 TEUR unterliegt der Besteuerung. Daraus ergeben sich Gewerbesteuern von
fünf TEUR. 2015 wird der vorhandene Verlustvortrag aufgebraucht,
sodass in den Jahren 2016 und 2017 kein Unterschied zwischen Bemessungsgrundlage I und II besteht.
Ohne den Verlustvortrag wäre die Gewerbesteuer durch Multiplikation der Bemessungsgrundlage I mit dem Gewerbesteuersatz abzuleiten. Die entsprechenden Werte sind ebenfalls in Abb. 4 wiedergegeben.
Der gewerbesteuerlichen Verlustvortrag kann bei Realisierung der
Planung in vollem Umfang genutzt werden, Damit können für Gewerbesteuern latente Steuern von 514 TEUR (3.672 TEUR · 14,0%)
aktiviert werden. Dieser Betrag entspricht auch der Differenz der Gewerbesteuer der Jahre 2013 bis 2017 mit und ohne Berücksichtigung des Verlustvortrages.
Insgesamt könnte die Muster GmbH per 31.12.2012 aktive latente
Steuern für Verlustvorträge von 1.167 TEUR ausweisen. Die entsprechende Buchung würde lauten: Aktive latente Steuern an Steuerertrag.
In den Folgejahren sind die Steuern vom Einkommen und vom Ertrag
für die Gewinn- und Verlustrechnung ohne Berücksichtigung der Verlustvorträge zu ermitteln. Sie sind jedoch nur in Höhe der Ermittlungen unter Berücksichtigung der Verlustvorträge zu zahlen. Die Differenzbeträge werden gegen die aktiven latenten Steuern gebucht.
Die Entwicklung des Postens Aktive latente Steuern auf Verlustvorträge in den Jahren 2013 bis 2017 bei Realisierung der Planungsrechnung stellt sich demnach so dar (Abb. 5):
WISU
94
1/13
Bethmann, I./Mammen, A./Sassen, R.: Analyse gesetzlicher Ausnahmetatbestände zum Erhalt körperschaftsteuerlicher Verlustvorträge. In: Steuerberater, 63. Jg. (2012), S. 148 - 157.
Bitz, M./Schneeloch, D./Wittstock, W.: Der Jahresabschluss — Nationale und internationale Rechtsvorschriften, Analyse und
Politik. 5. Aufl., München 2011.
Jöhnk, T.: Eigenkapitalerhöhung durch das BilMoG: Aktivierung latente Steuern auf Verlustvorträge — eine Hilfe in der Krise?
In: Neue Wirtschaftsbriefe — Betriebswirtschaftlicher Berater, 8. Jg. (2012), S. 277 - 282.
Jöhnk, T.: Fallstudien zur Finanzwirtschaft — Praxisfälle mit Lösungshinweise. Herne 2013.
Kuntschik, N.: Ausgewählte Einzelfragen zur Steueroptimierung bei
M&A-Transaktionen. Teil 2: Besonderheiten beim Erwerb von
Krisenunternehmen. In: Corporate Finance Law, 2. Jg. (2011),
S.359 - 363.
Marx, F.J./Kläne, S./Korff, M./Schlarmann, B.: Unternehmensbesteuerung. Herne 2008.
Meyer, C.: Bilanzierung nach Handels- und Steuerrecht. 22. Aufl.,
Herne 2011.
Wulf, I./Müller, S.: Bilanztraining. 13. Aufl., Freiburg/Berlin/München
2011.
Wirtschaftsinformatik
Digitale Medien
Klassifikation digitaler Medien
durch Metadaten
Prof. Dr. Rainer Thome / Dipl.-Kfm. Ludwig Habersetzer, Würzburg
Während Texte von Suchmaschinen schon seit vielen Jahren automatisch verarbeitet werden können, bereiten die Klassifikation und damit das Auffinden von multimedialen Informationen bis heute Probleme. Ein wichtiger Aspekt bei der Problemlösung ist die Anreicherung der digitalen Medien mit Metadaten. Dieser Ansatz hat
jedoch Grenzen.
1. Das Informationsparadoxon
Informationsflut
und Informationsdefizit
Während der Mensch im digitalen Zeitalter über mehr Informationen verfügt als je zuvor,
wird gleichzeitig über die nicht mehr zu kontrollierende Informationsflut geklagt. Können
die vielen Informationen nicht mehr sinnvoll verarbeitet werden, kann es paradoxerweise
sogar zu einem Informationsmangel kommen (vgl. Köninger/Reithmayer, S. 13 f.).
Die Datenfülle ist unter anderem auf den stetigen Preisverfall bei Chip- und Speichertechniken zurückzuführen, wodurch der Endverbraucher immer mehr digitale Inhalte
selbst erzeugen, verarbeiten und speichern kann. Hohe Bandbreiten und hocheffiziente Kompressionsverfahren ermöglichen es zudem, die Inhalte schnell und günstig
über das Internet zu verbreiten (vgl. Kretzschmar/Dreyer, S. 75). Besonders die Zahl
digitaler Bilder, Musik- und Videodateien auf privaten Festplatten und großen InternetDomains erreicht unüberschaubare Ausmaße. Sie zu organisieren, um sie gezielt wiederzufinden, wird zunehmend schwieriger.
Unzureichende Strukturierung der Informationsobjekte
Der hauptsächliche Grund für das Informationsdefizit trotz Informationsflut ist jedoch die
unzureichende Strukturierung der Informationsobjekte. Die Auseinandersetzung mit dieser Problematik führt zu den Themen Klassifikation und Strukturierung von Information sowie Metadaten und Metainformation.
2. Grundlegende Definitionen
Digitale Medien
Allgemein ist ein Medium ein Hilfsmittel, um Informationen zu speichern, zu verarbeiten
oder zu übertragen. Klassische Medien sind z.B. Bücher und Zeitungen. Restriktionen
der einzelnen Medien wirken sich auch auf die Form des Inhalts aus. So kann eine Zeitschrift nur Texte und Bilder, der Hörfunk nur Töne, das Fernsehen jedoch beides übertragen (vgl. Stickel, S. 436).
Klassifikation
Eine Klassifikation bzw. Klassifizierung ist eine Systematik, mit deren Hilfe Dinge und
Begriffe anhand gemeinsamer Merkmale eingeteilt und in Klassen gebündelt werden.
Durch die stufenweise Unterscheidung der Elemente nach immer feineren Merkmalen
lassen sich Unterklassen bilden. Diese hierarchische Ordnung und Abgrenzung der Elemente macht ein Themengebiet in praktischer und wissenschaftlicher Hinsicht überschaubarer (vgl. Christ, S. 126; Heinrich/Roithmayr, S. 290; Stickel, S. 367).
Die Klassenbildung hängt vom Anwendungs- bzw. Problemzusammenhang ab. Dies bedeutet auch, dass sich Klassifikationsobjekte selten nur einer Klasse, sondern meist
mehreren Klassen zuordnen lassen (vgl. Stickel, S. 367).
Metadaten
Durch den Zusatz „Meta“ bei Objekten oder Phänomenen wird darauf hingewiesen, dass
sie selbst nicht Gegenstand der Betrachtung sind, sondern dass über sie reflektiert wird
(vgl. Heinrich/Roithmayr, S. 346). Vereinfacht ausgedrückt sind Metadaten daher Daten
„über“ Daten und Metainformationen Informationen „über“ Informationen. MetaWISU
1/13
95
WIRTSCHAFTSINFORMATIK
daten beschreiben strukturierte und unstrukturierte Informationen. Außerdem dienen
sie der Klassifikation und dazu, die Verwaltung und Suche zu verbessern. Sie gehören
nicht dem Informationsobjekt selbst an, sondern beschreiben dessen Eigenschaften,
Aufbau und Inhalt (vgl. Christ, S. 127; Heinrich/Roithmayr, S. 346; Stickel, S. 440).
Wert der Information
Der Wert einer Information wird maßgeblich von ihren Metadaten beeinflusst. So ist die
Kenntnis des Entstehungszeitpunkts einer Information von entscheidender Bedeutung
für ihre Bewertung. Informationen müssen deshalb durch aussagekräftige, verständliche sowie programm- und plattformunabhängig nutzbare Beschreibungen ergänzt
werden. Durch die ISO-Spezifikation 11179 wurde die Modellierung von Metadaten standardisiert (vgl. Kretzschmar/Dreyer, S. 83). Mögliche Arten von Metadaten für digitale
Medien zeigt die Abbildung.
Typ
Anwendung
Beispiele
Administrativ
Informationen über den praktischen Gebrauch
des Informationsobjektes.
- Versionsinformationen
- Eigentumsrechte
- Anwendungsbereich
Beschreibend
Informationen zur Konkretisierung des Inhaltes.
- Stichwörter
- Inhaltsverzeichnis
Technisch
Informationen über technische Eigenschaften
des Informationsobjektes.
- Format des Informationsobjektes
- Dateigröße
- Kompressionsrate
Abb.: Klassifikation von Metadaten (in Anlehnung an Christ, S. 128).
3. Metadaten und ihre Umsetzung
Während die Problematik der Verwaltung von Metadaten früh von den Unternehmen erkannt wurde und Lösungen wie Media-Asset-Management-Systeme (MAM) entwickelt wurden, gibt es bei privaten Anwendern bis heute erhebliche Defizite. Dabei gibt es
auch hier Möglichkeiten, digitale Medien effizient zu verwalten.
3.1. Technische Grundlagen
Verknüpfung
von Metadaten
Grundsätzlich können Metadaten auf drei verschiedene Arten mit dem Informationsobjekt verknüpft sein:
— durch direkte Ableitung der Metadaten aus der spezifischen Beschaffenheit des Informationsobjekts (vgl. Christ, S. 128),
— durch Speicherung der Metadaten in einer separaten Datei, in der durch Verweise die
Verknüpfung der Metadaten mit dem zugehörigen Informationsobjekt gewährleistet
wird, oder
— durch direkte Integration der Metadaten in das Informationsobjekt.
Welche Variante gewählt wird, hängt vom jeweiligen Anwendungsbereich ab.
Die erste Variante ist in allen denkbaren Anwendungsbereichen möglich, wenn die Ableitung der Metainformation aus der Beschaffenheit des Informationsobjekts automatisch erfolgen kann. Bei vielen Metadaten ist dies jedoch nicht der Fall.
Die zweite Variante eignet sich für Datenbank- und Content-Management-Systeme.
Hier werden die Metadaten der Informationsobjekte in Repositories zentral gespeichert.
Diese Methode kann auch im Internet sinnvoll sein, da sich so die Zusammenfassung
der Metadaten zu Indizes verbessert, die von Suchmaschinen benötigt werden. Um die
Metadaten dem richtigen Informationsobjekt zuordnen zu können, nutzen viele Formate
den Uniform Resource Identifier (URI). Es können jedoch Probleme auftreten, etwa
wenn eine Ressource keinen URI hat oder wenn sich dieser ändert (vgl. Christ, S. 128;
Tochtermann/Lux, S. 1559 f.).
Für Informationsobjekte, die nicht in einem integrierten System gehalten oder über das
Internet verbreitet werden und somit systemunabhängig sein sollen, bietet sich die
dritte Variante an, da sie sicherstellt, dass die Metadaten eines Informationsobjektes
nicht verlorengehen. Werden z.B. Bilder über das Internet anderen Anwendern zugänglich gemacht, müssen gleichzeitig die Metadaten verfügbar sein. Metadaten werden in
diesem Fall häufig an den Anfang einer Datei, den Header, geschrieben (vgl. Christ,
S. 128; Tochtermann/Lux, S. 1559).
WISU
96
1/13
WIRTSCHAFTSINFORMATIK
Standards für
Informationsobjekte
Damit sie sinnvoll genutzt werden können, müssen die Metadaten von Informationsobjekten einheitlich strukturiert sein. So arbeiten Suchmechanismen nur präzise, wenn
die Metadaten von einer Maschine interpretiert werden können (vgl. Christ, S. 129).
Deshalb wurden mehrere Standards für verschiedene Informationsobjekte entwickelt, für
die Beschreibungen von Informationsressourcen des Internets etwa das Resource
Description Framework (RDF), das auf der Auszeichnungssprache Extensible Markup Language (XML) beruht und wodurch Metadaten nicht nur von Maschinen gelesen,
sondern auch verstanden werden (vgl. Christ, S. 187 f.; Tochtermann/Lux, S. 1561).
Darüber hinaus sind Metadaten-Schemata bei der Erstellung von Metadaten von Bedeutung, da sie definieren, welche Metadaten in welcher Struktur gespeichert werden (vgl.
Kretzschmar/Dreyer, S. 83; Marugg).
Container für
Informationsobjekte
Neben Metadaten-Standards gibt es auch sog. Container, die mehrere Schemata vereinen können. Ein Beispiel ist das propriätere Metadatenformat Extensible Metadata
Platform (XMP) von Adobe. Es beruht ebenfalls auf RDF und erlaubt die Sammlung der
Metadaten-Schemata Exchangeable Image File (EXIF) und International Press and
Telecommunications Concil (IPTC) in Kombination mit zusätzlichen Metadaten (vgl.
Trinkwalder, S. 158 f.; Kretzschmar/Dreyer, S. 86 f.).
Frage 1: Wann ist welche Art der Verknüpfung von Metadaten mit dem
Informationsobjekt sinnvoll?
3.2. Potenziale
Die Zahl der digitalen Medien nimmt laufend zu. So werden jedes Jahr allein Billionen digitale Fotos erzeugt. Metadaten sind hier die einzige Möglichkeit, diese Informationen
sinnvoll zu ordnen, zu verwalten und damit wiederzufinden (vgl. Winkelhage, S. 19).
Vereinfachtes Datenund Medienmanagement
Metadaten helfen beim Daten- bzw. Medienmanagement, da sie sich zu logischen Einheiten zusammenfassen bzw. aufteilen lassen. Damit können Informationsobjekte nach
sinnvollen Kriterien klassifiziert und geordnet, außerdem kann die Verwaltung der Daten
vereinfacht werden. Ein Beispiel ist die Klassifikation von Bildern anhand von Geodaten
(s. unten 3.4.). Metadaten sind auch für die Dokumentation von entscheidender Bedeutung. Durch das gezielte Auffinden werden Redundanzen und Doppelarbeit vermieden,
zudem wird die Versionsverfolgung vereinfacht. Schließlich wird die Integration von
Datenbeständen erleichtert (vgl. Marugg).
Da die Metadaten fest mit ihrem Informationsobjekt verknüpft sind, verfügt der Anwender über Beschreibungen, die eine einfachere Organisation und Archivierung von digitalen Medien ermöglichen (vgl. Kretzschmar/Dreyer, S. 26 f.). Durch die Beschreibungen
können Informationsobjekte wiederverwendet oder zu Informationsbausteinen kombiniert werden, um so neue Informationen zu gewinnen. Ein Beispiel sind Programme zur
Verwaltung von Musikdateien. Beim Einlesen einer Audio-CD werden sofort Metadaten
aus den Informationsobjekten abgeleitet, z.B. Titelreihenfolge und -dauer. Die Kombination dieser Daten ist meist einmalig, sodass nun weitere Metadaten aus dem Internet geladen werden können (Interpret, Albumname und Titel).
Effizientere Suche
Die größte Vereinfachung durch den gezielten Einsatz von Metadaten ist die effizientere
Suche nach digitalen Medien. Im Gegensatz zu digital kodierten Texten werden andere
digitale Medien von den heutigen Suchmaschinen noch nicht anhand ihres Inhalts, sondern nur anhand ihres Informationskontextes identifiziert, unter anderem anhand ihrer
Metadaten. Dies liegt an den größeren Datenmengen und an den größeren Interpretationsspielräumen im Vergleich zu digitalen Texten (vgl. Tochtermann/Lux, S. 1557).
Metadaten auch
weiterhin sinnvoll
Da nur eine kleine Teilmenge der digitalen Medien im Internet über Metadaten verfügt,
sind die Suchergebnisse hier nur von mittlerer Qualität (vgl. Schweibens). Auch wenn
es neue Suchmechanismen künftig ermöglichen, digitale Medien auch hinsichtlich des
Inhalts zu durchsuchen, werden Metadaten weiterhin sinnvoll sein. Besonders in großen
Datenbeständen lassen sich durch die konsequente und durchdachte Vergabe von
Metadaten die Suchzeiten reduzieren, da nicht der gesamte Datenbestand, sondern
nur der um ein Vielfaches kleinere Metadatenbestand durchsucht werden muss. Außerdem steigt die Qualität der Suchergebnisse erheblich. So können anhand eindeutiger
Suchkriterien (Autor, Titel etc.) nicht nur die richtigen Medien gefunden, sondern auch
neue Informationen abgeleitet werden. Die Suche nach einem Song kann z.B. den Liedtext, andere Lieder des Künstlers oder weitere Interpreten des Songs hervorbringen (vgl.
Marugg).
WISU
1/13
97
WIRTSCHAFTSINFORMATIK
Größerer
Informationsgehalt
Der Wert eines Informationsobjekts steigt mit seinem Informationsgehalt und dessen
Nutzbarkeit. Metadaten können den Wert erheblich erhöhen, da sie einerseits den Entstehungsprozess und die Änderungen des Informationsobjekts dokumentieren und andererseits neue Anwendungsmöglichkeiten erlauben. So ist ein Bild für den Betrachter besonders wertvoll, wenn es nicht nur in der benötigten Qualität geliefert wird, sondern zudem
Metainformationen vorhanden sind, die z.B. über den Aufnahmeort, den Erstellungszeitpunkt oder die Bearbeitung Auskunft geben. Durch die Dokumentation anhand von Metadaten bleibt der Wert eines Informationsobjekts langfristig erhalten (vgl. Marugg).
Neue Anwendungen
Metainformationen ermöglichen außerdem den Umgang mit neuen Anwendungen. Zum
einen gibt es neue Funktionen bei „klassischer“ Software, die z.B. anhand von Metadaten die automatische Verarbeitung digitaler Medien ermöglichen. Zum anderen entstehen neue Anwendungen im Web 2.0. Im Bereich der digitalen Fotografie können
Fotos in Web-Anwendungen wie Flickr zwischen Nutzern leichter ausgetauscht werden
und erlauben die Verknüpfung verschiedener Medien. Ein Beispiel ist die Integration von
Bildern in digitale Landkarten (s. unten 4.). Außerdem schaffen solche Anwendungen
durch die Nutzung der Metadaten einen nahezu nahtlosen Workflow (vgl. Winkelhage,
S. 19; Trinkwalder, S. 156).
Frage 2: Welche Potenziale haben Metadaten?
3.3. Grenzen
Technische Probleme
Grundsätzlich brauchen Metadaten eine einheitliche Struktur, damit sie von Menschen
und von Maschinen interpretiert werden können. Daher wurden mehrere MetadatenStandards entwickelt, die dieses Problem lösen sollen (s. oben 3.1.; vgl. Christ, S. 129).
Komplizierte Standards
Die vielen Standards und ihre Komplexität überfordern jedoch viele Anwender. Metadaten-Standards wie RDF sind durch ihre vielseitige Verwendbarkeit sehr schwierig
anzuwenden. Die verschiedenen Metadaten-Standards lassen sich zudem nicht ohne
weiteres kombinieren, was die Wahl des richtigen Standards erschwert (vgl. Schweibens). So gibt es für Digitalbilder viele Metadaten-Standards und -Container. Weil viele
Anwendungen für die Bildbearbeitung nicht alle Standards beherrschen, kann eine Kombination Letzterer zum Datenverlust führen, wenn eine Software ein ihr unbekanntes
Metadatenformat überschreibt (vgl. Trinkwalder, S. 158 f.). Deshalb empfiehlt es sich für
Privatanwender, nur wenige einfache und begrenzte Metadaten-Standards wie EXIF zu
benutzen.
Grenzen von Sprache
und Klassifikation
Die systematische Klassifizierung von Informationen erfordert mehrere Kriterien: Metainformationen müssen vollständig, objektiv und eindeutig sein (vgl. Köninger/Reithmayer,
S. 92). Dabei treten jedoch mehrere Probleme auf. So können Informationsobjekte mehreren Klassen des Klassifikationssystems zugeordnet werden (Köninger/Reithmayer, S. 171).
Weiterhin müssen Syntax und Semantik, also die Form und die Bedeutung der Daten,
stimmig sein. Zwar reduzieren sich diese Probleme durch standardisierte Metadatenformate, dennoch können Rechtschreibfehler, mehrdeutige Begriffe, Sprachgemische und
Flexionsformen die Verarbeitung der Metadaten erschweren oder gar verhindern (vgl.
Köninger/Reithmayer, S. 168).
Suchmaschinen
Für Suchmechanismen ist es wichtig, dass die gewählten Metadaten verlässlich sind.
Werden stattdessen undeutliche Beschreibungen gewählt, sind die Suchergebnisse unscharf und erschweren damit das schnelle Auffinden eines bestimmten Informationsobjekts. Auch wenn sie sich durch die geschickte Kombination von Suchbegriffen einschränken lassen, ergibt die Suche weniger präzise Ergebnisse (vgl. Köninger/Reithmayer, S. 151 f.; Schweibens).
Hoher Aufwand
Bereits die Klassifikation von digitalen Medien ist mit nicht unerheblichem Aufwand verbunden. Auch wenn es Werkzeuge gibt, die Vorschläge für ein Klassifikationssystem
machen oder selbst eine automatische Klassifizierung durchführen, muss letztlich der
Anwender eingreifen, da falsch eingeordnete Informationsobjekte möglicherweise
nicht mehr gefunden werden (vgl. Köninger/Reithmayer, S. 49; Kretzschmar/Dreyer,
S. 94). Allerdings kann eine private Mediensammlung auch ohne ein ausführliches Klassifikationssystem geordnet werden.
Ableitung von
Metainformationen
Die Ableitung von Metainformationen ist ebenfalls sehr aufwändig, sollten sie nicht automatisch erzeugt werden können. Daher sollten Anwender möglichst viele Informationen direkt aus dem Informationsobjekt ableiten. Beispiele sind das Dateiformat, der Er-
WISU
98
1/13
WIRTSCHAFTSINFORMATIK
steller und das Erstellungsdatum. Manuell einzugebende Metadaten sollten auf ein Minimum reduziert werden (vgl. Christ, S. 128). Diese Probleme lassen sich mithilfe von
Werkzeugen lösen, die automatisch Metadaten übernehmen oder halbautomatisch dem
Anwender dabei helfen, die Metainformationen zu erfassen.
Frage 3: Warum sind bislang viele Informationsobjekte nicht mit Metadaten
beschrieben?
4. Ordnung durch Geotagging
Obwohl die Erfassung von Metadaten mit großem Aufwand verbunden ist, werden aussagekräftige Informationen benötigt. Bei der digitalen Fotografie helfen zum Teil Geodaten. In Kombination mit dem Erstellungszeitpunkt ermöglichen sie es dem Nutzer,
seine Bildersammlung leichter zu organisieren und Bilder schnell zu finden.
Geodaten
Geodaten dienen der absoluten Positionsbestimmung auf dem Erdball und wurden
durch DIN ISO 19101 und weitere ISO-Normen standardisiert. Dadurch sind sie — wie
auch Zeitdaten — eindeutig, außerdem können sie von Digitalkameras in den Header
des Digitalfotos geschrieben werden, womit sie sich für die Klassifizierung einer privaten
Fotosammlung geeignen. Dabei wird meist der EXIF-Standard genutzt, der Metadaten
für die wesentlichen Einstellungen von Digitalkameras und den von ihr ermittelten Geoinformationen definiert (vgl. Kretzschmar/Dreyer, S. 89).
Um die aufwändige manuelle Eingabe von Geodaten für Digitalfotos zu vermeiden, bedarf es eines GPS-Empfängers, der in die Digitalkamera integriert ist. Die erfassten Informationen werden dann automatisch bei der Aufnahme des Bildes in dessen Header
geschrieben. Der hohe Stromverbrauch der GPS-Empfänger erschwert momentan noch
die Verbreitung dieser Technik (vgl. Winkelhage, S. 19; Winterer, S. 29). Eine Alternative
bietet ein von der Kamera unabhängiges GPS-Gerät, das der Fotograf bei sich trägt.
Die Digitalkamera trägt EXIF-Daten einschließlich Erstellungszeitpunkt in den Header
des Bildes ein, während der GPS-Empfänger die Positionsdaten des Fotografen speichert. Anschließend werden die Daten vom Computer synchronisiert und die Geoinformationen in den Header der Bilder geschrieben (vgl. Winkelhage, S. 19; Winterer, S. 27 f.).
Beispiel Digitalfotos
Anhand der Geodaten lassen sich — bei entsprechender Software — die Digitalfotos
wesentlich besser sortieren und auffinden. Entsprechende Services finden sich im Internet. Über eine Internetseite oder eine kostenlos zur Verfügung gestellte Software kann
der Nutzer Digitalfotos mit Ortsinformationen versehen, sie dadurch besser organisieren
und, falls gewünscht, mit anderen Nutzern der Plattform teilen. Wird ein bestimmtes Bild
gesucht, etwa eine Sehenswürdigkeit, kann der Anwender den Ortsnamen eingeben.
Die Software verbindet die Koordinaten mit dem Ortsnamen und findet alle Bilder, die
dort gemacht wurden. Die Suche kann auf eigene Bilder begrenzt oder auf öffentliche
Fotos ausgeweitet werden. Auf der beigefügten digitalen Landkarte werden die Aufnahmeorte des gesuchten Digitalfotos und gegebenenfalls andere an diesem Ort erstellte Fotos angezeigt. Neben Bildern aus der Umgebung werden auch nahegelegene
Sehenswürdigkeiten und weitere Informationen verlinkt, z.B. Artikel von Wikipedia (vgl.
Winkelhage, S.19; Winterer, S. 29.).
Frage 4: Warum reichen Geodaten für eine hilfreiche Klassifikation von Bildern
nicht aus?
5. Spielend leicht zu Metadaten?
Metadaten können den Umgang mit digitalen Medien erheblich vereinfachen und verbessern. Wie beschrieben, kann durch die Kombination von Zeit-, Geo- und anderen
Metadaten eine Sammlung digitaler Fotos — bei automatischer Datenerfassung — ohne
großen Aufwand geordnet werden. Datenbestände mit kommerziellem Inhalt müssen
meist durch Metadaten charakterisiert werden. Metadaten sind nicht immer universell
einsetzbar, viele Bilder und andere Medien können nicht durch Geoinformationen auf
aussagekräftige Weise beschrieben werden, weshalb weiterhin manuell erstellte Deskriptoren für Bilder gebraucht werden.
Auch keine Lösung:
Google Image Labeler
Medien, die im Internet verbreitet werden, verfügen selten über Metadaten. Daher liefern
Suchmaschinen bis heute nur mäßige Suchergebnisse bei digitalen Medien. Google verWISU
1/13
99
WIRTSCHAFTSINFORMATIK
suchte auf ungewöhnliche Weise, das Problem bei digitalen Bildern zu lösen: Bei einem
Spiel sollten zwei Personen einem zufällig vorgestellten Bild aus dem Internet möglichst
die gleiche Beschreibung geben. Je besser die gewählten Deskriptoren übereinstimmten, desto größer die Punktzahl. Die so gefundenen Beschreibungen nutzte Google dann
als Metadaten. Allerdings konnte der „Google Image Labeler“ das Problem auch nicht
lösen. Im September 2011 wurde das Spiel eingestellt.
Literatur:
Christ, O.: Content-Management in der Praxis. Berlin 2003.
Heinrich, L./Roithmayr, F.: Wirtschaftsinformatik-Lexikon. 7. Aufl., München 2003.
Köninger, P./Reithmayer, W.: Management unstrukturierter Informationen. Frankfurt a.M. 1998.
Kretzschmar, O./Dreyer, R.: Medien-Datenbank- und Medien-Logistik-Systeme. München 2004.
Marugg, T.: Metadaten für Content-Indizierung und Wissenssicherung. www.contentmanager.de/magazin/artikel_69_ metadaten_fuer_content-indizierung_und.html, Erstellungsdatum v. 20.8.2001.
Schweibens, W.: Die Verwendung von Metadaten und Metatag-Generatoren am Beispiel der Homepage des Juristischen Internet-Projekts Saarbrücken. www.jurpc.de/aufsatz/19990159.htm, Erstellungsdatum 10.9.1999.
Stickel, E. (Hrsg.): Gabler-Wirtschaftsinformatik-Lexikon. Wiesbaden 1997.
Tochtermann, K./Lux, M.: Suchen mithilfe semantischer Metadaten. In: WISU, 35. Jg. (2006), S. 1557 1564.
Trinkwalder, A.: Für die Ewigkeit — Metadatenstandards fürs Bildarchiv. In: c't, H. 12 (2006), S. 156 - 158.
Winkelhage, J.: Geo-Daten bringen Ordnung in die Bilderflut. In: FAZ, Ausgabe 58 (2007), S. 19.
Winterer, A.: Beziehen Sie Position! In: Tomorrow, H. 12 (2007), S. 27 - 29.
Die Fragen werden im WISU-Repetitorium beantwortet.
Die Fallstudie
Information Security and Compliance in Cross-Organizational Settings (Part I)
Prof. Dr. Ronald Maier / Vanessa Borntrager, B.Sc. / Mag. Dipl.-Ing. Daniel Bachlechner /
Dr. Stefan Thalmann, Innsbruck
I. Case Problem
Traditco Inc. is a B2B network provider mainly focused on Electronic
Data Interchange (EDI) services, linking its customers to their trading
partners via several business services. Over 40,000 companies
world-wide digitize their B2B processes and build up a business relations network over Traditco‘s „virtual“ transaction platform to electronically exchange data in all formats across several media borders.
Traditco as a fast growing niche provider of interconnecting and integration services offers varying portfolios of performance modules
to enable individual customer relationships with all-round business
partner integration. Therefore, the company’s transaction platform
consists of different systems and applications composed to valuable
services. Both standardized and custom business services require
the company operating with multi-customer-functionality on top of
dynamic, cross-organizational compositions of various, in- or outsourced services, resulting in a large number of different, and partially conflicting security and compliance requirements.
Their EDI service is mostly provided by Traditco itself, composed of
three self-managed sub-services (transaction, communication and
monitoring). The applications offered only run on top of systems that
are provided by an external supplier. Thus, Traditco has the possibility to configure the applications within certain limitations, but relies
on the supplier for basic configuration and settings where root access is necessary. This is achieved by defined service descriptions
and service level agreements (SLAs). The EDI service offering covers
WISU
100
1/13
the establishment of a technical connection between the trading
partners, the implementation of the customer’s EDI processes as
business relation, transferring and mapping their data if necessary.
Therefore, the additional legal requirements each trading partner’s
national legislative has them mandatorily comply to can be seen as
part of EDI service offerings and need appropriate documentation in
customer SLAs as their realization differs from country to country.
Correspondingly, as long as the connectivity guarantees efficient
and secure links to the platform and the legal terms are fulfilled, all
services are provided world-wide without technical restrictions.
Imperial Oil PLC, a fast growing British company providing smart
services in the energy sector and one of Traditco’s most important
customers was going to be informed that its compliance with the
British Electronic Signatures Law was lacking. According to Sheila
Florence, auditor of Innuendo Ltd., Imperial Oil’s electronic equivalent of its written signature does not meet the regulative specifications to guarantee its agreements and business settlements. And, if
that wasn’t already enough, chances are high that all British customers using Traditco’s electronic signature service are affected.
Vincent Brehm, the CEO of Traditco, is devastated.
It is essential for the company, which supports customers’ digitization of business processes, to be fully capable of linking its customers’ electronic representations to their commercial transactions
and messaging activities. What else ensures the confidence of communication over their platform, Traditco’s centerpiece of success, if
WIRTSCHAFTSINFORMATIK
a „simple“ electronic signature cannot account for legality? Florence
had found fault to the controls in place at Traditco to fulfill and assure the customer’s commitment, national legislative has Imperial
Oil and its British partners liable to. Worst-case scenario would not
only have consequences of administrative fines or a crack in reputation to Traditco, but if the customer finds out about his service provider not being compliant to the demanded degree of reliance, him
and his trading partners incrementally dropping out could also result
in painful economic cuts for the company.
Brehm has just been waiting on something like this to happen. The
past few months have shown a boom in business, the increasing
customer base and therefore rising numbers of integrated business
partners had Traditco’s trading platform expand to its greatest capacity.
Of course information security and compliance had always remained important issues, a constant hurdle to overcome in the market
of serving a large number of clients with various applications. How
often has he told his managers that first priority is to overlook vulnerabilities, especially mounting where internal and external systems
interact? But they never seemed to take it too seriously, that complying with the requirements of business secureness, sheltering
trustworthy controls and accordingly providing a consistent surety bond to customers would safeguard Traditco’s own position
from threatening violations and customer recession.
Putting frustrations aside, Brehm first of all needs to have the problem solved before Imperial Oil’s trust is lost. He feels that this seemingly simple compliance issue could have him stuck between a
rock and a hard place. Where just being struck with his company’s
incompetence to comply with one regulation, being a fraction of the
whole of requirements Traditco has to consider, CEO Brehm is prepared to have more to come.
He calls in his internal auditor, Frederik Melville, for first investigations on the issue disclosed by Florence. After explaining the problem
at hand, Brehm wants Melville to double-check the findings and get
to the bottom of it all even if it costs stirring up the entire company
personnel.
Manually, the internal auditor Melville, approaches the production
environment of loads of customer service usage. He needs to check
customer platform access to assess the customers’ individual interaction report and correspondingly transaction data on the time span
of inefficient messaging and transaction activities. But not only is he
looking for the needle in a haystack, before he can actually search
for the specific reports of the past months, he needs to get back to
the responsible customer approver (Aisha Jalai) to answer him by email on the underlying approval information to validate the customers’ access rights and account data. Only then can the respective
controls of customers be investigated.
The complexity of the check takes form as soon as Melville tries to
find his way through active users. Under pressure, he once again
realizes how time-intensive it is to manage only the collection of all
information from different sources needed to check on a single customer. As long as he has to do his job on behalf of such conditions,
clicking through a jungle of customer data in several locations of differently stored information, dependent on other colleagues to get his
work done, one cannot expect the evidence of profound knowledge
to single customers and corresponding requirements in a heartbeat.
Often, they have spoken about the need of a workflow system to automate the process of delivering audit evidence and report generation and often other investments, affecting the customer experience
more directly, have had first priority.
Finally, the responsible customer approver sends the long-awaited
approval information. After an ocular comparison of customer service details, it is evident that Sheila Florence, the external auditor, is
proven to be right and the customer security requirement is not met
making the service non-compliant with Imperial Oil’s legal requirements of admissible electronic signatures. Now, the control design
needs to be investigated on contractual agreements as well as the
measures in place to be sure of really committing to the specific customer’s demand.
Together with Melville, Brehm gets a hold of the customer relationships manager, Elizabetha Costa. They need the concrete information if the business requirement of the British customer is explicitly
manifested in SLAs to detect a possible conflict on behalf of differing
controls for several signature regulations. Costa immediately gasps
for air as she is strafed by Brehm explaining the situation. Whether
the conflict of customer requirement is due to her field of responsibility would take her quite a while of detection. Potential causes of
the discrepancy could derive from many sources, but if it turns out
that SLAs define the adherence to the British regulation agreement
without an efficient control existing, she would be badly off for promising too much in the first place. Costa has to find out which landscape components should cover the specific requirement in parallel
and how the variety of customer services match the requirement obviously warranted by Traditco. She seeks the compliance manager,
Klaus Zorga, for advice as he is responsible for requirements coordination. If Zorga could only identify the actual control existing to suit
this specific regulation, Costa herself could give a statement to a
correct match of demand and supply from her side. Therefore, Zorga
needs different views on the overall architecture where related landscape components can be filtered and checked for existence to fulfill
the specific customer necessity. Watching her colleague browse
through an overview of available security requirements as well as investigating the current IT landscape to define an affected one, Costa
is getting anxious about the questioning of her task correctness. The
match of demand and supply as well as documentation and acceptance of customer service requests relies pretty much on her long
years of business experience. As for listing services according to
customer claims, checking conflict potential and mapping them to
the existing controls implemented is widely knowledge-based, but
with identifying conflicts afterwards she has always wished for a
simplification. The checking and mapping process of security requirements according to the set of available controls is time-intensive or even a lucky break after eyeing and pair-wise comparing the
enormous lists of each. Scanning for possibly affected controls of
missing requirements is not done on a regular basis, only when such
problems occur and then is unfortunately done manually.
After hours passing by she can confirm the documented acceptance
in SLAs of serving Imperial Oil with electronic signatures based upon
controls actually put in place to create and secure them. Relieved by
being able to pass on the burden, but overpowered by the efforts of
her investigation, Costa mentions the need to have conflicts detected and notifications passed on more easily in case of inconsistencies. Support when mapping supply and demand to each customer
contract could have such tasks done more efficiently.
But for now such issues, once again, need to stand aside. Brehm
has still not gotten an answer to the roots of Imperial Oil’s compliance problem concerning the British legal restraint. The last step of
unearthing the truth remains in evaluating the effectiveness of
measures taken to comply to the customer requirement.
The IT administrator, Ivan Andrejew, was unable to cope with the
stockpiled anxiety fanned out by his superior colleagues. That external auditors come searching for discrepancies as long as they finally
find something to complain about, was not the first time. Andrejew
has always had a problem with them telling him what has to be done,
but none of them ever looked at which components of the IT landscape exist and are actually configured to the controls being checked. The auditors would look up all descriptions of the control set
and of the current landscape which he knows by heart and who
knows if the last auditor might have overseen that the electronic signature requirement was fulfilled as demanded. As for he seems to
be the one to give the assurance that the controls are implemented
effectively, he would cooperatively walk through his processes and
settle the situation.
Andrejew retrieves the relevant information at locations where the
controls were logged, directly at the landscape components or from
systems where they are stored for such specific queries. As not all
logged data is relevant in this case, it takes him a while to select and
retrieve subsets of available data. By comparing the current landscape configuration to the ideal landscape where Imperial Oil’s requirement is efficiently met, Andrejew can detect a misconfiguration
or check whether the user requirement is covered by implemented,
active controls. Therefore, he needs the data gathered from several
sources and servers, regarding additional approvals of requests for
control implementation to be absolutely positive on what the current
landscape is composed of. Checking for the discrepancies is again
a time-wasting affair, where such comparisons of course have some
kind of conflict result the closer you look. Andrejew sees frictions
„programmed“ to occur, as for the high capacity and numbers of dif-
WISU
1/13
101
WIRTSCHAFTSINFORMATIK
ferent controls implemented all run on the same servers. But his goal
now is to check if the desired configuration is in place and not changed. He identifies the to-be configuration for compliance of the control to Imperial Oil’s requirement of electronic signature provision
and the affected landscape components aimed at in the control design. The as-is configuration is retrieved by querying the configuration management database (CMDB) under the affected landscape
components defined previously and finally he can compare.
II. Questions
1. Please summarize the problems with legal constraints such as
Electronic Signature laws and point out the consequences for Traditco’s EDI service offerings.
2. Please discuss why information security and compliance are important and what are the roles of standards and regulations in this
respect (e.g. SOX, HIPAA, ISO 27001).
3. Please elaborate on the problem Traditco is confronted with and
discuss possible solutions to prevent such occurences in the future.
III. Answers
Question 1: Electronic Signatures and EDI Service
Electronic Signature Acts are in force world-wide. Internationally,
governments concern to establish basic matters related to electronic signatures in order to achieve the security and reliability of ecommerce and activate the use of electronic communication and
transaction. The computerization of national society along with the
advance of benefits and convenience is promoted, but under strict
legislative control to protect the processing of confidential data during it‘s free movement. In Europe, the Directive of the European Parliament and of the Council of 13, for example, requires Member States to implement requirements expressed in national legislation. The
importance hereto is that the Directive only obliges Member States
to make sure that qualified electronic signatures are legally speaking
treated in the same way as handwritten, but it does not regulate the
legal use and consequences itself (Dumortier et al.). Therefore, the
Directive is integrated into the single national laws of European
countries which show differences in regulations and specific control.
Electronic signatures come in many forms as typewritten, scanned
in, digital representation of a hand written signature, as fingerprints
for example, as unique sequence of characters, or as signatures created by cryptographic means. But they are only as good as the technology used to create them. All parties involved in any transaction or
messaging activity need the confidence that their means of communication reaches its destination without modifications from its origin
to the intended addressee. Trust is the basis of all commerce and is
enhanced by the use of qualified electronic signatures ensuring legal
certainty. The use of electronic signatures is thus controlled by national legal frameworks, where requirements to an electronic signature are bound to admissibility of country-specific legislative proceedings. Where German Digital Signature Law establishes stringent
standards for what types of electronic signatures are to be deemed
as secure, Italy even takes it a step further and derives legal effect
only to signatures authenticated by licensed certificate authorities
(Kuner et al.).
The type of technology to use and the form of secure signature creation is not mandated by an international consent. The implementation of controls is ceded the signatory to decide whether software,
hardware or a combination to acquire, as long as electronic signatures comply with the requirements mandated by the national legislations of the countries involved in the business transaction. A signatory who holds the signature creation device and acts on own behalf
or on behalf of the natural or legal person he or she represents is to
ensure compliance with requirements. At a minimum, the signature
creation data is to be unique, capable of being kept secure, be protected against forgery and use of others, cannot be altered and data
should be presentable to the signatory before it is signed off. Such
a control, in form of a secure signature creation technique, proves
the origin of a message, links the originator to the information and
ensures legal conformity by satisfying authentication, integrity and
non-repudiation aspects of electronic transaction and messaging
activities (BERR).
Concerning the consequences for Traditco’s EDI service offerings,
the diverse requirements stemming from the different national legis-
WISU
102
1/13
lations translate into a complex decision problem. Traditco needs to
propose solutions for its clients that are compliant with the national
legislations of all countries in which the clients operate. As many
clients use Traditco’s transaction platform this is already a complex
task. The decision problem is exacerbated by the fact that Traditco
needs to ensure that its suppliers which provide infrastructure and
services to Traditco also adhere to the requirements that Traditco’s
customers have. Finally, this complex decision problem needs to be
dynamically revisited every time national legislations change which
also requires Traditco to be up to date concerning EDI developments world-wide.“
Question 2: Importance of Information Security and Compliance
As multiple actors are involved in Traditco’s business environment,
the variety of business objectives to support along with trust establishment by providing confidential, integral and available service processes is of high consideration. In terms of security, the trading environment is founded by each customer’s internal as well as legal requirements, e.g. SOX, ISO 27000 certifications (see references) on
some domain activities, compliance with national laws on data confidentiality and security standards. The large-scale network shelters
different national backgrounds concerned by Traditco‘s business
activity, imposing own laws and execution standards to data treatment and confidentiality the company has to adapt and comply to.
To this effect, different controls are implemented in the organization
in order to meet various requirements.
The problematic is also subject to external auditors, confronted
when auditing Traditco in clients’ interest. As they should understand the company being audited, challenges on their behalf are
also requirements in terms of security and Traditco's customers' requirements that have to be met by efficient control implementations.
Additionally, the external auditor should identify the requirements
that may not be compatible (regulations may vary from a country to
another) as well as the requirements that could be equivalent. Consequently, auditors have to collect any type of information that describes the various customers’ requirements and the various laws
and regulations by which the company is restricted.
It is essential that customers can trust Traditco, especially when secure, compliant and reliable processing of their data is guaranteed.
Traditco and their associated companies are contractually and legally obliged to ensure the confidentiality, integrity and availability of
their business data. Loss, manipulation or publication of data can result in severe civil or criminal prosecution. Customers are able to
make a claim for liabilities against them. Therefore, it is very important that the security guidelines are followed by every employee, that
security breaches are reported and that gaps in security and compliance are resolved as quickly as possible.
Achieving, maintaining and proving compliance with requirements
stemming from several customer demands and international regulations as well as cost-effectively managing security configurations in
own operating conditions have Traditco challenged. Their range of
possibilities to detect and quickly react to inefficiencies additionally
has them encounter difficulties due to a constant growth of customer base and therefore a lacking profound overview of all supported
individual service solutions. In case of occurrences, the company is
badly prepared and often even clear of revelation.
Question 3: Problem in Short and Possible Solutions
The external auditor has pointed Traditco to an occurrence, where
Imperial Oil’s electronic signature did not fulfill mandatory specifications of the British Electronic Signatures Act. Traditco was neither
able to achieve compliance with the requirement nor advert to such
inefficiency on the forehand. But this is not something to treat lightly.
Security and reliability of their business is being questioned thereby
as they have been processing confidential data, high value transactions, and not ensuring trust and confidence to the communication
in free movement. Not providing qualified signatures to an important
customer already means damage in customer relationship. However, the additional severity of not adhering to the British law, Traditco as signatory has to adapt and comply to, could severely hamper the company‘s trustworthiness in data treatment. There is, among
other weak points, a lack of communication from sales and customer-relationship staff to technicians concerning the security requirements and their consistent implementation. Solutions need to consider how they target this weak point.
WIRTSCHAFTSINFORMATIK
IV. Typical Mistakes Made When Solving the Case Study
Question 1:
Mistakes students could make when solving the first question is not
defining and elaborating the several aspects of Electronic Signature
Laws at all. They should be able to recognize the different national
legislatives concerning the law introduced to an international consent but on different grounds of specifications. The general burden
put on Traditco thereby should explicitly be outlined referring to the
presented business context and at last, the students should not
shallowly relate the problem of loads of legal restraints Traditco’s
EDI services must include and adapt to when serving their customers’ demands.
Question 2:
Students could miss out on highlighting security as well as compliance aspects to Traditco. It is important that students notice the difference between both terms, but define their connection concerning
the company's business demands. The role of standards and regulations should exemplify how requirements are set which are to be
supported by implemented controls ensuring compliance to legal
constraints. Students could mistakenly not discuss this connection
and mere definitions to standards should not account as comprehensive elaboration of the question.
Question 3:
Students could not link the problem’s consequences to a more abstract level on which Traditco faces issues on essential business
pre-requisites, such as loss in customer trust. Respectively the students should recognize to what extent the seemingly „simple“ compliance issue got out of hand. Mistakes made on behalf of solution
provision are not illustrating any approaches, dealing out theoretical
solutions without relating them to the case or merely pointing to
pragmatic, common-sense solutions without any systematic deliberations to justify them. Possible solution approaches will be illustrated in the second part of the case.
Related Standards and Regulations:
SOX: The Sarbanes-Oxley Act of 2002, also known as the „Public
Company Accounting Reform and Investor Protection Act“ and
„Corporate and Auditing Accountability and Responsibility Act“,
commonly called SOX, is a United States federal law which set new
or enhanced standards for all U.S. public company boards, management and public accounting firms. It was enacted as a reaction to a
number of corporate and accounting scandals, which cost investors
billions of dollars when share prices and confidence in the nation's
security markets collapsed.
It created a new, quasi-public agency, charged with overseeing, regulating, inspecting and disciplining accounting firms in their roles
as auditors of public companies. The act also covers issues such as
auditor independence, corporate governance, internal control assessment, and enhanced financial disclosure. (U.S. Congress 2002, www.
logitax.hu/English/SOX.pdf, last access on 2.12.2012)
HIPAA: The Health Insurance Portability and Accountability Act of
1996 Privacy and Security Rules are enforced by the U.S. Office for
Civil Rights. The Privacy Rule protects the privacy of individually
identifiable health information held by covered entities, giving patients an array of rights with respect to that information. The HIPAA
Security Rule sets national standards for the security of electronic
protected health information; it specifies a series of administrative,
physical, and technical safeguards for covered entities to assure the
confidentiality, integrity and availability of electronic protected
health information. Further, the confidentiality provisions of the Patient Safety Rule protect identifiable information being used to analyze patient safety events and improve patient safety. (U.S. Department of Health & Human Service, www.hhs.gov/ocr/privacy/hipaa/
understanding/index.html, last access on 2.12.2012)
ISO27001: The ISO 27000 series of standards are specifically reserved by ISO for information security matters, aligning a number of topics around information security management systems. Published
2005, the objective of the ISO 27001 standard itself is a specification
for an ISMS to „provide a model for establishing, implementing, operating, monitoring, reviewing, maintaining, and improving an Information Security Management System“. It is against this standard
which certification is granted.
Further standards of the ISO 27000 series comprise guidance for implementation of ISMS (ISO 27003), ISMS management measures
and metrics (ISO 27004) or an independent methodology for information security risk management. (ISO 27000 Directory 2009,
www.27000.org/index.htm, last access on 2.12.2012)
Literature:
Alner, M.: The Effects of Outsourcing of Information Security. In: Information Systems Security, 10(2), 2001.
BERR (Department for Business, Enterprise and Regulatory Reform):
Electronic Signatures and Associated Legislation. United
Kingdom 2000. www.bis.gov.uk/files/file49952.pdf (last access on 2.12.2012).
Böhm, M.: Werte schaffen durch IT-Compliance. In: Wirtschaftsinformatik & Management, H. 3 (2009).
Dumortier, J./Kelm, S./Nilsson, H./Skouma, G./Van Eecke, P.: The
Legal and Market Aspects of Electronic Signatures: legal and
market aspects of the application of Directive 1999/93/EC
and practical applications of electronic signatures in the
Member States, the EEA, the Candidate and the Accession
countries. A Study for the European Commission — DG Information Society, Interdisciplinary Centre for Law & Information Technology 2003.
Hall, J./Liedtka, S.: The Sarbanes-Oxley Act: Implications for largescale IT outsourcing. In: Communications of the ACM, 50(3),
2007.
Kaplan, R.S./Norton, D.P.: Using the Balanced Scorecard as a Strategic Management System. In: Harvard Business Review,
74(1-2), 1996, p. 75 - 85.
Kolkowkska, E./Dhillon, G.: Organizational power and information
security rule compliance. In: Computers & Security 2012.
http://dx.doi.org/10.1016/j.cose.2012.07.001 (last access on
2.12.2012).
Kuner, C./Barcelo, R./Baker, S./Greenwald, E.: An Analysis of International Electronic and Digital Signature Implementation Initiatives. A Study Prepared for the Internet Law & Policy Forum (ILPF), 2000.
Sackmann, S./Kähmer, M.: ExPDT: Ein Policy-basierter Ansatz zur
Automatisierung von Compliance. In: Wirtschaftsinformatik,
H. 5 (2008).
Thalmann, S./Bachlechner, D./Demetz, L./Maier, R.: Challenges in
Cross-Organizational Security Management. In: Proceedings of the 45th Hawaii International Conference on System
Sciences (HICSS), Grand Wailea, 2012.
Thalmann, S./Bachlechner, D./Manhart, M./Demetz, L.: Key Roles in
Cross-Organizational Security Settings. In: Proceedings of
the 2011 European Security Conference, Örebro/Sweden
2011.
Wittek, M./Strasser, A.: IT-Compliance-Officer: Verantwortung, Aufgaben, Befugnisse und Qualifikationen. In: Wirtschaftsinformatik & Management, H. 4 (2012).
Teil 2 der Fallstudie erscheint in WISU 2/2013.
Übersetzungshilfen: an array of — eine Reihe von; between a rock
and a hard place — in der Klemme sein; compliance — Übereinstimmung; contractually — vertraglich; criminal prosecution — strafrechtliche Verfolgung; devastated — am Boden zerstört; commitment — Verpflichtung, Zusage; liable — verpflichtet, haftbar; hurdle
— Hürde; monitoring — Überwachung; mandatory — verbindlich,
verpflichtend; non-repudiation — Nichtverstoß, Unleugbarkeit; on
behalf of — im Auftrag von; occurrency — Vorkommnis; pre-requisites — Voraussetzungen; severity — Ernst, Schwere, Schwierigkeit;
to adhere to — befolgen, sich richten nach; to cede — überlassen,
abgeben; to exacerbate — verschlimmern, verschärfen; to hamper
— hindern, beeinträchtigen; to impose — auferlegen; to retrieve —
beziehen, erlangen, abrufen; to stem from — stammen von; to unearth — aufstöbern, zu Tage bringen.
WISU
1/13
103
Volkswirtschaftslehre
Geldpolitik
Orientierungsgrößen der Geldpolitik
Prof. Dr. Joachim Weeber, Elmshorn
Bei der Überwindung der europäischen Staatsschuldenkrise steht unter anderem
die Geldpolitik im Mittelpunkt. Waren es bislang vor allem die geldpolitischen Instrumente, welche die Auseinandersetzungen bestimmten, dürfte der Diskurs über
die geldpolitische Strategie der Europäischen Zentralbank bald wieder aufleben.
Dabei sind zahlreiche Aspekte zu beachten.
I. Neue Anforderungen an die Geldpolitik
Die Krisen der letzten Jahre — von der Subprime- über die Finanz- bis hin zur Schuldenkrise — haben auch Auswirkungen auf die Geldpolitik der Industriestaaten. Das gilt insbesondere für die Eurozone.
Vertrauen in die
Finanzmärkte ist
erheblich erschüttert
Standen zuvor vor allem traditionelle, etwa zinspolitische Maßnahmen im Mittelpunkt der
Geldpolitik, änderten sich spätestens seit dem Zusammenbruch der Investmentbank
Lehman Brothers im September 2008 die Rahmenbedingungen. Es war vor allem diese
Insolvenz, die das Vertrauen in die Finanzmärkte schwer erschütterte. Banken liehen sich
kein bzw. erheblich weniger Geld, was zum faktischen Stillstand des InterbankenHandels führte. Der Liquiditätshandel zwischen den Banken kam danach ganz oder nahezu ganz zum Erliegen. Die Liquidität in den Volkswirtschaften konnte nur durch massive Eingriffe der Staaten bzw. der Zentralbanken sichergestellt werden. Inzwischen werden sogar einzelne Euro-Länder unmittelbar von der Europäischen Zentralbank (EZB)
finanziert.
Auswirkungen
auf die Realwirtschaft
Dies hatte nicht nur Auswirkungen auf die Finanzmärkte, auch die Realwirtschaft vieler
Länder war massiv betroffen, was über verschiedenste Wege zu Spillover-Effekten
führte. In vielen Ländern ging das Wirtschaftswachstum erheblich zurück, mancherorts
verloren die produzierten Waren und Dienstleistungen sogar stark an Wert.
Neue Konzepte
für die Geldpolitik
Mussten anfangs vor allem die Märkte beruhigt werden, geht es mittlerweile auch um
mittel- bis langfristige Konzepte für die Geldpolitik, um Krisen dieser und anderer Art auf
den Finanzmärkten künftig zu verhindern. Die Vorschläge reichen von einer moderaten
Überarbeitung der bisherigen Geldpolitik, d.h. ihren Zielen, Strategien und Instrumenten,
bis hin zu einer vollständigen Neuorientierung der Geld- und in deren Gefolge auch der
Währungspolitik — etwa bei Vorstellungen wie dem Vollgeld (vgl. Douglas et. al.).
Hier wird die Frage beleuchtet, an welchen Kriterien sich die Strategie der EZB bei der
Ausweitung der Geldmenge künftig ausrichten soll. Dabei wird davon ausgegangen,
dass die bisherige alleinige Ausrichtung ihrer Geldpolitik an der Preisstabilität (Art. 127
(1) des Vertrages über die Arbeitsweise der Europäischen Union) durch die Aufrechterhaltung der Finanzmarktstabilität zumindest ergänzt wird — auch wenn dies nicht notwendigerweise rechtlich verbindlich fixiert wird. Eine Annahme, die aufgrund der derzeitigen Politik der EZB nicht unberechtigt erscheint.
Frage 1: Woraus haben sich die Anforderungen an die aktuelle Geldpolitik ergeben?
II. Alternativen der geldpolitischen Strategie im Euro-Raum
Grundfesten
der EZB-Politik
WISU
104
1/13
Die Grundfesten der geldpolitischen Strategie der EZB haben sich seit dem Beginn der
Europäischen Währungsunion im Jahre 1999 nicht verändert. Dabei geht es um die von
ihr definierte Preisstabilität, wonach eine Inflationsrate beim harmonisierten Verbraucherpreisindex von „unter, aber nahe bei zwei Prozent“ angestrebt wird, sowie um die
VOLKSWIRTSCHAFTSLEHRE
Zwei-Säulen-Strategie, wobei es sich bei der ersten Säule um die „monetäre Analyse“
und bei der zweiten um die „Analyse der wirtschaftlichen Entwicklung“ handelt.
1. Monetäre Analyse
Geldmenge
Mit der monetären Analyse wird „der Tatsache Rechnung getragen, dass Geldmengenwachstum und Inflation auf mittel- bis langfristige Sicht in enger Beziehung zueinander
stehen … Diese weithin anerkannte Beziehung gibt der Geldpolitik einen festen und zuverlässigen nominalen Anker an die Hand, der über die üblicherweise bei der Erstellung
von Inflationsprognosen verwendeten Horizonte hinausgeht … Aufgrund des mittel- bis
langfristigen Charakters der monetären Sichtweise gibt es jedoch keine direkte Verbindung zwischen kurzfristigen monetären Entwicklungen und geldpolitischen Beschlüssen“ (EZB, 65 f.). Allerdings war der Nachweis einer direkten Verbindung zwischen Geldmenge und Preisentwicklungen der jüngeren Vergangenheit von Unschärfen geprägt,
etwa aufgrund von Portfolio-Umschichtungen der Anleger, wenn sich die Attraktivität der
in der Geldmenge enthaltenen Bankeinlagen (etwa aufgrund von Änderungen der steuerlichen Behandlung von Zins- oder Kapitalerträgen) gegenüber anderen Finanzinstrumenten ändert.
2. Wirtschaftliche Analyse
Bestimmungsfaktoren
Zur Analyse der wirtschaftlichen Entwicklung gehört die Beobachtung zahlreicher verschiedener Indikatoren. „Dabei geht es um die Beurteilung der kurz- bis mittelfristigen
Bestimmungsfaktoren der Preisentwicklung … Sie trägt der Tatsache Rechnung, dass
die Preisentwicklung über diese Zeithorizonte hinweg weitgehend vom Zusammenspiel
von Angebot und Nachfrage an den Güter-, Dienstleistungs- und Faktormärkten beeinflusst wird“ (EZB, S. 58 f.). Zu diesen Indikatoren zählen etwa die Entwicklung der gesamtwirtschaftlichen Produktion, die gesamtwirtschaftliche Nachfrage und ihre Komponenten sowie Daten der Finanzpolitik. Hinzu kommt eine breite Palette von Preisund Kostenindikatoren, die Entwicklung des Wechselkurses, der Weltwirtschaft
und der Zahlungsbilanz. Dabei geht es um die Einschätzung, wie sich die Realwirtschaft
entwickelt und um die Auswirkungen auf die Preisstabilität.
Frage 2: Was sind die Grundlagen der Zwei-Säulen-Strategie der EZB?
Ergänzungen der
bisherigen Ausrichtung
Bereits vor rund zehn Jahren säte die EZB selbst Zweifel an ihrer Zwei-Säulen-Strategie.
Auf der Sitzung des EZB-Rates vom 8.5.2003 wurde die geldpolitische Strategie überprüft und es wurden eine Reihe von Beschlüssen getroffen, welche die ursprüngliche
geldpolitische Ausrichtung ergänzten:
— Die Zielvorstellungen hinsichtlich der angestrebten Preisstabilität wurden präzisiert.
— Die Struktur der Berichterstattung im Rahmen der „einleitenden Bemerkungen“ des
EZB-Präsidenten wurde geändert: Erst nach der wirtschaftlichen und finanzwirtschaftlichen Analyse folgen jetzt Ausführungen zur monetären Analyse. Die Beobachter der EZB vermuteten, dass die wirtschaftliche Analyse dadurch mehr Gewicht erlangt hat.
— Der Referenzwert für die Ableitung des Geldmengenziels wird nicht mehr jährlich
überprüft, womit der mittel- und längerfristige Charakter der Geldpolitik betont werden soll. Gleichzeitig stellte der EZB-Rat klar, dass er die Bedingungen und Annahmen, auf denen der Referenzwert beruht, weiter beobachtet und erforderlichenfalls
Änderungen bekannt gibt.
Weitere
Auseinandersetzung
Danach ging die Auseinandersetzung weiter, zum Teil wurde sie von der EZB selbst initiiert. So wurde beispielsweise im Herbst 2006 diese Äußerung der damalige EZB-Generaldirektorin Reichlin auf der 4. Zentralbankkonferenz in Frankfurt in der Presse wiedergegeben: „Das ist eine Neuigkeit: Wir haben festgestellt, dass die Geldnachfrage instabil
ist“ (zitiert nach Häring). Auch der ehemalige EZB-Chefvolkswirt Jürgen Stark räumte
ein: „Man kann nicht leugnen, dass es viele praktische Probleme bei der Analyse und Interpretation der Beziehung zwischen Geldmenge und Preisen gibt“ (zitiert nach Häring).
Der Zweifel daran, dass die Stabilität der Geldnachfrage Grundbedingung für die (Teil-)
Strategie der Geldmengensteuerung ist, hatte vor allem dazu geführt, dass die Berichterstattung 2003 geändert wurde. Aufgrund der anhaltenden Turbulenzen und Unsicherheiten an den Finanzmärkten hat die Stabilität mittlerweile jedoch eher ab- statt zugenommen. Außerdem haben die Ursachen der Finanzkrise und deren Auswirkungen
deutlich gemacht, dass die gegenseitige Abhängigkeit der Finanzmärkte und der ReWISU
1/13
105
VOLKSWIRTSCHAFTSLEHRE
alwirtschaft unterschätzt worden war. Etwa aufgrund des zusätzlichen Abschreibungsbedarfs der Banken wegen zunehmender Kreditausfälle, die durch den drastischen Wirtschaftseinbruch bedingt waren, sowie den Wertverlust vieler Wertpapiere, die sich im
Bestand der Banken befanden. Wenn sich die Geldpolitik deshalb stärker an der Realwirtschaft orientiert, ist dies durchaus verständlich (vgl. Münchau).
III. Alternativvorschläge
Zwischenziele
Preisniveaustabilität, Wirtschaftswachstum und Finanzmarktstabilität lassen sich durch
die Geldpolitik nur schwer direkt erzielen. Deshalb müssen zunächst Zwischenziele angestrebt werden, die dem Einfluss der Zentralbank unterliegen und in enger Verbindung
mit den Endzielen stehen. Diese Zwischenziele unterscheiden sich hinsichtlich der Zeitdimension, der Orientierungsgröße und der Dimensionalität.
Vom ein- zum mehrjährigen
Geldmengenziel
Der Übergang vom ein- zum mehrjährigen Geldmengenziel wurde bereits diskutiert, als
die Geldpolitik noch bei der Deutschen Bundesbank lag und eine reine Geldmengenorientierung erfolgte. Begründet wurde dies damals vor allem damit, dass sich so kurzfristig Sonderfaktoren wie die Anfang der neunziger Jahre entwickelten Finanzinnovation, die auf die monetäre Entwicklung einwirken, entschärfen ließen. Aus heutiger Sicht
ist ein längerer Zeithorizont auch aufgrund prinzipieller Überlegungen gerechtfertigt:
Die Geldpolitik wird dadurch glaubwürdiger — ein Umstand, der das gestörte Vertrauen
in die Geldpolitik der EZB wieder festigen kann. Die mittelfristige Ausrichtung der Geldpolitik wäre sichtbarer als bisher. Bei der mehr oder weniger pragmatischen aktuellen
Geldpolitik der EZB aufgrund der Finanzkrise könnte diese Neuorientierung der geldpolitischen Steuerung wieder mehr Kontinuität verleihen.
1. Zeitdimension
Frage 3: Warum spielt die Frage der zeitlichen Dimension geldpolitischer
Strategien eine wichtige Rolle bei der Glaubwürdigkeit der Geldpolitik?
2. Alternative Orientierungsgrößen
Direkte
Inflationssteuerung
Der bekannteste Vorschlag, die geldmengenfixierte Geldpolitik zu überwinden, ist die
direkte Inflationssteuerung (Inflation Targeting). Darunter wird der Versuch der Zentralbanken verstanden, „in der mittleren Frist ein gegebenes Inflationsziel zu erreichen.
Schließlich besteht das vorrangige Ziel der Geldpolitik in der mittleren Frist darin, eine
gegebene Inflationsrate zu erreichen“ (Blanchard/Illing, S. 785). Allerdings erscheint das
Inflation Targeting aus heutiger Sicht nur bedingt geeignet, da die Preisstabilität zum
einen mittelfristig kaum gefährdet ist und die nicht ausdrücklich genannte Finanzmarktstabilität Priorität hat. Hinzu kommt, dass die derzeitige Überschussliquidität eher die
Stabilität der — nicht bei der Inflationsrate berücksichtigten — Vermögenswerte (z.B. Immobilien) gefährdet.
Orientierung
an Wechselkursen
Neben einem direkten Inflationsziel oder der Orientierung an Wechselkursen, d.h. der
Kopplung der Inlandswährung an eine stabile ausländische Währung — eine Strategie,
die sich eher für kleine Staaten und nicht für die Eurozone eignet —, sind auch andere
Zwischenziele denkbar.
Kreditgewährung
an den privaten Sektor
Eine alternative Orientierungsgröße könnte die Kreditgewährung an den privaten Sektor
bzw. das gesamte Aktivgeschäft sein. Dies wurde bereits 1996 vorgeschlagen (vgl.
Mayer/Fels). Die Grundidee ist, die kurzfristigen Volatilitäten der Geldnachfrage auszublenden und stärker auf die tatsächlichen Vorlaufsindikatoren der Preis- und Finanzmarktstabilität abzustellen. Kreditaggregate entwickeln sich langfristig nahezu parallel
zur gesamtwirtschaftlichen Nachfrage. Mit der Zinsgestaltung und den ergänzenden Instrumenten ist zumindest ein gewisser Einfluss auf diese Größen gegeben — vor allem
nach der Finanzkrise. Ein Problem könnte jedoch der nicht ausreichende Vorlauf dieser
Indikatoren sein. Auch die Kreditaufnahmen des Auslands lassen sich angesichts der
globalen Finanzmärkte nur schwer von den heimischen Zentralbanken kontrollieren.
Orientierung
am nominalen BIP
Deshalb wird von anderer Seite die Orientierung der Geldpolitik an der tatsächlichen
Produktion eines Währungsraums präferiert. Als mögliche Zielgröße wird dabei das nominale Bruttoinlandsprodukt (BIP) diskutiert. Es enthält einen realwirtschaftlichen Teil
(reales BIP) und auch eine Preiskomponente. Die Geldpolitik müsste dann reagieren,
wenn sich das tatsächliche von einem zuvor festgelegten BIP — aus Praktikabilitätsgründen bietet sich hier nicht der absolute Wert, sondern die Wachstumsrate des nomi-
WISU
106
1/13
VOLKSWIRTSCHAFTSLEHRE
nalen BIP an — entfernt. Liegt das Wachstum des tatsächlichen nominalen BIP unter
bzw. über dem Zielwert, müssten — falls Zinsveränderungen als geldpolitisches Instrumentarium erwogen werden — die Leitzinsen gesenkt bzw. erhöht werden. Insgesamt
würde es damit zu einer Lockerung bzw. Straffung der Geldpolitik bei Unterschreitung
bzw. Überschreitung des mittelfristigen, nominal angestrebten Wachstumspfads kommen.
Vor- und Nachteile
Dieser Indikator hat den Vorteil, dass er weithin bekannt und insoweit auch leicht vermittelbar ist. Er steht in enger Verbindung mit anderen gesamtwirtschaftlichen Zielen
und ist eine allgemein akzeptierte Größe. Ein Nachteil könnte die mangelnde Kontrollierbarkeit sein, da das tatsächliche BIP zahlreichen Faktoren unterliegt, die sich nicht
von der Zentralbank beeinflussen lassen (vgl. Illing, S. 119). Vor allem kurzfristige exogene Schocks wie Naturkatastrophen lassen sich nur schwer in eine langfristige geldpolitische Strategie integrieren. Da solche Effekte aber selten auftreten, können sie durch
eine langfristige Zielsetzung aufgefangen werden. Ein weiteres Problem ist, dass die
notwendigen Daten nicht rechtzeitig verfügbar sind, da die volkswirtschaftliche Gesamtrechnungen notwendigerweise ex post und quartalsweise erfolgt (vgl. Görgens et.
al., S. 145). Dieses Problem ist angesichts der auf Prognosen beruhenden Ausrichtung
der geldpolitischen Steuerung jedoch eher nachrangig. Eine Orientierung am nominalen
BIP würde zudem eindeutiger auf die Finanzmarktstabilität ausgerichtet sein, da sich —
insgesamt gesehen — bei dieser Orientierungsgröße die aktuelle Wirtschaftsleistung
leichter in geldpolitische Überlegungen integrieren lässt.
Wiedereinführung
des Goldstandards
Nicht zuletzt wird auch die Wiedereinführung des Goldstandards diskutiert, so wie er
nach Bretton Woods mit der Festlegung auf eine neue Währungsordnung mit dem
Dollar als Leitwährung bestand. Die amerikanische Währung stand in einer festen Relation zum Gold (35 Dollar/Unze), außerdem war ihr Kurs gegenüber allen Währungen der
Mitgliedstaaten des Internationalen Währungsfonds (IWF) fixiert. Wegen der späteren
wirtschaftlichen Probleme der USA — schwindende Wirtschaftskraft, Leistungsbilanzdefizit und hohe Staatsausgaben durch den Vietnam-Krieg — konnte dieses Festkurssystem nicht aufrecht erhalten werden. Die sich dadurch ergebenden Währungsprobleme beruhten im Wesentlichen auf dem Konflikt der Wirtschaftspolitik vieler Nationalstaaten und den internationalen Regeln, die vor allem von den USA vorgegeben worden
waren. Die Schwankungen bei der Liquiditätsversorgung mit der Reservewährung Dollar
führten entweder zu Dollar-Lücken oder -Schwemmen, was die inländische Geldversorgung der anderen Staaten von der Geld- und Wirtschaftspolitik der USA abhängig
machte. Die Interessengegensätze führten 1973 zur De-Facto-Abkehr (formal 1978) vom
System der festen Wechselkurse. Aufgrund der Probleme bei der praktischen Umsetzung eines solchen Währungssystems (z.B. das Verteilungsproblem Goldbesitzer/
Nichtbesitzer) dürfte sich eine geldpolitische Verankerung an der realen Größe Gold
nicht realisieren lassen (vgl. zur Goldwährung Kasten, S. 84 ff.; zur Kritik dazu etwa Pohl,
S. 113 ff.).
Rohstoffpreisindexierte
Strategien
Weitergehende, eher auf spezielle Preisveränderungen zielende Größen können z.B. rohstoffpreisindexierte Strategien sein. Dabei sind allerdings eine Reihe von Problemen zu
beachten, unter anderem die Wahl der Rohstoffgruppen und der adäquaten Rohstoffpreisrepräsentanten, der Währungsbasis und der adäquaten Gewichtung der Rohstoffe
(vgl. zu solchen Einwänden bereits Auer, S. 158 ff.).
Frage 4: Welche Orientierungsgrößen kommen als Alternativen zur
Zwei-Säulen-Strategie der EZB in Betracht?
3. Dimensionalität
Ein- oder mehrdimensionaler Ansatz
Eine weitere Frage bei einer Reform der geldpolitischen Strategie ist, ob mehrere Anknüfungspunkte in Form von Zwischenzielen bestehen sollen oder eindimensionale Orientierungsgrößen vorzuziehen sind. Mehrdimensionale Ansätze wie bei der Zwei-SäulenStrategie der EZB und dem von der US-Notenbank bevorzugten Multi-IndikatorenAnsatz — neben der Inflationsentwicklung geht es hier auch um die Konjunkturentwicklung — können vorteilhaft sein, weil sie viele Daten enthalten, die für die Endziele der
jeweiligen geldpolitischen Strategie von Bedeutung sein können. Allerdings dürfte der
breiten Öffentlichkeit eine Ein-Säulen-Strategie am ehesten zu vermitteln sein. Damit ist
ein Wechsel der „Begründungssäule“ je nach Bedarf nicht möglich, was die Berechenbarkeit der Geldpolitik erhöht, da Mehrdeutigkeiten vermieden werden.
WISU
1/13
107
VOLKSWIRTSCHAFTSLEHRE
IV. Konsequenzen für die Geldpolitik
Die hier skizzierten Anforderungen an eine zukunftsorientierte Geldpolitik — Zeithorizont,
Orientierungsgröße, Dimensionalität — zeigen, dass eindimensionale Mehrjahresziele vorzuziehen sind. Darüber hinaus sollte die Orientierungsgröße, also das anzustrebende Zwischenziel, einen nominalen Anker haben. Dies würde in letzter Konsequenz zu einem Überdenken der derzeitigen offiziellen Strategie der EZB führen. Auch
vor dem Hintergrund, dass sich die Gewichtung des Endziels Preisstabilität in Richtung
Finanzmarktstabilität verschoben hat.
Literatur:
Auer, J.: Theoretische Grundlagen der rohstoffpreisindexbeeinflußten internationalen Kooperation der
Währungspolitik: Ein Beitrag zur Stabilisierung der Wechselkurse. Frankfurt a.M. 1993.
Blanchard, O./Illing, G.: Makroökonomie. 5. Aufl., München 2009.
Douglas, P. et. al.: A Program for Monetary Reform. www.economicstability.org/wp/wp-content/uploads/2010/07/revisedAProgramforMoA7DF1B1.pdf.
EZB: Die Geldpolitik der EZB. Frankfurt a.M. 2004.
Görgens, E./Ruckriegel, K./Seitz, F.: Europäische Geldpolitik. 5. Aufl., Stuttgart 2008.
Häring, N.: EZB räumt Strategieprobleme ein. In: Handelsblatt v. 10.11. 2006.
Illing, G.: Theorie der Geldpolitik. Eine spieltheoretische Einführung. Berlin 1997.
Kasten, H.: Der Funktionswandel des Goldes — ein Beitrag zur internationalen Währungsdiskussion.
Frankfurt a.M. 1970.
Mayer, T./Fels, J.: Why is Money Growth Accelerating? In: Goldman Sachs, German Weekly Analyst
v. 23.2.1996.
Münchau, W.: Zeitenwende in der Geldpolitik. In: Financial Times Deutschland v. 19.9.2012.
Pohl, R.: Geld und Währung. Mannheim 1993.
Die Fragen werden im WISU-Repetitorium beantwortet.
Verhaltensökonomik
Alterssicherung
und Verhaltensökonomik
Prof. Dr. Werner Sesselmeier, Landau / Marlene Haupt, MA, München
Die private Altersvorsorge gehört spätestens seit der Riester-Reform zur individuellen Lebensplanung. Unterbleibt sie, lässt sich der Lebensstandard während des
Erwerbslebens im Alter nicht mehr aufrechterhalten. Bei der politischen Gestaltung der privaten Altersvorsorge sollte jedoch die Verhaltensökonomik berücksichtigt werden, da sie andernfalls von einem Großteil der Bevölkerung ignoriert
wird.
I. Einleitung
Riester-Reform 2001
Im Jahr 2001 wurde das deutsche Alterssicherungssystem grundlegend durch die nach
dem damaligen Bundesminister für Arbeit und Sozialordnung benannte Riester-Reform
umgestaltet. Die Reform war eine Reaktion auf die veränderten ökonomischen und demografischen Rahmenbedingungen.
Drei-Säulen-Modell
Deutschland verfolgte dabei — ebenso wie viele andere Industrienationen — das Ziel, das
insbesondere von der Weltbank erörterte Drei-Säulen-Modell der Alterssicherung zu etablieren (vgl. Weltbank). Es war die Abkehr vom leistungsbezogenen System der Lebensstandard- und Statussicherung, das nur auf der Säule der gesetzlichen Rentenversicherung beruht, und die Hinwendung zu einem Vorsorgemix aus gesetzlicher, betrieblicher und privater Altersvorsorge. Dies bedingte auch die Teilprivatisierung dieses Bereiches der sozialen Sicherung, verlagerte die systemischen Risiken und die Chancen auf
höhere Renditen von der Solidargemeinschaft auf den Einzelnen und sollte gleichzeitig
künftige Generationen entlasten (vgl. Sesselmeier/Haupt/Somaggio/Yollu-Tok).
WISU
108
1/13
VOLKSWIRTSCHAFTSLEHRE
Individuelle Entscheidungen
erforderlich
Damit veränderten sich auch die Rahmenbedingungen der Altersvorsorge. So lässt sich
der Lebensstandard im Alter jetzt nicht mehr allein durch Pflichtbeiträge zur gesetzlichen
Rentenversicherung sichern. Nicht nur, dass durch die freiwillige Zusatzvorsorge heute
mehr Eigenverantwortung gefragt ist, aufgrund der vielen Anbieter und Anlagemöglichkeiten bei der betrieblichen und privaten Altersvorsorge haben sich auch die Entscheidungsmöglichkeiten drastisch erhöht. Und anders als in anderen Ländern wie etwa
Schweden, die ebenfalls die private Zusatzvorsorge einführten, muss der Versicherte
nicht zwangsweise in einen öffentlich-rechtlichen Standardfonds investieren, falls er
keine Anlageentscheidung trifft (vgl. Haupt/Kluth; Haupt/Sesselmeier).
Hier wird analysiert, ob und in welchem Umfang die Versicherten der Bedeutung der privaten Vorsorge tatsächlich gerecht werden und ihr Rechnung tragen.
Frage 1: Wie und warum wurde die deutsche Alterssicherung geändert?
II. Wie sich die Menschen verhalten sollten
Lebenszyklushypothese
von Modigliani/Brumberg
Die ökonomische Begründung des Soll-Verhaltens beim Altersvorsorgesparen liefert die
Lebenszyklushypothese von Modigliani und Brumberg, die sich mit der optimalen Konsumplanung der Individuen über die gesamte Lebenszeit hinweg befasst (vgl. Modigliani/
Brumberg).
Homo oeconomicus
Ihr liegt das Modell des Homo oeconomicus zugrunde, wonach rationale Individuen
vorausschauend planen und sparen, um über den gesamten Lebenszyklus ein konstantes Konsumniveau zu erreichen. Das wichtigste Sparmotiv ist damit der Ausgleich
von zwischenzeitlichen Einkommensschwankungen. Die ökonomisch relevanten Lebensabschnitte sind die Erwerbs- und die Ruhestandsphase und das damit verbundene
Sparen und Entsparen. Um den optimalen Konsumpfad zu ermitteln, berechnet das Individuum zunächst bei Annahme eines abnehmenden Grenznutzens sein zu erwartendes
Lebenseinkommen, verteilt es dann gleichmäßig über den gesamten Lebenszyklus und
begibt sich anschließend auf den so ermittelten Konsumpfad.
Homo oeconomicus
und Riester-Rente
Dieses Leitbild des souveränen Konsumenten, der autonom und rational entscheidet, wie und in welchem Maße er für sein Alter vorsorgt und zudem die Konsequenzen
seines Verhaltens eigenverantwortlich trägt, bedeutet im Fall der Riester-Rente: Während das alte System einen optimalen Konsumpfad gewährleistete, wird der Senkung
des Rentenniveaus in der gesetzlichen Rentenversicherung nun durch betriebliche
oder private Altersvorsorgeverträge in gleicher Höhe begegnet, um sich den gleichen Lebensstandard wie vor der Reform zu sichern.
III. Wie sich die Menschen tatsächlich verhalten
Das Standardmodell
und die Realität
Lässt sich das tatsächliche Verhalten der Individuen bei der privaten Altersvorsorge mit
dem ökonomische Standardmodell erklären? Verhalten sich die Versicherten nach diesem Modell, d.h. schließen sie eigenverantwortlich adäquate Vorsorgeverträge ab, oder
weicht ihr Ist-Verhalten davon ab?
Von der Einführung der Riester-Rente 2001 bis Ende Oktober 2012 stieg die Zahl der privaten Altersvorsorgeverträge auf knapp 15,6 Mio. Zudem erhöhten sich sowohl das Volumen der direkten Zulagen als auch die zusätzliche steuerliche Förderung, die als Indikatoren für die Akzeptanz und Verbreitung der Riester-Rente gelten. Für die Messung
der tatsächlichen Effektivität und Akzeptanz der Riester-Rente muss der absoluten Zahl
der Vertragsabschlüsse die Gesamtheit der förderberechtigten Personen gegenübergestellt werden. Die Quantifizierung dieses Kreises ist jedoch schwierig, da neben den
primär geförderten Personengruppen (z.B. Pflichtmitglieder in der gesetzlichen Rentenversicherung, Beamte, Richter und Soldaten) auch den Ehepartnern der Riester-Sparer
mittelbar ein Anspruch auf Förderung zusteht. Die Schätzungen liegen zwischen 30 und
fast 43 Mio. förderberechtigten Personen.
Verbreitungsgrad
der Riester-Rente
unter 40 Prozent
Damit liegt der Verbreitungsgrad der Riester-Rente momentan bei ca. 40 Prozent. Da förderberechtigte Personen jedoch nicht nur einen Vertrag abschließen können und bei einem
Teil der offiziell gezählten Verträge keine Sparleistungen erfolgen, werden die RiesterVerträge in noch geringerem Maße genutzt. Etwa zwei Drittel der Adressaten nutzen diese
Zusatzvorsorge also nicht oder nicht mehr, obwohl sie durch direkte staatliche Zulagen
und steuerliche Vorteile gefördert wird. Das Ziel der Reform, dass diese private Altersvorsorge von möglichst vielen wahrgenommen wird, wurde also bisher nicht erreicht.
WISU
1/13
109
VOLKSWIRTSCHAFTSLEHRE
Riester-Rente wird
auch von Geringverdienern
zu wenig genutzt
Wie Coppola/Reil-Held (vgl. Coppola/Reil-Held) und Geyer/Steiner (vgl. Geyer/Steiner)
belegen, wird auch das Ziel, Geringverdiener beim Aufbau einer privaten Altersvorsorge
zu unterstützen, nur sehr eingeschränkt erreicht. Als Grund wird unter anderem genannt,
dass einkommensschwache Haushalte weniger finanzielle Mittel zum Sparen und damit
auch für die Riester-Rente aufbringen können. Frauen nehmen die Riester-Rente häufiger in Anspruch als Männer und Ostdeutsche eher als Westdeutsche. Am meisten wird
sie von 18 bis 34-Jährigen genutzt. Auch bei Haushalten mit zwei oder mehr Kindern ist
die Nachfrage besonders groß — die finanziellen Anreize der ergänzenden Kinderzulagen wirken sich hier positiv aus (vgl. Börsch-Supan/Coppola/Reil-Held).
Weitere Faktoren
Die Nachfrage nach Riester-Renten nahm zu, als der Gesetzgeber für Vereinfachungen
sorgte. Zudem hängt die Inanspruchnahme dieser privaten Altersvorsorge auch davon
ab, wie die komplexen Finanzprodukte präsentiert werden und über welchen Informationsstand die Interessenten verfügen. Außerdem wurde ein Zusammenhang zwischen
Bildungsstand und privater Altersvorsorge festgestellt.
Standardmodell liefert
keine vollständige
Erklärung
Die bisherige Forschung hat also gezeigt, dass das ökonomische Standardmodell — die
Lebenszyklushypothese — das tatsächliche Sparverhalten weder vollständig erklären
noch vorhersagen kann. Das führt zu zwei Fragen:
— Weshalb weichen das tatsächliche Verhalten und das modelltheoretische Soll-Verhalten bei der privaten Altersvorsorge so stark voneinander ab?
— Warum nutzen nicht alle Berechtigten die staatliche Förderung?
Frage 2: Welche Unterschiede lassen sich bei der Inanspruchnahme
der Riester-Rente erkennen?
IV. Analyse des realen Verhaltens bei der Altersvorsorge
Kritik am Grundmodell
Würde das tatsächliche Verhalten bei der Altersvorsorge dem Homo-oeconomicusModell entsprechen, wäre es durch die Riester-Reform zum gewünschten Verhalten gekommen. Die Lebenszyklushypothese trifft jedoch weder auf der aggregierten noch auf
der individuellen Ebene zu, womit sie sich nur begrenzt als Erklärungsmodell geeignet.
Kritisiert werden vor allem das Rationalitätsprinzip und die Stabilität der Präferenzen
im Lebenszyklus (vgl. Thaler; Kirchgässner).
Modifizierungen
Das Grundmodell des Homo oeconomicus muss also modifiziert werden. Zum einen
muss es mehr der Realität angenähert werden, zum anderen bedarf es eines umfassenderen Erklärungsansatzes für das Sparverhalten.
Behaviouristische
Lebenszyklushypothese
Beachtung findet vor allem die behaviouristische Lebenszyklushypothese von Shefrin/
Thaler (vgl. Shefrin/Thaler), die das Modell von Modigliani/Brumberg systematisch um
verhaltensökonomische Anomalien ergänzt. Darunter sind jedoch keine abnormen
oder fehlerhaften Verhaltensweisen, sondern psychologische „Normalfälle“ gegenüber
dem einfachen Homo-oeconomicus-Modell zu verstehen.
Institutionenökonomik
Neben der Verhaltensökonomie ist auch die Institutionenanalyse, insbesondere die Theorie der Pfadabhängigkeit und die Analyse graduellen institutionellen Wandels, relevant. Allerdings wird dieser ganzheitliche Erklärungsansatz bei der Analyse des Altersvorsorgesparens nicht immer ausreichend berücksichtigt (vgl. vertiefend zur Institutionenökonomie Erlei/Leschke/Sauerland und Mahoney/Thelen).
Transaktionskostentheorie
Vor allem die Kritik am Rationalitätsprinzip verdeutlicht, dass der Mensch — anders als
beim Homo oeconomicus angenommen — keine friktionslose, transaktionskostenfreie
Informationsverarbeitungsmaschine und damit auch nicht in der Lage ist, in jeder Situation nutzenmaximierend zu handeln. Simon (vgl. Simon) nennt diese Eigenschaft „begrenzte Rationalität“ (Bounded Rationality). Die Begründung liefert die Transaktionskostentheorie, wonach die Beschaffung von Informationen ebenso wie deren Verarbeitung
wegen der kognitiven Beschränkungen Kosten verursacht.
Satisfizierer
statt Optimierer
Der Mensch ist demnach eher ein „Satisfizierer“ als ein Optimierer. Mit anderen Worten:
Er entscheidet je nach Situation anhand einer Kosten-Nutzen-Analyse, ob weitere Mittel zur Informationsgewinnung aufgewendet werden sollen oder ob bereits ein ausreichend hoher Wissensstand erreicht ist. Ist dies der Fall, wird die weitere Informationssuche abgebrochen. Damit können hohe Transaktionskosten dazu führen, dass die
Handlungsalternativen nicht vollkommen bewertet werden, was nicht zu einem optimalen Ergebnis führt.
WISU
110
1/13
VOLKSWIRTSCHAFTSLEHRE
Dennoch ein
rationales Kalkül
Da bei der Wahl der Handlungsalternative in der Regel Heuristiken (Faustregeln) herangezogen werden, die sich für den Betreffenden bewährt haben, erfolgt sie trotz der begrenzten Informationen aufgrund eines rationalen Kalküls.
Anwendung auf
die Riester-Rente
Für die durch die Reform notwendig gewordene private Zusatzvorsorge bedeutet dies,
dass sich die Transaktionskosten aufgrund der damit verbundenen Informationsbeschaffung und -verarbeitung stark erhöht haben. Als Satisfizierer suchen sich die Berechtigten deshalb ein Riester-Produkt mithilfe von Faustregeln (z.B. „Investiere in das,
was du bereits kennst“) aus. Problematisch ist auch, dass es sich beim Ruhestand um
ein einmaliges Ereignis handelt. Wie man sich eine angemessene finanzielle Vorsorge
beschafft, kann also nicht durch einen wiederholten Prozess „gelernt“ werden.
Über 5.000
Altersvorsorgeprodukte
Derzeit kann zwischen über 5.000 zertifizierten Altersvorsorgeprodukten gewählt werden. Die Analyse der individuellen Vermögenssituation und die Wahl des richtigen Produkts wird dadurch erheblich erschwert. Da sich viele dabei auch überfordert fühlen,
wird die Informationssuche oft vorzeitig abgebrochen und im ungünstigsten Fall überhaupt kein Produkt gewählt, d.h. es kommt zu keiner zusätzlichen Altersvorsorge.
Weitere Probleme
Daneben treten noch zahlreiche weitere Probleme, d.h. Verletzungen des Rationalitätsprinzips, auf (insgesamt wurden bis heute generell über hundert solcher Anomalien ermittelt, vgl. Enste/Hüther):
— Verlustaversion: Menschen messen Gewinnen und Verlusten in gleicher Höhe unterschiedlichen Wert bei. Die Bewertung erfolgt nicht absolut, sondern relativ zu einem
Referenzpunkt, wobei Verlusten ein deutlich höherer Wert beigemessen wird als Gewinnen in gleicher Höhe. Das kann dazu führen, dass eine Altersvorsorge aus Angst
vor finanziellen Verlusten unterbleibt.
— Status-quo-Verzerrung: Sie folgt aus der Verlustaversion. So gibt es eine starke
Tendenz, den Status-quo aufrecht zu erhalten, da die Nachteile, die sich andernfalls
ergeben, bedrohlicher erscheinen als seine Vorteile. Einmal getroffene Entscheidungen wie die Wahl eines bestimmten Vertrags werden entweder nicht mehr in Frage
gestellt, oder es kommt erst gar nicht zu einem Vertragsabschluss, da es unbedenklicher erscheint, sich nicht auf eine Zusatzvorsorge einzulassen.
— Besitzeffekt und versunkene Kosten: Auch dies beruht auf der Verlustaversion.
So zögern viele, etwas aus ihrem Besitz zu verkaufen. Die Ursachen sind gefühlsmäßige Verbindungen zu dem betreffenden Gegenstand oder aber bereits angefallene
Kosten. Häufig wird daher bei der Altersvorsorge Verlustgeschäften noch zusätzliches Geld „hinterhergeworfen“.
— Verankerung: Menschen nutzen bei unsicheren Entscheidungen als Hilfestellung bestimmte Informationen als „Anker“, die sich zufällig ergeben oder von anderen Personen stammen. Diese Informationen sind dann bei der Einschätzung einer Situation
oder der Entscheidungsfindung ausschlaggebend. Weiterhin wirken sich ursprüngliche Informationen stärker aus als neuere, auch wenn diese möglicherweise besser
sind. Damit wird stets das erste Altersvorsorgeprodukt, mit dem sich der Betroffene
beschäftigt hat, als Referenz herangezogen, selbst wenn es ungeeignet ist.
— Präsentation der Information: Die Art, wie die Information präsentiert wird, d.h.
positiv oder negativ, beeinflusst die Entscheidung. Relevant ist auch die Reihenfolge,
d.h. wann eine Information erhalten oder abgegeben wird.
— Finanz- und Altersaversion: Je aufwändiger die Beschaffung, Verarbeitung und
Auswertung von Informationen bei finanziellen Entscheidungen ist, desto mehr fühlen
sich die Betreffenden überfordert. Dabei spielen auch finanzielle Kenntnisse und die
Erfahrung mit Finanzprodukten eine Rolle. Außerdem wird das Alter oft mit geringerer
Produktivität, mit Einsamkeit und Krankheit assoziiert. Je größer die Abneigung gegenüber finanziellen Dingen und je mehr sich jemand mit dem typischen Altersbild
identifiziert („Dafür bin ich zu alt“), desto unwahrscheinlicher ist es, dass er sich mit
der Altersvorsorge befasst.
Auch bei der Nutzenmaximierung finden sich im Zusammenhang mit der Altersvorsorge
einige Besonderheiten:
— Kurzsichtiges Verhalten und gegenwärtige Bedürfnisse: Menschen tendieren dazu,
die weit in der Zukunft liegenden Folgen ihres derzeitigen Verhaltens nicht ausreichend zu berücksichtigen. So wird gegenwärtigen Bedürfnissen mehr Aufmerksamkeit geschenkt als künftigen. Da der Anlagehorizont bei der Altersvorsorge besonders
weit ist, dominieren hier die gegenwärtigen Bedürfnisse ganz besonders. Der gegenwärtige Konsum hat Vorrang gegenüber dem im Rentenalter.
WISU
1/13
111
VOLKSWIRTSCHAFTSLEHRE
— Mangelnde Selbstkontrolle: Menschen bestehen aus einem „Planer“ und einem
„Macher“, wobei der Macher eher kurzfristig denkt und auf gegenwärtigen Konsum
aus ist, während der Planer an einer Nutzenmaximierung über den Lebenszyklus hinweg interessiert ist. Den alltäglichen Verlockungen, denen der Macher unterliegt,
kann der Planer durch Willensstärke begegnen und sich zudem Regeln unterwerfen,
die den Konsum des Machers einschränken, etwa indem er einem verbindlichen
Sparplan zur Altersvorsorge folgt.
Frage 3: Wie wirken sich die Abweichungen von der Rationalität aus?
V. Gestaltung von privater Altersvorsorge und ihre praktische Umsetzung
Regulierungen
erforderlich
Wird die Konsumentensouveränität bei der Altersvorsorge durch die genannten Abweichungen vom rationalen Verhalten im Sinne des Homo oeconomicus verletzt, bedarf es
entsprechender Regulierungen, die gewährleisten, dass dennoch eine finanzielle Absicherung im Alter erfolgt.
Opt-outund Opt-in-Modelle
Unter dem von Thaler/Sunstein (vgl. Thaler/Sunstein) geprägten Begriff Nudges — damit
sind Verhaltensanstöße gemeint, die jedoch nicht in Anordnungen oder Verbote gekleidet sind — finden sich verschiedene Möglichkeiten, wie sich die private Altersvorsorge
gestalten lässt. Je nach Art der Nudges wird die Konsumentensouveränität mehr oder
weniger eingeschränkt. Der stärkste Eingriff ist ein Standardsystem (Default) mit einer
Opt-out-Möglichkeit. Danach kommt es dann automatisch zur Altersvorsorge, wenn
ihr nicht ausdrücklich widersprochen wird. Bedingt durch verschiedene Verhaltensanomalien (z.B. Trägheit und Status-quo-Verzerrung) beteiligen sich so tatsächlich mehr
Personen an einem Vorsorgesystem als bei einem Opt-in-Modell wie der Riester-Rente,
bei der ausdrücklich ein Vertrag abgeschlossen werden muss (vgl. Choi et al.; Haupt/
Sesselmeier).
Abbau von
Informationsasymmetrien
Weiterhin können die Informationsasymmetrien auf dem Vorsorgemarkt abgebaut werden, indem die Eigenschaften und Kosten der einzelnen Produkte transparenter gemacht werden. In Deutschland wird von der gesetzlichen Rentenversicherung seit 2004
jährlich eine individuelle „Renteninformation“ verschickt und zusätzlich der Auskunftsund Beratungsservice für die Versicherten verbessert. Ab 2013 soll es bei der RiesterRente zudem individualisierte und Muster-Produktinformationsblätter geben, die als Entscheidungsgrundlage dienen und bei der späteren Überprüfung der Performance eines
Produktes und seiner Kosten helfen (vgl. Börsch-Supan et al.). So ist vielen Haushalten
die Riester-Förderberechtigung bislang noch gar nicht bekannt (vgl. Coppola/Gasche).
Allein die Aufklärung darüber könnte bereits die Nachfrage nach einer privaten Zusatzvorsorge erhöhen.
Kritik
Das Nudges-Konzept wird auch als libertärer bzw. liberaler Paternalismus bezeichnet
und zum Teil kritisiert (vgl. Schnellenbach).
Frage 4: Wie unterscheiden sich Opt-out- und Opt-in-Modelle bei
der Altersvorsorge?
Literatur:
Börsch-Supan, A. H./Coppola, M./Reil-Held, A.: Riester Pensions in Germany: Design, Dynamics, Targeting Success and Crowding-In. NBER Working Paper Series Working Paper 18014, 2012.
Börsch-Supan, A./Gasche, M./Haupt, M./Kluth, S./Rausch, J.: Ökonomische Analyse des Rentenreformpakets der Bundesregierung. MEA Discussion Paper No. 256-2012, 2012, Munich Center for the Economics of Aging.
Choi, J. J./Laibson, D./Madrian, B. C./Metrick, A.: Saving For Retirement on the Path of Least Resistance. In: McCaffrey, E.J./Slemrod, Joel (Hrsg.): Behavioral Public Finance: Toward a New
Agenda. Russell Sage Foundation 2006, S. 304 - 351.
Coppola, M./Gasche, M.: Riester-Förderung — Mangelnde Information als Verbreitungshemmnis. In:
Wirtschaftsdienst, 91(11) (2011), S. 792 - 799.
Coppola, M./Reil-Held, A.: Dynamik der Riester-Rente: Ergebnisse aus SAVE 2003 bis 2008. MEA Discussion Paper No. 195/2009, Mannheim Research Institute for the Economics of Aging.
Enste, D. H./Hüther, M.: Verhaltensökonomik und Ordnungspolitik. Zur Psychologie der Freiheit. IWPositionen Nr. 50 (2011). Köln 2011.
Erlei, M./Leschke, M./Sauerland, D.: Neue Institutionenökonomik. Stuttgart 2007.
Geyer, J./Steiner, V.: Zahl der Riester-Renten steigt sprunghaft — aber Geringverdiener halten sich
noch zurück. In: Wochenbericht des DIW, 76(32) (2009), S. 534 - 541.
WISU
112
1/13
VOLKSWIRTSCHAFTSLEHRE
Haupt, M./Kluth, S.: Das schwedische Beispiel der kapitalgedeckten Altersvorsorge — Ein Vorbild für
Deutschland? In: Vierteljahrshefte zur Wirtschaftsforschung, 81(2) (2012), S. 213 - 230.
Haupt, M./Sesselmeier, W.: Altersvorsorgeinformationen in Schweden — ein Vorbild für Deutschland?
In: Deutsche Rentenversicherung, 67(2) (2012), S. 82 - 96.
Kirchgässner, G.: Homo Oeconomicus. Das ökonomische Modell individuellen Verhaltens und seine
Anwendung in den Wirtschafts- und Sozialwissenschaften. Tübingen 2008.
Mahoney, J./Thelen, K.: A Theory of Gradual Institutional Change. In: Mahoney, J./Thelen, K. (Hrsg.):
Explaining Institutional Change: Ambiguity, Agency, and Power. Cambridge 2010, S. 1 - 37.
Modigliani, F./Brumberg, R.: Utility Analysis and the Consumption Function: An Interpretation of
Cross-Section Data. In: Kurihara, K.K. (Hrsg.): Post Keynesian Economics. Newark 1954,
S. 388 - 436.
Schnellenbach, J.: Wohlwollendes Anschubsen — Was ist mit liberalem Paternalismus zu erreichen
und was sind seine Nebenwirkungen? In: Perspektiven der Wirtschaftspolitik, 12(4) (2011),
S. 445 - 459.
Sesselmeier, W./Haupt, M./Somaggio, G./Yollu-Tok, A.: Auswirkungen der Finanz- und Wirtschaftskrise auf die Soziale Sicherung. In: Sozialer Fortschritt, 58(8) (2009), S. 183 - 188.
Shefrin, H.M./Thaler, R. H.: The Behavioral Life-Cycle Hypothesis. In: Economic Inquiry, 26(4) (1988),
S. 609 - 643.
Simon, H.A.: A Behavioral Model of Rational Choice. In: Quarterly Journal of Economics, 69(1) (1955),
S. 99 - 118.
Thaler, R.H.: From Homo Economicus to Homo Sapiens. In: Journal of Economic Perspectives, 14(1)
(2000), S. 133 - 141.
Thaler, R. H./Sunstein, C. R.: Nudge. Improving Decisions About Health, Wealth, and Happiness. Princeton 2008.
Weltbank (Hrsg.): Averting the Old Age Crisis. Policies to Protect the Old and Promote Growth. Oxford
1994.
Die Fragen werden im WISU-Repetitorium beantwortet.
Die Klausur
Diese Aufgaben zur Klausur „Grundlagen der Makroökonomik“ wurden im Rahmen
des Bachelor-Studiengangs Global Business Management (GBM) an der Universität Augsburg im Anschluss an das Sommersemester 2012 von Prof. Dr. Udo Broll
gestellt. Bearbeitungszeit: 90 Minuten.
Aufgabe 1: Allgemeine Fragen (25 Punkte):
a) Womit beschäftigt sich die Makroökonomik?
b) Welche Eigenschaften sollte die Institution Währungsordnung einer Volkswirtschaft
besitzen? Worin liegt das Problem?
c) Nennen Sie die historischen Phasen der Globalisierung der Finanzmärkte.
d) Was sind Derivate und wozu dienen sie?
e) In einer Ökonomie gibt es drei Unternehmen (Stahlunternehmen, Autohersteller, Lebensmittelhersteller). Die Daten (in Euro) für das Stahlunternehmen lauten: Erlöse
400, Löhne und Gehälter 340, Gewinne 60. Für den Autohersteller lauten sie: Erlöse
1.000, Löhne und Gehälter 500, Ausgaben für Stahl 400, Gewinne 100, und für den
Lebensmittelhersteller: Erlöse 200, Löhne und Gehälter 160, Gewinne 40.
(i) Wie groß ist die Wertschöpfung auf jeder Produktionsstufe?
(ii) Wie groß ist das BIP? Wie groß sind die Einkommensanteile am BIP für Arbeitnehmer und Kapitalbesitzer?
Aufgabe 2: Güter- und Geldmärkte (20 Punkte)
a) Eine empirisch geschätzte Konsumfunktion ist C = 400 + 0,85(Y – T). Y bezeichnet das
BIP und T die Steuern. Erklären Sie diese Funktion. Wie lautet die zugehörige gesamtwirtschaftliche Sparfunktion?
b) Die lineare Konsumfunktion für eine Ökonomie lautet: C = c0 + c1(Y – T). Die empirischen Werte für verfügbares Einkommen und Konsum in den Jahren 2010 und 2011
sind (in Mrd. Euro):
WISU
1/13
113
VOLKSWIRTSCHAFTSLEHRE
Jahr
2010
2011
Einkommen Konsumausgaben
1.713,44
1.220,95
1.869,60
1.320,71
Ermitteln Sie (etwa mithilfe der Cramer-Regel) die Werte für c0 und c1.
c) Eine Staatsanleihe (einjährig) wird zum heutigen Kurs von 90 Euro am Kapitalmarkt
gehandelt. Der Nennwert ist 100 Euro, der Nominalzins fünf Prozent. Wie groß ist der
Effektivzins der Anleihe?
d) Welche Information enthält der Geldschöpfungsmultiplikator und wodurch wird seine
Größe bestimmt?
Aufgabe 3: Güter-, Geld- und Finanzmärkte, AD (20 Punkte)
a) Was besagt das IS-LM-Modell der Makroökonomik?
b) Marktzins und nominales Einkommen beeinflussen die Liquiditätsnachfrage der Marktteilnehmer. Die Einkommenselastizität der Liquiditätsnachfrage ist ¾, die Zinselastizität ist –¼. Wie groß ist die gesamte Veränderung der Liquiditätsnachfrage, wenn das
nominale Einkommen um zehn Prozent zunimmt und der nominale Zins von vier auf
fünf Prozent steigt?
d
c) Für eine Volkswirtschaft wurden die Geldnachfragefunktion M /P = 1,5Y – 100i, die
Konsumfunktion C(Y) = 0,8Y und die Investitionsfunktion I = 4 – 40i empirisch ermittelt. Die reale Geldmenge ist M/P = 6.
(i) Ermitteln Sie das Realeinkommen und den Realzins im mittelfristigen makroökonomischen Gleichgewicht. (ii) Leiten Sie für die gesamtwirtschaftliche Güternachfrage
die AD-Gleichung unter der Annahme her, dass die nominale Geldmenge M = 24 ist.
Welchen Wert nimmt das allgemeine Preisniveau an?
Aufgabe 4: Aggregierte Nachfrage, aggregiertes Angebot (25 Punkte)
a) Welche makroökonomischen Informationen enthalten AD- und AS-Gleichung?
b) Wie entsteht die aggregierte Angebotsfunktion (AS)? Leiten Sie die AS-Gleichung
analytisch her und erklären Sie, wie es zu einem positiven Zusammenhang zwischen
Einkommen und Preisniveau kommt.
c) In der Bestimmung der mittelfristig gültigen Arbeitslosenquote einer Volkswirtschaft
kommen generell zwei unterschiedliche Aspekte der Ökonomie zum Ausdruck. Erklären Sie dies.
d) Die Globalisierung verstärkt den unternehmerischen Wettbewerb. Der Aufschlag auf
die Lohnstückkosten sinkt. Welche makroökonomischen Konsequenzen ergeben sich
für Reallohn und Beschäftigung?
e
e) Die AS-Kurve ist mit P = ½P + 0,0008Y gegeben.
Die IS-Kurve lautet: Y = 2.000 – 5.000i.
Die LM-Kurve lautet: i = (Y – M/P)/5.000.
Das reale Geldangebot ist mit M/P = 500 gegeben.
Welches reale Einkommen Y und welcher reale Zins i stellen sich im mittelfristigen
makroökonomischen Gleichgewicht ein? Welches allgemeine Preisniveau P ist damit
verbunden?
f) Die Unternehmen schlagen drei Prozent auf die Lohnstückkosten auf. Mittelfristig folgt
e
die Lohnbildung der Preiserwartung P = P und der Arbeitsmarktfunktion F(u; z) =
(1 + z) – u, wobei z den Wert von 0,03 annimmt. Wie groß ist die Arbeitslosenquote im
mittelfristigen Gleichgewicht?
I. Daran hätten Sie denken müssen
Aufgabe 1:
a) Die Makroökonomie beschäftigt sich primär mit der Wirtschaftsleistung der gesamten Volkswirtschaft (Produktion, Einkommen), mit der Arbeitslosenquote, d.h. dem
Teil der Arbeitnehmer, die auf der Suche nach einer Beschäftigung sind, mit der Inflationsrate, d.h. mit der Rate mit der sich das durchschnittliche Preisniveau in der
Volkswirtschaft verändert. Weiterhin mit der Geld- und Fiskalpolitik und mit Institutionen. Es muss zwischen positiver und normativer Analyse unterschieden werden.
b) Die drei Elemente einer optimalen Währungsordnung sind der feste Wechselkurs, die
autonome Geldpolitik und freie internationale Kapitalbewegungen. Die Theorie und
die Wirtschaftsgeschichte zeigen jedoch, dass sich diese drei wünschenswerten Elemente nicht gleichzeitig verwirklichen lassen.
WISU
114
1/13
VOLKSWIRTSCHAFTSLEHRE
c) In den siebziger Jahren erfolgte der Übergang von festen zu flexiblen Wechselkursen
(um die importierte Inflation zu verhindern). In den achtziger Jahren kam es zur Internationalisierung der Anleihenmärkte (Finanzierung der Staatsverschuldung), in den
neunziger Jahren folgte die Internationalisierung der Aktienmärkte (der ShareholderValue-Gedanke setzte sich durch, außerdem stand die Black/Scholes-Formel zur Bewertung von riskanten Ansprüchen zur Verfügung).
d) Die neunziger Jahre werden oft als das Jahrzehnt der Derivate bezeichnet. Derivative
Finanzmarktinstrumente können Lösungen für finanzwirtschaftliche Probleme bieten,
die sich aus den Schwankungen an den Devisen-, Aktien-, Zins- und Warenmärkten
ergeben. Derivate sind aus einem anderen Finanzprodukt (Basiswert) abgeleitete
Finanzmarktinstrumente, die sich zur Absicherung bestehender Positionen, zur Arbitrage oder für Spekulationszwecke einsetzen lassen. Der Preis bzw. der Wert des
Derivats wird vom Preis bzw. Wert des zugrunde liegenden Finanzprodukts beeinflusst.
e) Bruttoproduktionswert – Vorleistungen = Bruttowertschöpfung, also 400 + 600 + 200 =
1.200. BIP = 1.200; Einkommensanteil für Arbeitnehmer 0,83, Einkommensanteil für
Kapitaleigner 0,17.
Aufgabe 2:
a) Die keynesianische Konsumfunktion beschreibt eine lineare Beziehung zwischen realem Konsum und verfügbaren Realeinkommen. Der autonome Konsum ist 400, die
marginale Konsumneigung 0,75, d.h. sie gibt an, wie stark der Konsum aufgrund einer
Einkommenserhöhung zunimmt. Die Sparfunktion ist S = –400 + 0,25(Y – T).
b) Zwei lineare Gleichungen in den Unbekannten autonomer Konsum c0 = 126,35 und
(marginale Konsumneigung) c1 = 0,64. Lösungsweg einsetzen oder Cramer-Regel
anwenden.
c) Der Effektivzins ist 16,67 Prozent, denn es gilt [100(1 + 0,05) – 90]/90 = 0,1666. Zins
und Kurs verhalten sich invers.
d) Die makroökonomische Beziehung zwischen Geldangebot und der Zentralbankgeldmenge wird durch den Geldschöpfungsmultiplikator beschrieben. Aufgrund der Sichteinlagen bei Geschäftsbanken erhöht sich das Geldangebot einer Volkswirtschaft infoge einer Erhöhung der Zentralgeldmenge um ein Vielfaches, nämlich um den Geldschöpfungsmultiplikator. Bargeldhaltung des Publikums und Mindestreservesatz erklären die Größe des Geldschöpfungsmultiplikators.
Aufgabe 3:
a) Das IS-LM-Modell analysiert die makroökonomischen Implikationen eines simultanen
Gleichgewichts auf Güter-, Geld- und Finanzmärkten. Die endogenen Variablen sind
reales Einkommen und realer Zins.
b) Relative Änderung der Liquiditätsnachfrage:
0,75 · 0,10 + (–0,25 · 0,25) = 0,075 – 0,0625 = 0,0125.
c) (i) Mit M/P = 6 lautet die LM-Gleichung i = 0,015Y – 0,06 und die IS-Gleichung
i = 0,10 – 0,005Y. Wird IS gleich LM gesetzt, ergeben sich die Werte für die endogenen Variablen Einkommen Y = 8 und Zins i = 0,06. (ii) Mit der Gleichgewichtsbedingung für den Geldmarkt (1,5Y – 100i = 24/P) ergibt sich die aggregierte Nachfragefunktion Y = 5 + 12/P. Das Preisniveau im mittelfristigen Gleichgewicht ist vier.
Aufgabe 4:
a) Die AD-Gleichung fasst die Informationen über das simultane makroökonomische
Gleichgewicht auf Güter- und Finanzmärkten zusammen. Mit steigendem Preisniveau geht die Produktion zurück. Die AS-Gleichung bildet das Arbeitsmarktgleichgewicht (Preis- und Lohnbildung) und die Technologie ab. Die (nominale) Lohnbile
dung hängt positiv vom erwarteten Preisniveau P , negativ von der Arbeitslosenquote
u und positiv von institutionellen Faktoren z des Arbeitsmarktes ab. Die AS-Gleichung
e
lautet daher: P = P (1 + m)F(u, z). Stimmen erwartetes Preisniveau und tatsächliches
Preisniveau überein, stellt sich die natürliche Arbeitslosenquote un (und das natürliche Produktionsniveau Yn) ein. Das aktuelle Preisniveau steigt mit zunehmender Produktion, denn F(u, z) = F(1 – Y/L, z).
b) Die unternehmerische Preisbildung P = (1 + m)W zusammen mit der gesamtwirtschafte
e
lichen Lohnbildung W = P F(u, z) ergibt die Angebotsfunktion: P = (1 + m)P F(u, z).
Mit der Technologie Y = N und der Arbeitslosenquote u = Arbeitslose/Erwerbspersonen = 1 – Y/N ergibt sich ein positiver Zusammenhang zwischen Einkommen und
Preisniveau.
WISU
1/13
115
VOLKSWIRTSCHAFTSLEHRE
c) Konjunkturelle Aspekte (Preiserwartungen stimmen mit dem tatsächlichen Preisniveau nicht überein) und strukturelle Aspekte (Variable z enthält Arbeitsvermittlung,
Kündigungsschutz; m umfasst die Marktmacht der Unternehmen) sind in der ASGleichung enthalten. Im mittelfristigen Gleichgewicht werden die Preiserwartungen
e
erfüllt, P = P ; damit ergibt sich die natürliche Produktion Yn = 1250. Der Realzins ist
0,15 (15 Prozent). Das Preisniveau beträgt zwei.
d) Sinkt der Aufschlag wegen mehr Integration der Absatzmärkte, steigt der Reallohn
und sinkt die Arbeitslosenquote. Mehr Wettbewerb führt mittelfristig zu mehr Beschäftigung.
e) Die AS-Gleichung im mittelfristigen Gleichgewicht bestimmt die „natürliche“ Arbeitslosenquote 1 = 1(1 + m)F(un, z) = (1 + 0,03)(1 + 0,3 – un) = 0,058; un ca. 5,8 Prozent.
II. Mögliche Fehlerquellen
— Wissensfragen (z.B. Einsatz von Derivaten, Institution Währungsordnung, Geldschöpfungsmultiplikator) sind vollständig zu beantworten.
— Transferaufgaben: Die aggregierte Nachfragefunktion muss aus den Güter- und
Geldmarktgleichgewichtsbedingungen hergeleitet werden.
— Bei der Entwicklung der aggregierten Angebotsfunktion ist auf Preis- und Lohnsetzung (und Technologieannahme) zu achten.
— Die Unterscheidung zwischen kurzfristig und mittelfristig ist zu beachten. Sonst lassen sich die Werte bzw. makroöonomischen Konzepte für die natürliche Arbeitslosenquote und die natürliche Produktion ökonomisch nicht sinnvoll verwenden.
Literatur:
Blanchard, O./Amighini, A./Giavazzi, F.: Macroeconomics — A European Perspective. Harlow 2010.
Blanchard, O./Illing, G.: Makroökonomie. 5. Aufl., München 2009.
Forster, J./Klüh, U./Sauer, S.: Übungen zur Makroökonomie. 3. Aufl., München 2009.
Controlling im Mittelstand
Band 1: Grundlagen und
Informationsmanagement
Kostenrechnung im
Industrieunternehmen
Band 2: Teilkostenrechnung
Von Prof. Dr. Guido A. Scheld
5. Auflage 2012, 364 Seiten
Euro 19,90
ISBN 978-3-932647-57-4
Von Prof. Dr. Guido A. Scheld
4. Auflage 2011, 348 Seiten
Euro 19,90
ISBN 978-3-932647-50-5
Controlling im Mittelstand
Band 2: Unternehmenscontrolling
Band 4: Moderne Systeme der
Kosten- und Leistungsrechnung
Von Prof. Dr. Guido A. Scheld
5. Auflage 2012, 776 Seiten
Euro 29,90
ISBN 978-3-932647-55-0
Von Prof. Dr. Guido A. Scheld
3. Auflage 2012, 452 Seiten
Euro 24,90
ISBN 978-3-932647-56-7
Fachbibliothek Verlag
Silbeker Weg 33 • 33142 Büren • Tel.: 02951/93048 • Fax: 02951/93047 • E-Mail: [email protected]
WISU
116
1/13
Wirtschaftsmathematik
Wirtschaftsstatistik
Zeitreihenanalyse
Unterstützung beim Vertrieb
von Suchmaschinenwerbung
Prof. Dr. Veith Tiemann, Hamburg
Mithilfe statistischer Methoden der Zeitreihenanalyse wird gezeigt, wie sich durch
die Analyse von Suchanfragen ein betriebswirtschaftlicher Mehrwert für InternetSuchmaschinen und -Portale schaffen lässt. Damit ist eine effizientere Kundenansprache möglich.
I. Einführung
Allgemeine und
spezielle Suchmaschinen
Der Suchmaschinenmarkt ist groß und unübersichtlich geworden. Neben Google, Bing,
Xquick etc. gibt es zudem spezielle Suchmaschinen, die sich an bestimmte Adressatenkreise wenden oder sich mit bestimmten Themen wie Job- oder Immobiliensuche befassen.
Web-Kataloge
Bei Letzteren findet die Suche oft anhand eines Web-Kataloges statt, der nicht mittels
der üblichen Crawler — ein Programmcode, durch den alle Inhalte des Internets erfasst
werden — automatisch erstellt und bewertet wird. Ein Web-Katalog muss mehr oder weniger manuell zusammengestellt werden. Die Aufnahme in den Katalog bzw. die prominente Platzierung unter den Suchergebnissen ist oft mit einem Entgelt verbunden, etwa
bei den Gelben Seiten. Ihr liegen oft Jahresverträge zugrunde.
II. Zeitreihen
Wird ein Merkmal X wie der Traffic (die Anzahl der Besucher) auf einer Webseite über
die Zeit verfolgt, kann mithilfe der Zeitreihenanalyse versucht werden, den Verlauf zu verstehen und gegebenenfalls zu modellieren.
Zeitreihenkomponenten
Ist xt die Zeitreihe, kann sie üblicherweise in diese Komponenten zerlegt werden (vgl.
Fahrmeir et al., S. 554):
xt = mt + kt + st + ut.
Dabei sind:
mt: der Trend, d.h. die langfristige systematische Veränderung des
mittleren Niveaus der Zeitreihe,
kt: die Konjunkturkomponente, d.h. eine mehrjährige, nicht notwendig
regelmäßige Schwankung,
st: die Saisonkomponente, d.h. die jahreszeitlich bedingte Schwankungskomponente, die sich relativ unverändert jedes Jahr wiederholt,
ut: die Störgröße, d.h. die restliche Variation in der Zeitreihe.
Diese Komponenten sind Ansatzpunkte für die Modellierung. So lässt sich der Trend oft
mithilfe einer linearen Regression abbilden (vgl. Fahrmeir et al., S. 153 f.), während man
die Saisonschwankung mit der Korrelation in den Griff bekommen kann.
Der bekannte Korrelationskoeffizient von Bravais-Pearson stellt den linearen Zusammenhang zwischen zwei Merkmalen als Maßzahl dar (vgl. Fahrmeir et al., S. 135 f.).
Bei der Autokorrelation wird diese Idee auf ein Merkmal angewandt, womit regelmäßige, von der Zeit abhängige Strukturen des Merkmals herausgearbeitet werden können.
Hier werden die Regression und die Autokorrelation angewandt (weiterführende Informationen zu Zeitreihen findet man z.B. bei Chatfield und Schlittgen).
WISU
1/13
117
WIRTSCHAFTSMATHEMATIK/WIRTSCHAFTSSTATISTIK
Frage 1: Übertragen Sie die grundsätzliche Idee des Korrelationskoeffizienten
auf das Aufspüren der Saisonkomponente in einer Zeitreihe mit
Monatswerten.
III. Angebot trifft Nachfrage — wie und wann?
Bei vielen Suchmaschinen und Portalen wird die Werbung von Vertriebsteams betrieben,
die über einiges Wissen verfügen müssen.
Was entscheidet
über den Werbeerfolg?
Entscheidend für den Erfolg der Werbung in Suchmaschinen und auf Portalen ist das
Suchverhalten der Nutzer. Nur wenn nach einem Produkt, einer Dienstleistung oder einer
Firma gesucht wird, erzielt der Werbetreibende einen Mehrwert. Bei dieser Suche sind
zumindest zwei Kriterien entscheidend:
1. Das Suchvolumen und der Trend der Nachfrage.
2. Das zeitliche Muster bei der Suche.
Der erste Punkt erklärt sich selbst. Wenn die Suchanfragen nach Malern bei einem
Gelbe-Seiten-Portal zurückgehen, wird es immer schwieriger, Malern einen Eintrag zu
verkaufen. Der zweite Punkt ist etwas subtiler, aber ähnlich bedeutsam. Warum sollte ein
Anbieter von Weihnachtsartikeln im Februar Geld bezahlen, um auf einem entsprechenden Portal präsent zu sein, wenn nach diesen Artikel erst wieder im Herbst gesucht wird?
Bedenkt man, dass auf Portalen nicht selten nach tausenden Kategorien oder Rubriken
gesucht werden kann und die Kenntnis der genannten Zusammenhänge den Verkaufserfolg deutlich erhöht, wird schnell klar, dass eine maschinelle Unterstützung der Verkäufer von Vorteil wäre. Bei beidem hilft die Zeitreihenanalyse.
IV. Das statistische Problem: Trend- und Saisonanalyse
Bei manchen Produkten ist das Suchvolumen hoch, bei manchen stagniert die Nachfrage, bei anderen geht sie zurück. Oft unterliegt die Nachfrage saisonalen Schwankungen (vgl. Wewel, S. 110 ff.). Wer diese Zusammenhänge als Verkäufer kennt, hat erhebliche Vorteile.
Ein typisches Business-to-Business-Branchenverzeichnis weist deutlich über 50.000
nach Anbietern durchsuchbare (detaillierte) Branchen oder Rubriken auf. Wie findet man
diejenigen mit saisonalen Schwankungen? Wie stellt man die Informationen dazu regelmäßig und effizient bereit? Berechnungen lassen den Schluss zu, dass solche Rubriken
etwa 20 Prozent ausmachen. Wie findet man sie, falls es notwendig wird, absatzfördernde Maßnahmen zu ergreifen?
Beispiel
Mit einfachen statistischen Mitteln lässt sich dies für beliebig viele Branchen bzw. Rubriken lösen. Das wird hier am Beispiel der Rubrik „Wildbret“ (Fleisch vom Wild) eines
B2B-Portals gezeigt.
2000
1500
0
500
1000
Traffic − Visits
2500
3000
3500
Ein B2B-Portal
07
2008
09
2008
11
2008
01
2009
03
2009
05
2009
07
2009
09
2009
11
2009
01
2010
03
2010
05
2010
07
2010
09
2010
11
2010
01
2011
03
2011
05
2011
07
2011
09
2011
11
2011
Abb. 1: Nachfrage nach Wildbret
Abb. 1 illustriert die Nachfrage (Traffic-Verlauf) für die Rubrik „Wildbret“. Die saisonalen
Schwankungen sind deutlich zu erkennen. Ein linearer Trendschätzer wurde eingeWISU
118
1/13
WIRTSCHAFTSMATHEMATIK/WIRTSCHAFTSSTATISTIK
zeichnet. Ein Visit ist ein Besuch auf einer Webseite. Die Grafik enthält alle Informationen, die für eine effiziente Kundenansprache erforderlich sind:
— Größenordnung des Traffics: Wie viele Firmen fragen das Produkt nach?
Folgerungen: Muss zunächst weiterer Traffic durch geeignete Maßnahmen erzeugt
werden? Oder können bereits potenzielle Inserenten angesprochen werden?
— Trend: Wie läuft die Rubrik?
Folgerungen: Hat die Rubrik noch weiteres Verkaufspotenzial oder nimmt es ab?
— Saison: Wann wird gesucht?
Folgerungen: Wann lohnt sich ein Eintrag in der Suchmaschine? Wann soll demnach
der Vertrieb aktiv werden?
Diese Informationen müssen automatisiert, angemessen extrahiert und zur Verfügung
gestellt werden.
Frage 2: Wie lässt sich die Zeitreihe in Abb.1 hinsichtlich der genannten
Komponenten charakterisieren?
Traffic-Trend
Trend und Niveau des Traffics sind als entsprechende Lagemaßzahl bzw. Steigung der Regressionsgeraden ablesbar und automatisch auswertbar. Die Steigung der Regressionsgeraden beträgt gerundet 32, d.h. pro Monat wird ein positiver Trend von 32 Visits festgestellt.
Saisonale
Schwankungen
Bei den saisonalen Schwankungen kann die Autokorrelationsfunktion (ACF) gute
Dienste leisten (vgl. Kreiß, S. 31 ff.). Sie soll aus der Korrelationsidee hergeleitet werden.
Der bekannte Korrelationskoeffizient nach Bravais-Pearson verrät etwas über den (linearen) Zusammenhang zwischen zwei empirischen Merkmalen: Verhalten sie sich gleichgerichtet oder entgegengerichtet, korrelieren sie also positiv oder negativ?
Saisonalität lässt sich mittels dieses Zusammenhangs erkennen: Man muss die beobachteten Werte der Zeitreihe miteinander vergleichen. Falls die Werte im Januar hoch
sind, sind sie dann im Juli tendenziell niedrig und im nächsten Januar wieder hoch?
Die Zeitreihe wird gegeneinander verschoben, mit sich selbst verglichen und das per
Korrelationskoeffizient. Eine Verschiebung zu Lag 1 (Zeitverschiebung, Zeitunterschied
um einen Monat) bedeutet, dass sie um einen Monat verschoben mit sich selbst verglichen wird.
Autokorrelation
Hier sind exemplarisch einige dieser Vergleiche dargestellt (die Originalzeitreihe ist X, die
verschobene Y):
lag 1
X: Jan2010 Feb2010 Mrz2010 Apr2010 ...
Y: Feb2010 Mrz2010 Apr2010 Mai2010 ...
lag 6
X: Jan2010 Feb2010 Mrz2010 Apr2010 ...
Y: Jul2010 Aug2010 Sep2010 Okt2010 ...
lag 12
X: Jan2010 Feb2010 Mrz2010 Apr2010 ...
Y: Jan2011 Feb2011 Mrz2011 Apr2011 ...
Hinter jedem Datum steckt eine Zahl. Im Prinzip kann nun die Korrelation zwischen X und
Y berechnet werden, bezogen auf unterschiedliche Verschiebungen.
Für (jährliche) Saisonalität spricht eine negative Korrelation um die Verschiebung sechs
Monate, bei gleichzeitiger positiver Korrelation beim Lag zwölf Monate. Die Autokorrelation
nimmt gleichmäßig ab, wenn man sich von den markanten Punkten (Lags) wegbewegt.
Frage 3: Warum spricht das beschriebene Muster der Autokorrelationsfunktion für Saisonalität bei Monatsdaten?
Abb. 2 zeigt die ACF für das Merkmal „Wildbret“, berechnet aufgrund der vom Trend bereinigten Originalzeitreihe. Letztere ist in der oberen Hälfte dargestellt. Der Trend ist herauszurechnen, da er den Korrelationseffekt überlagert. In der unteren Grafik von Abb. 2
ist deutlich die Saisonfigur anhand der Autokorrelationen zu erkennen: Die Autokorrelation ist jeweils negativ um die Verschiebungen sechs und 18 Monate, sowie positiv um
die Verschiebungen zwölf und 24 Monate. Je weiter die Vergleiche, d.h. die VerschiebunWISU
1/13
119
WIRTSCHAFTSMATHEMATIK/WIRTSCHAFTSSTATISTIK
gen, zeitlich voneinander entfernt sind, desto geringer ist in der Regel der Effekt. Die eingezeichneten Konfidenzbänder (gestrichelte Linien) werden alle durchbrochen, bei der
Verschiebung zum Lag 18 Monate nur knapp nicht.
1500
500
−500
Traffic Trendbereinigt
Wildbret
Trendbereinigte Suchanfragen
07
2008
09
2008
11
2008
01
2009
03
2009
05
2009
07
2009
09
2009
11
2009
01
2010
03
2010
05
2010
07
2010
09
2010
11
2010
01
2011
03
2011
05
2011
07
2011
09
2011
11
2011
ACF
−0.2
0.2
0.6
1.0
Autokorrelationsfunktion
0
6
12
18
24
Lag
Abb. 2: Vom Trend bereinigte Zeitreihe und geschätzte Autokorrelation
Computer-Einsatz
Diese Stellen können nun automatisch per Computer abgefragt und ausgewertet werden, womit die gewünschte Saisoninformation (massenhaft) für alle suchbaren Kategorien und Rubriken zur Verfügung steht. Zusammen mit dem Trendschätzer und den Mittelwertaussagen kann automatisch ein fundiertes Bild des Suchverhaltens in der Rubrik
erzeugt werden. Diese Informationen können in den Verkaufsprozess einfließen.
Drei abschließende Bemerkungen zur Berechnung der ACF:
— Man benötigt bei der Zeitreihe offensichtlich eine gewisse Länge, um die notwendigen Lags abbilden zu können.
— Es wird nicht exakt die Formel von Bravais-Pearson zur Korrelation verwandt. Sie vereinfacht sich, da durch die Trendbereinigung gewissermaßen Stationarität erzeugt
wurde und lediglich der Zeitunterschied (Lag) eine Rolle spielt, nicht jedoch der Zeitpunkt, zu dem die Vergleiche durchgeführt werden.
— Große Datenmengen erfordern den Einsatz von Computern, wie es in der Praxis
auch geschieht. Dabei werden Programme wie R oder S-Plus benötigt.
Frage 4: Welcher betriebswirtschaftliche Mehrwert wird durch die Analyse erzielt?
V. Fazit
Nicht nur bei der klassischen Nationalökonomie, auch bei der Internet-Ökonomie ist das
Zusammenspiel von Angebot und Nachfrage entscheidend. Die Analyse gewinnt noch erheblich an Aussagekraft, wenn beispielsweise weitere Informationen über die Anbieter von
Wildbret zur Verfügungen stehen. Aufgrund der Kenntnis, wie viel B2B-Nachfrage ein solcher Anbieter benötigt, können Maßnahmen und Strategien für die Suchmaschine bzw. das
Portal abgeleitet werden — und mithilfe der Statistik automatisiert für tausende Rubriken.
Literatur:
Chatfield, C.: The Analysis of Time Series. An Introduction. London 2003.
Fahrmeir, L./Künstler, R./Pigeot, I./Tutz, G.: Statistik. Der Weg zur Datenanalyse. Berlin 2009.
Kreiß, J.-P.: Einführung in die Zeitreihenanalyse. Berlin 2006.
Schlittgen R.: Angewandte Zeitreihenanalyse. München 2001.
Wewel, M.C.: Statistik im Bachelor-Studium der BWL und VWL — Methoden, Anwendung, Interpretation, München 2010.
Die Fragen werden im WISU-Repetitorium beantwortet.
WISU
120
1/13
wisu
Repetitorium
PVns = z · RBF(0,03; 20) = 20.000 · 14,8775 = 297.549,50 Euro.
Betriebswirtschaftslehre
Fragen und Antworten 1 - 7 zu „Zeitwert des Geldes“ von
Prof. Dr. F. Schuhmacher/Dr. B.R. Auer (S. 75 - 81).
Dieser Wert stellt nun gleichzeitig den Endwert des 30-jährigen
Sparplans dar, dessen jährliche Einzahlung gesucht ist. Nach (3) gilt
daher
Frage 1: Wie wirkt sich eine Erhöhung des Zinssatzes von
zwei auf drei Prozent p.a. auf den Endwert einer 50-jährigen Anlage von 100 Euro aus?
woraus sich durch Umstellung nach z der gesuchte Jahressparbetrag von 6.254,27 Euro ergibt.
Für die beiden Endwerte gilt FVa = 100 · (1 + 0,02)50 = 269,16 Euro
und FVb = 100 · (1 + 0,03)50 = 438,39 Euro. Durch eine scheinbar
kleine Erhöhung des Zinssatzes wird also beim Endwert ein Plus von
438,39 – 269,16 = 169,23 Euro bzw. 169,23 / 269,16 = 62,87% erreicht. Bei langen Laufzeiten können also kleine Zinsunterschiede zu
sehr unterschiedlichen Endwerten führen.
Frage 2: Ein Student hat noch 300 Euro auf seinem Girokonto und einen Schuldschein, wonach ihm ein Kommilitone in einem Jahr 100 Euro zahlen muss. Ist die Behauptung des Studenten korrekt, dass sein Vermögen derzeit
400 Euro beträgt? Der aktuelle Marktzins für einjährige
Geldanlagen liegt bei 1,5 Prozent.
Die Aussage ist nicht korrekt, da der Schuldschein derzeit nicht 100
Euro wert ist. Ein potenzieller Käufer des Schuldscheins würde dafür
maximal PV = 100 / 1,015 = 98,52 Euro bezahlen, da er durch Anlage dieses Betrages heute die 100 Euro in einem Jahr erzielen kann.
Berücksichtigt man zudem, dass der Schuldner in einem Jahr vielleicht zahlungsunfähig ist, wird der Käufer tendenziell sogar noch
weniger für den Schuldschein bieten.
FVns = z · EWF(0,03; 30) bzw. 297.549,50 = z · 47,5754,
Frage 6: Wie erhält man anhand von (9) die Approximation
in (10)?
Man stellt (9) zunächst wie folgt um:
1 + r  1 +  = 1 + i
1++r+r = 1+ir = i––r.
Da das Produkt r   typischerweise klein ist, kann es vernachlässigt
werden, was zur Approximation (10) führt.
Frage 7: Ein Student möchte sich in drei Jahren ein neues
Auto kaufen. Er weiß,dass das gewünschte Modell heute
20.000 Euro kostet, wegen der jährlichen Preissteigerung
von zwei Prozent in drei Jahren jedoch teurersein wird.
Welchen Betrag muss er heute bei einem Nominalzins von
vier Prozent anlegen, um das Auto in drei Jahren kaufen
zu können?
Der Realzinssatz liegt hier bei
r = (1 + 0,04) / (1 + 0,02) – 1 = 0,0196 = 1,96%,
Frage 3: Welcher Betrag steht einem Jugendlichen bei
seinem 18. Geburtstag zur Verfügung, wenn seine Eltern
bis dahin jedes Jahr vorschüssig 500 Euro auf sein Sparkonto bei einer Verzinsung von drei Prozent p.a. eingezahlt haben?
Der Kontostand beläuft sich nach Gleichung (4) auf FVvs =
500 · 23,4144 · (1 + 0,03) = 12.058,43 Euro.
Frage 4: Wie lässt sich tabellarisch zeigen, dass bei einmaliger Anlage von 272,32 Euro auf einem Rentenkonto
mit einem Zins von fünf Prozent p.a. über eine Dauer von
drei Jahren jeweils am Jahresende 100 Euro entnommen
werden können?
Jahr
1
2
3
Kontostand zum
Jahresbeginn
272,32
185,94
95,24
Multiplikation
mit
1,05
1,05
1,05
Kontostand am
Jahresende
285,94
195,24
100,00
Entnahme von
100 Euro
185,94
95,24
0,00
Frage 5: Welchen Geldbetrag muss ein heute 35-jähriger
Arbeitnehmer bis zu seinem Ruhestand im Alter von 65 Jahren jährlich nachschüssig beiseitelegen, um mit der angesparten Summe 20 Jahre lang eine nachschüssige Rente
von jährlich 20.000 Euro finanzieren zu können? Der Zinssatz in der Spar- und Rentenphase beträgt drei Prozent p.a.
Zunächst muss die Frage beantwortet werden, welcher Geldbetrag
zu Ruhestandbeginn vorhanden sein muss, um daraus die gegebene
Rente zu finanzieren. Er beläuft sich nach (5) auf:
sodass der Student
PV = 20.000 / (1 + 0,0196)3 = 18.868,20 Euro
anlegen muss. Würde er nur den Nominalzinssatz bei seiner Entscheidungsfindung einbeziehen und
PV = 20.000 / (1 + 0,04)3 = 17.779,93 Euro
anlegen, hätte er nach drei Jahren nur nominal 20.000 Euro und nicht
die inflationsbedingt erforderlichen nominalen 20.000 · (1 + 0,02)3 =
21.224,16 Euro zum Autokauf zur Verfügung. Bei einer Anlage von
18.868,20 Euro sind sie hingegen vorhanden: 18.868,20 · (1 + 0,04)3=
21.224,16 Euro.
Betriebswirtschaftslehre
Fragen und Antworten 1 - 4 zu „Risikomanagement bei Projektfinanzierungen“ von Prof. Dr. J. Kümmel/Prof. Dr. E. Kottmann/
Dipl.-Betrw. (FH) Henny Höfer (S. 82 - 86).
Frage 1: Welches weitere Risiko kann sich aus dem Fertigstellungsrisiko ergeben?
Tritt ein Fertigstellungsrisiko ein, kann als Folge ein Abandon-Risiko
auftreten, weil die erzielten Leistungen so weit unter den Erwartungen liegen, dass der Cash Flow als nicht ausreichend angesehen
wird. Dies kann dazu führen, dass die Projekteigentümer kein Interesse mehr an der Fortführung des Projekts haben und es aufgeben.
WISU
1/13
121
WISU-REPETITORIUM
Frage 2: Auf welchen Teil der Planung wirkt sich das Zinsänderungsrisiko vor allem aus?
Frage 5: Nennen Sie Beispiele für den Umweltschutz bei
der Logistik.
Steigt das Zinsniveau am Kapitalmarkt bei variabel verzinslicher
Fremdfinanzierung an oder sind die vereinbarten Zinssätze bei einer
fest verzinslichen Fremdfinanzierung im Vergleich zum Zinsniveau
am Kapitalmarkt zu hoch, entstehen höhere Projektkosten. Die höheren Zinsen verringern die geplanten Cash Flows.
Der Umweltschutz bezieht sich hier auf alle Bereiche außerhalb der
Entsorgungslogistik, d.h. auf die Beschaffungs-, Produktions- und
Absatzlogistik. In der Produktionslogistik können Schadstoffe beim
betrieblichen Fuhrpark reduziert werden, bei der Beschaffungs- und
Absatzlogistik kann auf umweltfreundliche Transportmittel zurückgegriffen oder es können die Verkehrsmittel stärker ausgelastet werden.
Frage 3: Welcher wesentliche Aspekt muss beim WorstCase-Szenario überprüft werden? Welche Maßnahmen
sind ggfs. zu treffen?
Es muss geprüft werden, ob die erwarteten Cash Flows auch im
Worst-Case-Szenario den Kapitaldienst, d.h. Zinsen und Tilgungen,
decken. Andernfalls müssen möglicherweise die Finanzierung angepasst, Reservekonten eingerichtet und Nachschussverpflichtungen
der Projekteigentümer vereinbart werden.
Frage 4: Ist es sinnvoll, eine Art Frühwarnsystem bei Projektfinanzierungen zu schaffen? Worauf kann dabei zurückgegriffen werden?
Das Finanzmodell, das als Entscheidungsmodell herangezogen
wird, kann als Informationssystem zahlreiche kritische Kennzahlen
liefern. Durch deren regelmäßige Überwachung können frühzeitig
ungeplante bzw. negative Entwicklungen entdeckt werden, um
rechtzeitig darauf zu reagieren. Die Einrichtung zusätzlicher Frühwarnsysteme ist daher oft nicht erforderlich.
Betriebswirtschaftslehre
Fragen und Antworten 1 - 5 zu „Grüne Logistik“ von Prof. Dr.
E. Günther (S. 87 - 92).
Frage 1: Wie beschreibt die Norm DIN EN 14943 die Aufgaben der Logistik?
Die Logistik optimiert gem. DIN EN 14943 die unternehmensinternen
Abläufe „Planung, Ausführung und Steuerung der Bewegung und der
Bereitstellung von Menschen und/oder Waren und der unterstützenden Tätigkeiten in Bezug auf diese Bewegung und Bereitstellung innerhalb eines zum Erreichen spezieller Ziele organisierten Systems“.
Frage 2: Welche Umweltaspekte spielen bei Logistikprozessen eine besondere Rolle?
Emissionen in der Luft, Wasser- und Bodenbelastungen (Kraft- und
Betriebsstoffe), Lärm (Lärmemissionen), Flächenverbrauch (Infrastruktur) sowie Unfälle (Schadstoffe im Transportgut).
Frage 3: Wodurch unterscheiden sich die beiden Perspektiven „Logistik beim Umweltschutz“ und „Umweltschutz bei der Logistik“?
Bei Ersterer geht es speziell um die Logistik im Bereich Entsorgung.
Im Mittelpunkt stehen dabei Transport, Lagerung und Handling der
Kondukte, d.h. des unerwünschten Outputs der unternehmerischen
Prozesse. Letztere bezieht sich auf die Berücksichtigung von Umweltaspekten in alle Entscheidungen bezüglich der Logistikprozesse
in den Bereichen Beschaffung, Produktion und Distribution.
Frage 4: Welche Handlungsmaxime bestimmen die Entsorgungslogistik?
Ähnlich wie bei der Versorgungslogistik stehen auch bei der Entsorgungslogistik die Maxime System-, Gesamtkosten- Service- und Effizienzdenken im Mittelpunkt. Das Systemdenken bezieht sich auf
die Logistik als unternehmens- oder funktions- bzw. bereichsübergreifendes System. Das Gesamtkostendenken weist auf den möglichen Zielkonflikt zwischen ökonomischen und ökologischen Zielen
hin. Das Service-Denken gewinnt durch die Erweiterung um Sicherheitsaspekte eine besondere Bedeutung. Effizienzdenken bedeutet
die Abwägung technischer, ökonomischer und ökologischer Ziele.
WISU
122
1/13
Wirtschaftsinformatik
Fragen und Antworten 1 - 4 zu „Klassifikation digitaler Medien durch Metadaten“ von Prof. Dr. R.Thome/Dipl.-Kfm. L.
Habersetzer (S. 95 - 100).
Frage 1: Wann ist welche Art der Verknüpfung von Metadaten mit dem Informationsobjekt sinnvoll?
1. Direkte Integration der Metadaten mit dem Informationsobjekt:
systemunabhängige Informationsobjekte. 2. Speicherung in einer separaten Datei mit Verweisen: Datenbank- und Content-ManagementSysteme. 3. Ableitung der Metadaten: alle Anwendungsbereiche.
Frage 2: Welche Potenziale haben Metadaten?
Die Potenziale liegen 1) beim vereinfachten Daten- und Medienmanagement (Klassifikation, Ordnung und Verwaltung, Dokumentation,
Archivierung, Integration von Datenbeständen), 2) bei der effizienteren und schnelleren Suche von Informationen und 3) bei neuen Anwendungen (Dokumentation des Entstehungsprozesses und der Änderungen, automatische Verarbeitung, Web 2.0-Anwendungen wie
die Integration von Bildern in digitale Landkarten).
Frage 3: Warum sind bislang viele Informationsobjekte
nicht mit Metadaten beschrieben?
Die Gründe sind 1) technische Probleme (viele Metadaten-Standards), 2) die Grenzen der Sprache und Klassifikation (mehrdeutige
Begriffe, Schreibfehler, Sprachgemische) und 3) der hohe Aufwand
bei der Klassifikation von digitalen Medien und der Ableitung von
Metainformationen.
Frage 4: Warum reichen Geodaten für eine hilfreiche
Klassifikation von Bildern nicht aus?
Ist eine Kamera mit einem GPS-Empfänger ausgerüstet, können Fotos
im Moment der Aufnahme automatisch mit den Positionsdaten versehen werden. Geotagging ist damit die ideale Form der Anreicherung
von Multimedia mit Metadaten: geringer Aufwand, eindeutig und standardisiert. Mithilfe dieser Metadaten lassen sich Bilder klassifizieren.
Wenn Aufnahmen von einer Sehenswürdigkeit gesucht werden, kann
man sie über die Ortsangabe finden. Genau genommen sind die Geodaten jedoch nur hinsichtlich der Position eindeutig, nicht aber hinsichtlich des gesuchten Motivs. Aus den Geodaten wird nämlich nicht
ersichtlich, ob auf dem Bild die Sehenswürdigkeit selbst zu sehen ist
oder etwas anderes. Insofern sind weitere Metadaten erforderlich.
Volkswirtschaftslehre
Fragen und Antworten 1 - 4 zu „Orientierungsgrößen der
Geldpolitik“ von Prof. Dr. J. Weeber (S. 104 - 108).
Frage 1: Woraus haben sich die Anforderungen an die aktuelle Geldpolitik ergeben?
Durch die Insolvenz der Investmentbank Lehman Brothers Mitte
September 2008 haben sich die Anforderungen an die Wirtschaftspolitik, vor allem aber an die die Geldpolitik, verändert. Durch den
Zusammenbruch des Interbanken-Marktes, die Liquiditätsverknappung auf den Finanzmärkten und die Staatsschuldenkrise in der
WISU-REPETITORIUM
Eurozone rückte die Finanzmarktstabilität als Ziel der aktuellen Geldpolitik in den Vordergrund.
Frage 2: Was sind die Grundlagen der Zwei-Säulen-Strategie der EZB?
Zum einen die monetäre Analyse, die vom Zusammenhang von
Geldmengenwachstum und Inflation ausgeht. Zum anderen die wirtschaftliche Analyse verschiedener Indikatoren und ihren Auswirkungen auf die Preisstabilität.
Modellen muss man sich ausdrücklich für ein Altersvorsorgeprodukt
entscheiden, d.h. aktiv einen entsprechenden Vertrag abschließen.
Ein Beispiel ist die Riester-Rente. Dabei kann es wegen Trägheit
oder Überforderung aufgrund der vielen Angebote geschehen, dass
keine Entscheidung getroffen wird und somit auch keine Altersvorsorge erfolgt.
Wirtschaftsmathematik/Wirtschaftsstatistik
Frage 3: Warum spielt die Frage der zeitlichen Dimension
geldpolitischer Strategien eine wichtige Rolle bei der
Glaubwürdigkeit der Geldpolitik?
Fragen und Antworten 1 - 4 zu „Unterstützung beim Vertrieb
von Suchmaschinenwerbung“ von Prof. Dr. V. Tiemann
(S. 117 - 120).
Kurzfristige Strategien wie Einjahresziele bergen die Gefahr häufiger
Änderungen, womit sich die Wirtschaftsakteure möglicherweise
schnell geänderter geldpolitischer Rahmenbedingungen ausgesetzt
sehen. Eine mittelfristige Ausrichtung der Geldpolitik schafft dagegen Vertrauen und stärkt die Glaubwürdigkeit der Geldpolitik.
Frage 1: Übertragen Sie die grundsätzliche Idee des Korrelationskoeffizienten auf das Aufspüren der Saisonkomponente in einer Zeitreihe mit Monatswerten.
Frage 4: Welche Orientierungsgrößen kommen als Alternativen zur Zwei-Säulen-Strategie der EZB in Betracht?
Die direkte Inflationssteuerung, Währungsrelationen (mit einer stabilen Währung als Anker), die Kreditgewährung an private Haushalte
und/oder Privatunternehmen sowie das nominale Bruttoinlandsprodukt. Goldstandard und Rohstoffpreise sind jedoch eher theoretische Möglichkeiten, die sich in der Praxis kaum umsetzen lassen.
Volkswirtschaftslehre
Fragen und Antworten 1 - 4 zu Alterssicherung und Verhaltensökonomik“ von Prof. Dr. W. Sesselmeier/M. Haupt, MA
(S. 108 - 113).
Frage 1: Wie und warum wurde die deutsche Alterssicherung geändert?
Die bisherige umlagefinanzierte gesetzliche Rentenversicherung
musste aufgrund der prognostizierten Kostenentwicklung und der
demografischen Entwicklung reformiert werden. Die gesetzliche Rentenversicherung wurde relativiert, während die betriebliche und insbesondere die private Absicherung gefördert wird. Ein Beispiel ist die
Riester-Rente, die durch staatliche Zulagen und Steuerabzugsmöglichkeiten subventioniert wird. Gesetzliche, betriebliche und private
Versicherung ergeben das Drei-Säulen-System der Alterssicherung.
Frage 2: Welche Unterschiede lassen sich bei der Inanspruchnahme der Riester-Rente erkennen?
Nicht alle förderberechtigten Personen nehmen die Riester-Rente in
Anspruch, die Gesamtverbreitung liegt bei ca. 40 Prozent. Frauen
„riestern“ bislang häufiger als Männer, Ostdeutsche häufiger als
Westdeutsche und jüngere Menschen mehr als ältere. Kinderreiche
Haushalte nehmen die Riester-Rente eher in Anspruch als kinderlose
Personen. Geringverdiener „riestern“ nur sehr eingeschränkt.
Da in diesem Fall der innere Zusammenhang in einem Datensatz gesucht wird, muss die Zeitreihe durch Verschiebung in zwei Datensätz
eingeteilt werden. So könnte man die Korrelation zwischen der Originalzeitreihe (z.B. als X bezeichnet) und derselben Zeitreihe, bei der
man die ersten sechs Beobachtungen weglässt (Y), berechnen. Man
vergleicht dann immer Werte der Zeitreihe, die um ein halbes Jahr
verschoben sind.
Frage 2: Wie lässt sich die Zeitreihe in Abb.1 hinsichtlich
der genannten Komponenten charakterisieren?
Bei der vorliegenden Zeitreihe fallen vor allem der starke Trend sowie
die deutliche Saisonfigur auf. Damit werden zwei wichtige Aspekte
ermittelt und können entsprechend berücksichtigt werden.
Frage 3: Warum spricht das beschriebene Muster der Autokorrelationsfunktion für Saisonalität bei Monatsdaten?
Korrelieren die Zeitreihendaten als Monatsdaten zum Lag 12 und 24
Monate positiv, bedeutet dies, dass immer zur gleichen Zeit im Jahr
gleiche Werte beim Niveau beobachtet werden. In Abb. 1: Im Herbst/
Winter jeweils hohe Werte und im Frühjahr/Sommer niedrige Werte
und zwar über die Jahre 2008 bis 2011 hinweg.
Korrelieren die Monatswerte auch noch zum Lag 6 bzw. 18 negativ,
bedeutet dies, dass im Herbst/Winter im Vergleich zum Frühjahr/
Sommer gerade unterschiedliche Niveaus vorliegen. Damit ist die
Saisonfigur ermittelt.
Frage 4: Welcher betriebswirtschaftliche Mehrwert wird
durch die Analyse erzielt?
Versteht der Suchmaschinen- bzw. Portalbetreiber die Morphologie
der Nachfrage, weiß er also, wann und mit welcher Intensität nach
einem bestimmten Produkt oder einer bestimmten Dienstleistung
gesucht wird, kann er viel effizienter und effektiver darauf eingehen.
Damit lässt sich die erwünschte optimale Marktkonstellation zwischen Angebot und Nachfrage erreichen. So kann sich die Kundenansprache auf die Zeit beschränken, in der gesucht wird oder unmittelbar auf die Zeit davor.
Frage 3: Wie wirken sich die Abweichungen von der Rationalität aus?
Das Rationalitätsprinzip des Homo oeconomicus wird insbesondere
durch die Verlustaversion verletzt. Danach werden Gewinne und
Verluste unterschiedlich bewertet: Verluste schmerzen tendenziell
mehr als Gewinne in gleicher Höhe. Die Anomalien des Besitzeffektes oder der versunkenen Kosten leiten sich entsprechend aus dieser Verlustaversion ab. So wird Verlustgeschäften häufig noch zusätzliches Geld „nachgeworfen“ oder ein Vertrag wird weiter bespart, der eigentlich ungeeignet ist.
Frage 4: Wie unterscheiden sich Opt-out- und Opt-inModelle bei der Altersvorsorge?
Bei Opt-out-Modellen tritt man „automatisch“ einem Altersvorsorgeplan bei, wenn man ihm nicht ausdrücklich widerspricht. Bei Opt-in-
WISU
1/13
123
ANZEIGENSEITE
(bleibt aus technischen Gründen leer)
WISU
124
1/13