Ergänzende Unterlagen (teilweise in Deutsch

Transcription

Ergänzende Unterlagen (teilweise in Deutsch
Ergänzende Unterlagen
(teilweise in Deutsch)
zum Kurs
International Energy Management
Franz Wirl
Universität Wien
Inhaltsverzeichnis
1
2
Einleitung und historischer Rückblick .................................................................. 9
1.1
Ressourcen .................................................................................................. 9
1.2
Umwelt ....................................................................................................... 16
1.3
Öffentliche Wirtschaft, Regulierung und Politik .......................................... 19
1.4
World Energy Outlook 2030 (IEA, 2002) .................................................... 20
1.5
Investment .................................................................................................. 26
1.6
Ausblick auf den Kurs................................................................................. 28
1.7
Appendix .................................................................................................... 29
1.7.1
OPEC and other international organizations (www.opec.org) ............. 29
1.7.2
Embargo ............................................................................................. 30
1.7.3
OPEC. Still holding customers over a barrel ....................................... 35
1.7.4
Electricity in America. Life after Enron. ............................................... 40
1.7.5
Enron .................................................................................................. 41
1.7.6
Russia ................................................................................................. 44
1.7.7
China ................................................................................................... 46
1.7.8
The oil industry Steady as she goes ................................................... 47
1.7.9
Nuclear power: Atomic renaissance .................................................... 51
1.7.10
Appendix: World Energy Data ............................................................. 56
Theorie der optimalen Förderung nicht erneuerbarer Ressourcen .................... 57
2.1
Nutzungskosten und intertemporale Sachzusammenhänge ...................... 57
2.2
Wohlfahrtsoptimum .................................................................................... 58
2.3
Ressourceförderung unter verschiedenen Marktformen ............................ 62
2.3.1
Konkurrenzmarkt ................................................................................. 63
2.3.2
Planwirtschaftliche Förderung (Soziales Optimum)............................. 64
2.3.3
2.4
Monopol .............................................................................................. 65
Backstop Technologien .............................................................................. 68
2.4.1
Einfaches
Modell
optimalen
Übergangs
zu
erneuerbaren
Energieträgern ................................................................................................... 69
2.4.2
Ressource-Preise und Innovation alternativer Energieträger .............. 70
2.4.3
Other topical backstop examples ........................................................ 80
2.5
Ressourcen und Wachstum ....................................................................... 86
2.5.1
Is oil wealth a blessing or a curse? ..................................................... 86
2.5.2
Can the world economy continue to shrug off high oil prices?
Economist Aug. 27th 2005, p57-58. ................................................................... 88
3
Energiemärkte und Politik.................................................................................. 91
3.1
Ökonomische
und
polito-ökonomische
Gründe
für
temporäre
Beschränkungen ................................................................................................... 91
3.2
Effiziente Verwendung von Öl - ein Dilemma? ........................................... 93
3.3
Verpflichtungen .......................................................................................... 94
3.4
Zusammenfassung ..................................................................................... 94
3.5
Die ökonomischen Konsequenzen eines "Groß-Irak"................................. 96
3.5.1
4
The economics of war Calculating the consequences ........................ 99
Energy price volatility (based on IEA) .............................................................. 100
4.1
Introduction .............................................................................................. 101
4.2
Is Volatility Increasing ? ............................................................................ 102
4.2.1
Measuring Volatility ........................................................................... 102
4.2.2
Evolution of Oil Price Volatility........................................................... 103
4.3
Roots of Volatility...................................................................................... 108
4.3.1
General Discussions ......................................................................... 108
4.3.2
Factors Contributing to Increasing Oil Price Volatility ........................ 109
4.3.3
Volatility in Gas and Electricity Markets ............................................ 112
4.3.4
Does Price Volatility Really Matter ? ................................................. 114
4.3.5
Volatility: a Barrier to Investments ..................................................... 114
4.3.6
Prospects for Energy Price Volatility ................................................. 115
4.4
5
Conclusions .............................................................................................. 116
4.4.1
Oil ...................................................................................................... 117
4.4.2
Gas and Electricity ............................................................................ 117
OPEC Policies and Oil Price Volatility ............................................................. 118
5.1
Opec as a pure economic cartel ............................................................... 118
5.2
A temporary and politico-economical cartel .............................................. 122
5.3
Multiple Equilibria and backward bending supply functions...................... 124
5.4
Price reaction function .............................................................................. 126
5.5
Summing up ............................................................................................. 127
6
Erneuerbare Ressourcen ................................................................................ 128
7
Umwelt ............................................................................................................ 131
8
7.1
Ein einfaches Modell zu externen Effekten .............................................. 131
7.2
Energy taxes – some critical remarks....................................................... 133
7.2.1
Possible inefficiency of the 'polluter pays principle' ........................... 135
7.2.2
Revenues from energy taxes ............................................................ 136
7.2.3
Retaliation and preemption by producers .......................................... 137
7.2.4
Positive explanations of energy taxes ............................................... 140
7.2.5
Stability of energy taxes as a revenue instrument ............................. 142
7.2.6
Energy taxes and conservation ......................................................... 144
7.2.7
Summary ........................................................................................... 147
7.2.8
References: ....................................................................................... 148
Normative Theorie öffentlicher Versorgungsunternehmen .............................. 151
8.1
Erklärungen für die Einrichtung öffentlicher Elektrizitätsversorgung ........ 151
8.2
Ramsey-Preise ......................................................................................... 153
8.2.1
8.3
Spitzenlastpreisbildung ............................................................................ 159
8.3.1
8.4
Anwendung: Zeitvariable Tarife......................................................... 162
Zweigliedrige Tarife .................................................................................. 165
8.4.1
Einleitung .......................................................................................... 165
8.4.2
Ableitung zweigliedriger Tarife .......................................................... 166
8.5
9
Ableitung der Ramsey-Preise............................................................ 156
Nichtlineare Tarife .................................................................................... 175
Positive Theorie Öffentlicher Unternehmen ..................................................... 177
9.1
Einleitung ................................................................................................. 177
9.2
Postive Erklärungen für öffentliches Elektrizitätsversorgung .................... 179
9.3
X-Ineffizienz ............................................................................................. 181
9.4
Positive Modelle, Motive und Ansätze für bürokratische EVUs ................ 182
9.4.1
Budgetmaximierende Büros .............................................................. 185
9.4.2
Bürokratische Tarife - "Strom" und "Fernwärme"* ............................. 187
9.5
Amerikanische Regulierung ..................................................................... 189
9.6
Öffentlich versus private Organisation...................................................... 194
10
Regulierung mittels ökonomischer Anreize .................................................. 198
10.1
Demsetz-Auktion ...................................................................................... 198
10.2
Der Vorschlag von Loeb-Magat ................................................................ 199
10.3
Vogelsang-Finsinger Anreiz und Erweiterungen ...................................... 199
10.4
"Price-caps" .............................................................................................. 200
10.4.1
Ansätze zur Bestimmung des X-Faktors ........................................... 202
10.4.2
Bestimmung des X-Faktors nach Bernstein/Sappington (1999) ........ 204
10.4.3
Beispiele internationaler Anwendungen ............................................ 207
10.4.3.1
England ...................................................................................... 207
10.4.3.2
Niederlande................................................................................ 209
10.4.3.3
Norwegen................................................................................... 211
10.5
Vergleichende Konkurrenz ....................................................................... 212
10.6
Data Envelopment Analysis (DEA) ........................................................... 213
10.7
Strategisches Managementverhalten ....................................................... 217
11
Eine ökonomische Theorie der Deregulierung ............................................. 219
11.1
Eigenschaften von Kostenfunktionen (eindimensional) ............................ 220
11.2
Einführung an Hand eines Beispiels (Einproduktunternehmen) ............... 221
11.3
Ergebnisse ............................................................................................... 223
11.4
Gleichgewicht und dessen Nachhaltigkeit ................................................ 223
12
Internationale Vergleiche von Regulierungen und Erfahrungen mit
Deregulierung und Privatisierung ........................................................................... 225
12.1
International ............................................................................................. 225
12.2
Privatization: Definitions, Pros and Cons ................................................. 227
12.3
Deregulierung in den USA........................................................................ 234
12.4
Deregulierung in Großbritannien .............................................................. 239
13
Elektrizitätsmarkte: Spezifika und Erfahrungen mit Liberalisierungen ......... 241
13.1
Spezifika der Elektrizitätsversorgung ....................................................... 241
13.2
Privatisierung der englischen und walisischen Stromerzeugung .............. 244
13.3
Die kalifornische Elektrizitätskrise ............................................................ 250
13.4
Europa...................................................................................................... 254
13.4.1
France's electricity giant is being shaken up .................................... 254
13.4.2
Europe's power struggle, Jul 1st 2004, The Economist..................... 255
13.4.3 Power Struggles. Political and business interests collide as Europe's
energy firms consolidate.................................................................................. 257
13.5
Konkurrenz in Angebotsfunktionen........................................................... 258
13.6
Strategic Elements of Electricity Supply: A Simple Game Approach ........ 263
13.6.1
The Model ......................................................................................... 265
13.6.2
Concluding Remarks ......................................................................... 270
13.6.3
Annex: Application to the Nord Pool.................................................. 271
13.6.4
References ........................................................................................ 276
14
Liberalisierung des österreichischen Elektrizitätsmarktes ............................ 277
14.1
Einleitung ................................................................................................. 277
14.2
Die vergesellschaftete österreichische Elektrizitätswirtschaft ................... 277
14.2.1
Historisch und rechtliche Entwicklung nach dem 2. Weltkrieg........... 277
14.2.2
Die wirtschaftlichen Auswirkungen .................................................... 278
14.3
14.2.2.1
Preisdifferenzierungen ............................................................... 278
14.2.2.2
Benachteiligung des Gewerbes ................................................. 278
14.2.2.3
Mangelnde überregionale Koordination ..................................... 279
14.2.2.4
Durchschnittserlöse, Kosten und Vergleiche.............................. 280
Der liberalisierte österreichische Elektrizitätsmarkt .................................. 281
14.3.1
Der Weg zur Liberalisierung .............................................................. 281
14.3.2
Der Schiedsrichter............................................................................. 282
14.3.3
Die Spieler......................................................................................... 284
14.3.4
Öffentliche Hand ............................................................................... 288
14.4
Wirtschaftliche Auswirkungen der Liberalisierung .................................... 288
14.4.1
Verhalten der EVUs .......................................................................... 288
14.4.1.1
Preiswettbewerb ........................................................................ 288
14.4.1.2
Produktdifferenzierung ............................................................... 292
14.4.1.3
Nichtlineare Tarife ...................................................................... 294
14.4.2 Überregionale
Koordination:
Strombörse
und
Kraftwerkseinsatzoptimierung ......................................................................... 295
14.4.3
Netzdurchleitungstarife ..................................................................... 296
14.5
Zusammenfassung und Schlussfolgerungen ........................................... 299
14.6
Bibliographie ............................................................................................ 302
15
Versorgungssicherheit ................................................................................. 305
15.1
Ein Modell ................................................................................................ 307
15.2
Optimale Versorgung ............................................................................... 311
15.3
Die österreichische Energieversorgung als Beispiel................................. 313
15.4
Zusammenfassung ................................................................................... 319
16
Einige mathematische Grundlagen .............................................................. 322
16.1
Sätze aus der Analysis ............................................................................. 322
16.1.1
Enveloppentheorem .......................................................................... 325
16.1.2
Leibnizsche Regel: ............................................................................ 326
16.2
Nichtlineare Optimierung .......................................................................... 327
16.2.1
Das Problem von Lagrange............................................................... 327
16.2.2
Das Theorem von Kuhn – Tucker ..................................................... 332
16.2.3
Ökonomische Nachfragetheorie ........................................................ 334
Einleitung
9
David S. Landes, The Wealth and Poverty of Nations. (1999, p 40-41). All economic [industrial] revolutions have at their core an enhancement of the supply of energy, because this
feeds and changes aspects of human activity.
1 Einleitung und historischer Rückblick
Die Energiepolitik bzw. energiewirtschaftliche Aspekte, standen und stehen im Brennpunkt
öffentlicher Diskussionen, sowohl was die Turbulenzen auf den internationalen Märkten als
auch die nationalen Entscheidungen betrifft. Dabei führt die Betonung technischer und juristischer Details zu Lasten grundlegender ökonomischer Zusammenhänge zu zahlreichen Missverständnissen. Der Arbeitsbereich Energiewirtschaft als eigener Teilbereich im internationalen Wissenschaftsgefüge verdankt diesen Umstand - neben dem hohen Maße an Interdisziplinarität, wie die Verknüpfung von Wirtschafts- und Ingenieurwissenschaften und der politischen Aktualität - dem Zusammentreffen von drei für die Energiewirtschaft charakteristischen
Problemkreisen:
Abbildung 1: Charakteristische Problemfelder der Energiewirtschaft
1.1
Ressourcen
Die Energiewirtschaft verarbeitet zum Großteil fossile Brennstoffe, die aus beschränkten und
nicht erneuerbaren Ressourcen gefördert werden. Die folgende Abbildung zeigt die Zusammensetzung und Entwicklung des primären Energieverbrauches.
Der überwiegende Teil (über 90 %) der momentan eingesetzten Energieträger wird durch den
Abbau finiter, nicht erneuerbarer Ressourcen gewonnen: z. B. Kohle, Erdöl, Erdgas, Uran.
Selbst eine Berücksichtigung aller nicht-kommerziellen (meist Holz und daher erneuerbaren)
Energieformen (insbesondere in den Entwicklungsländern) ändert an diesem Bild wenig. Die
Ressourcetheorie, oder genauer die Theorie optimaler Ressourceförderung, hilft, die grundsätzlichen und dabei dynamischen Zusammenhänge zu verstehen. Erdöl ist dabei der dominierende Energieträger und bei weitem der bedeutendste Rohstoff im internationalen Handel.
Das Charakteristikum, dass finite Ressourcen die Grundlage der Energiewirtschaft bilden,
führt zu interessanten theoretischen Überlegungen. Insbesondere versucht die Ressourcetheorie, oder genauer die Theorie optimaler Ressourceförderung, die grundsätzlichen und essentiell dynamischen Zusammenhänge zu verstehen. Diese Theorie, geht mit Ausnahme zweier
(ignorierten) Vorläufer, Gray (1913) und Hotelling (1931), auf Arbeiten seit 1974 zurück; d.
Einleitung
10
h. es handelt sich um eine relativ junge Theorie. Das Jahr 1974 ist natürlich kein Zufall, sondern wurde durch die drastische Preiserhöhung der Rohölpreise durch die Organisation erdölexportierender Länder, kurz OPEC, motiviert. Tatsächlich erfuhr allgemein die Betrachtung
energiewirtschaftlicher Probleme eine drastische Aufwertung als die OPEC (Organisation of
Petroleum Exporting Countries) Ende 1973 die Preise für Erdöl vervierfachte. Dies führte
dann in der Folge 1975 zur schwersten Rezession nach dem zweiten Weltkrieg und zu ähnlichen wirtschaftlichen Effekten anlässlich des zweiten Erdölpreissprungs 1979/80. Die folgende Abbildung zeigt die historische Entwicklung, wobei seit kurzem ein starker Einbruch an
Ölpreisen, aber auch bei den anderen Energieträgern zu beobachten ist.
Abbildung: Zusammensetzung des globalen Primärenergieverbrauches
Abbildung: Anteil an Kernenergie zur Stromerzeugung
Einleitung
11
Die Abb. 4 zeigt die Entwicklung des globalen Ölbedarfes und den Anteil, der aus OPECLändern stammt. Die Tatsache, dass der Output der OPEC mit dem Bedarf schwankt, aber
alle anderen Produzenten unverändert produzieren, drückt die Marktbeherrschung durch die
OPEC aus. Die Dominanz der OPEC ist sowohl bei den bewiesenen Reserven als auch bei
den vermuteten Ressourcen noch bedeutender als bei der Förderung, siehe Abbildung x.
Abbildung 3a: Historische Entwicklung des Rohölpreises
80
60
50
-0
5
ov
.
D 05
ec
-0
Ja 5
n0
Fe 6
b.
0
M 6
ar
-0
Ap 6
r.0
M 6
ay
-0
Ju 6
n.
06
Ju
l.0
Au 6
g.
0
Se 6
p.
06
N
ct
O
p.
Se
g.
05
05
40
Au
$/b
70
Abbildung 2: Jüngste Entwicklung der Rohölpreise
(Quelle: www.opec.rg)
Einleitung
12
Abb.: Prognosen sind determiniert durch den Startpunkt und „falsch“
50000
45000
NonOPEC
40000
35000
30000
25000
OPEC
20000
15000
10000
5000
0
Abbildung 4: World Oil Production – OPEC versus NONOPEC (1965 – 2005), 1000b/d
Observe the smooth Non-OPEC production profile, while OPEC has to ‘bear’ all the variations in demand.
Einleitung
13
OPEC – Member Countries (13):
America:
Africa:
Middle East:
Pacific:
Venezuela
Ecuador (after suspending 1997-2007)
Algeria
Libya
Nigeria
Angola (joined in 2007)
Saudi Arabia
Iraq
Iran
Kuwait
United Arab Emirates
Qatar
Indonesia
Re(Ende
in MilFaß
serven
2005)
liarden
(Quelle: BP Statistical Review of World Energy)
Einleitung
14
Handel (Export): (Quelle: BP Statistical Review of World Energy)
A damning verdict, Aug 25th 2004, from The Economist
America’s Securities and Exchange Commission has issued a damning report into Shell’s overstatement of its oil
reserves, which finds that the cover-up was older and more widespread than the company had previously
6
acknowledged. The SEC and British
7
regulators have also jointly fined Shell
8
$150m
9
10
11
12
13
14
15
16
17
18
COMPANIES that find themselves in
trouble these days tend to adopt one of
two tactics. The first is to raise the drawbridge and unite against the enemy. The
second, increasingly popular, is to identify the scapegoats and toss them over the
battlements to the baying hordes—
regulators, irate shareholders and so
on—in the hope that such a sacrifice will
save the city.
19
Royal Dutch/Shell tried both. At first,
when the energy giant revealed in January that its proven oil reserves were overstated by 20%, its then chairman,
Sir Philip Watts, did not even deign to speak to analysts about it. Despite the fact that he had been head of exploration during the over-booking, he insisted that he would remain in his job. But after a preliminary investigation
by the board, he and Walter van de Vijver, his successor in exploration, were kicked out in March. A report
commissioned by Shell from a law firm and released in April showed why: both men had been aware of the
overstatement for at least a couple of years.
Now, Shell’s attempt to put an end to the crisis by blaming the two men has been undermined by a report from
America’s Securities and Exchange Commission (SEC). The report, which accompanies a fine of $150m, issued
jointly with Britain’s Financial Services Authority (FSA), makes it clear that the overstatement of reserves dates
back to 2000—two years earlier than had been thought. Moreover, the report indicates that the culture of excessive optimism about reserves and of deliberately flouting the SEC’s own, rather conservative, guidelines, spread
throughout the Anglo-Dutch group.
Einleitung
15
As is usual in civil investigations, Shell has admitted no liability while agreeing to the joint fine. The FSA’s
portion, £17m ($30m) for “market abuse”, though small compared with the SEC’s, is big by British standards.
Both fines would have been higher still had it not been for Shell’s co-operation with investigators.
But this is far from the end of Shell’s travails. The SEC’s investigation is continuing. Harold Degenhardt, administrator of the commission’s Fort Worth office, said the next stage would focus on the individuals responsible for
the overstatement. The FSA has finished its inquiry into Shell the company, but it too may now scrutinise the
behaviour of individual managers. In the Netherlands, the markets regulator is examining whether there was any
insider trading by Shell officers.
The report shows where these further investigations can start. As early as 1997, the company approved new, less
conservative, guidelines for booking reserves. The FSA reckons that Shell disseminated “false or misleading”
information on the extent of its proved reserves as early as 1998. And the report discloses that Shell’s reserves
auditor, though often even more bullish than local managers, gave a warning about the reserves in three internal
reports without eliciting a response from other executives. The first internal warning of a possible overstatement
came in 2000—two years earlier than Shell had acknowledged in its own investigation.
These findings should give ammunition to the crowds of shareholders seeking damages from Shell and/or its
current and former executives. Bill Lerach, whose law firm has launched a suit against Shell’s directors and
executives and PricewaterhouseCoopers and KPMG, its auditors, slammed the fine, which he said should have
been paid by the executives responsible, and not by the company. Moreover, he argued that “the settlement includes no promise of changes in the way the Royal Dutch/Shell Group operates.”
While Mr Lerach clearly has an interest in promoting the idea that Shell remains unreformed, he is not alone in
that belief. Many shareholders have been lobbying Royal Dutch/Shell to unite its two boards. (Royal Dutch,
based in the Netherlands, owns 60% of the shares, while London-based Shell Transport and Trading owns 40%.
Operating units report to both companies.) Critics say this structure creates overlap and confusion. But despite
recent reports to the contrary, there are no signs that Shell is about to change it.
This has led to talk—previously unthinkable—that the disarray at Shell could make it the target of a takeover.
One analyst has even raised the possibility of a merger with BP, its British arch-rival. Such a get-together would
probably invite the attention of antitrust regulators, as would a deal with Exxon Mobil. However, Total, the
French national champion, could see a takeover of Shell as a fitting encore to its well-executed acquisition of
Elf. Moreover, because Total has only a modest presence in America, it might be viewed more favourably by
regulators.
Die Bedeutung des Erdölmarktes und der mit Produktion und Verarbeitung betrauten Firmen
ist gewaltig. Unter den zehn größten Firmen der Welt, wie sie jährlich in FORTUNE's 500
gelistet werden, sind immer mehrere Ölgesellschaften; EXXON war sogar mehrmals das
größte Unternehmen der Welt vor General Motors. Weiter stellt der Erdölmarkt bei weitem
den wichtigsten internationalen Güterhandel dar. Jedoch die lokale Bedeutung nationaler
Energieversorgungsunternehmen in energieimportierenden Ländern ist gering; siehe folgende
Diskussion und Tabelle 1.
Einleitung
16
Tabelle 1: Fortune’s 500, http://www.fortune.com/lists/G500/
1
2
3
4
5
6
7
8
9
10
1.2
Exxon Mobil
Wal-Mart Stores
Royal Dutch Shell
BP
General Motors
Chevron
DaimlerChrysler
Toyota Motor
Ford Motor
ConocoPhillips
Revenues
Profits
339,938.0 36,130.0
315,654.0 11,231.0
306,731.0 25,311.0
267,600.0 22,341.0
192,604.0 -10,567.0
189,481.0 14,099.0
186,106.3
3,536.3
185,805.0 12,119.6
177,210.0
2,024.0
166,683.0 13,529.0
Umwelt
Ein in der Öffentlichkeit aktuelles Diskussionsthema ist der Umweltschutz, der besonders
häufig in Verbindung mit energiewirtschaftlichen Fragen diskutiert wird. Umweltschutz beziehungsweise Schadstoffbelastungen werden allgemeiner unter dem Sammelbegriff externe
Effekte betrachtet. Das zentrale Wohlfahrtstheorem der Ökonomie besagt, dass dezentrale
Entscheidungen eine effiziente Allokation zustande bringen, wenn keine externen Effekte
vorliegen. Externe Effekte treten auf, wenn der Konsum oder die Verwendung eines Gutes
einen Einfluss auf Andere hat (Nachbarschaftsteffekte). Ein positives Beispiel ist ein Imker,
der den Output des benachbarten Obstbauern positiv beeinflusst. Eine negative Externalität
entsteht einer Wäscherei, wenn daneben eine Fabrik Schmutz emittiert. Unter diesen Rahmenbedingungen führen egoistische Motive der Beteiligten zu "falschen" Allokationen: Güter, die einen Teil ihrer Produktionskosten externalisieren können, werden zuviel angeboten
(da ihr Preis nicht die externen Kosten berücksichtigen muss), und bei Gütern mit positiven
Nachbarschaftseffekten tritt eine "Unterversorgung" auf. Dies, so scheint, rechtfertigt öffentliche Intervention. Diese Ansicht wird jedoch nicht allgemein geteilt. Buchanan-Tullock
(1962) verweisen darauf, dass durch Internalisierung externer Effekte ein Nettogewinn möglich ist, wodurch alle Beteiligten profitieren könnten. Somit sind private Übereinkommen im
Prinzip möglich, um externe Effekte (sogar einstimmig) zu lösen. Dieses Theorem wird oft als
Coase Theorem bezeichnet; nach Coase's Diskussion externer Verschmutzungseffekte, Coase
(1960). Nur wenn die privaten Übereinkommen zu kostenintensiv werden, kann man die prinzipiell auch privat lösbare Frage als ein Problem der sozialen Wahl sehen.
Die Erzeugung und auch Verwendung von Brennstoffen verursacht unterschiedlichste Externalitäten, d. h. Auswirkungen auf Unbeteiligte, z. B. Umweltverschmutzung, sowohl hinsichtlich Schadstoffbelastung als auch Landschaftsschutz. Die Abb. 4 zeigt die Umweltbelastung
in Deutschland nach Verursachern, wobei die üblichen Schadstoffe berücksichtigt werden.
Dabei ist nicht nur die direkt durch die Energiewirtschaft verursachte Belastung zu betrachten,
sondern auch die indirekte durch Industrie, Gewerbe und Haushalte durch Verwendung von
Brennstoffen.
Einleitung
17
Abbildung 3: Schadstoffbelastung und Verursacher – Österreich (Quelle: UBA)
Das im Moment aktuellste und viel diskutierteste Problem ist das Treibhausproblem, das
vorwiegend durch die CO2-Emissionen verursacht werden. Dabei ist zu beachten, dass CO2
medizinisch gesehen kein Schadstoff ist, und dass das Problem darin besteht, dass diese
Emissionen in nicht (hinreichend) abgebaut werden sondern in der Atmosphäre akkumulieren.
Dem Aspekt der Umweltbelastung kommt eine wichtige Rolle in der Behandlung von energiewirtschaftlichen Problemen zu. Daher beschäftigt sich Energiewirtschaft, großteils in interdisziplinärer Zusammenarbeit mit anderen Wissenschaften (Medizin, Meteorologie, Chemie,
Verfahrenstechnikern usw.) mit Fragen der Bewertung von Schadstoffbelastungen und der
Frage nach effizienten Instrumenten (Gesetze, Steuern, Eigentumsrechte über Verschmutzung
usw.) der Umweltpolitik. Im Kapitel 3 wird versucht, an Hand eines Beispiels diese Fragen
abzuarbeiten.
Einleitung
Tabelle: Pro-Kopf CO2 Emissionen
18
Einleitung
1.3
19
Öffentliche Wirtschaft, Regulierung und Politik
Die energiewirtschaftlichen Unternehmungen, insbesondere die Elektrizitätsversorgungsunternehmen sind öffentliche Firmen. Diese Situation ist in allen Industrieländern gegeben; nur
Großbritannien weicht seit der jüngsten Privatisierung etwas von dieser Norm ab. Es ist ein
Phänomen innerhalb der westlichen Industriestaaten, dass Energieversorgungsunternehmen
international als öffentliche Firmen eingerichtet sind, obwohl sonstige Industrien mehr oder
weniger den Marktgesetzen überlassen werden. Die Tabelle 1 vergleicht den Anteil öffentlicher bzw. regulierter Unternehmen in verschiedenen Ländern. Bei diesem Vergleich ist zu
berücksichtigen, dass die meisten öffentlichen Firmen (public utilities) in den USA in privater
Hand sind; z. B. über 70 % der amerikanischen Elektrizitätsversorgung werden von privaten
Unternehmen bestritten. Diese, wie auch andere öffentliche Firmen unterliegen jedoch starken
Regulierungsvorschriften. Die Abb. 5 zeigt den Anteil des öffentlichen Sektors in den Vereinigten Staaten. Die Tabelle 2 zeigt den öffentlichen Einfluss in disaggregierter Form.
Gesamt (a)
Energie (b)
Deutschland
12,0
2,8
Frankreich
13,0
2,1
Großbritannien
11,1
2,8
USA
13,8 (c)
3,0
Land
(a) Michel (1981) (b) United Nations (1984) (c) Bös (1986)
Tabelle 1: Anteil der öffentlichen Wirtschaft und der EVUs am BIP % vor den Liberalisierungen (ausgenommen Großbritannien) – repräsentativ für 20. Jhdt.
Abbilung 5: Anteil öffentlicher Unternehmen am B.I.P. – USA
Einleitung
20
Land
Post Telekom Strom Gas Öl
Kohle Bahn
Fluglinien Auto Stahl
Werft
Österreich
1
1
1
1
1
1
1
1
1
1
Frankreich
1
1
1
1
1
1
>½
½
>½
0
BRD
1
1
>½
½
½
1
1
¼
0
¼
Niederlande
1
1
>½
>½
1
>½
½
¼
0
Italien
1
1
>½
1
1
1
¼
>½
>½
Japan
1
½
0
0
0
>½
¼
0
0
0
Spanien
1
½
0
>½
½
1
1
0
½
>½
Schweden
1
1
½
1
1
1/2
0
>½
>½
GB
1
0
1
0
0
1
1
>½
½
>½
1
USA
1
0
1/4
0
0
0
¼
0
0
0
0
1
¼
Tabelle 2: Anteil des Öffentlichen Eigentums an Industriebranchen vor den großen Liberalisierungen und damit repräsentativ zumindest für 20. Jhdt. nach dem 2. Weltkrieg (Quelle:
Amex Bank Review, nach: Kurier, 27. Sept. 1987).
1.4
World Energy Outlook 2030 (IEA, 2002)
This edition of the World Energy Outlook, which sets out the IEA’s latest energy projections
to 2030, depicts a future in which energy use continues to grow inexorably, fossil fuels continue to dominate the energy mix and developing countries fast approach OECD countries as
the largest consumers of commercial energy. The Earth’s energy resources are undoubtedly
adequate to meet rising demand for at least the next three decades. But the projections in this
Outlook raise serious concerns about the security of energy supplies, investment in energy
infrastructure, the threat of environmental damage caused by energy production and use and
the unequal access of the world’s population to modern energy.Governments will have to take
strenuous action in many areas of energy use and supply if these concerns are to be met.The
core projections presented here are derived from a Reference Scenario that takes into account
only those government polices and measures that had been adopted by mid-2002. A separate
Alternative Policy Scenario assesses the impact of a range of new energy and environmental
policies that OECD countries are considering adopting as well as of faster deployment of new
energy technologies. Both scenarios confirm the extent of the policy challenges facing governments around the world.
A key result of the Outlook is that energy trade will expand rapidly. In particular, the
major oil- and gas-consuming regions will see their imports grow substantially. This
trade will increase mutual dependence among nations. But it will also intensify concerns
about the world’s vulnerability to energy supply disruptions, as production is increasingly
concentrated in a small number of producing countries. Supply security has moved to the top
of the energy policy agenda. The governments of oil- and gas-importing countries will need to
take a more proactive role in dealing with the energy security risks inherent in fossil-fuel
trade. They will need to pay more attention to maintaining the security of international
sealanes and pipelines. And they will look anew at ways of diversifying their fuels, as well as
Einleitung
21
the geographic sources of those fuels. The OECD Alternative Policy Scenario demonstrates
the strong impact that new policies to curb energy demand growth and encourage switching
away from fossil fuels could have on import dependence. Governments and consumers are,
nonetheless, likely to continue accepting a degree of risk in return for competitively priced
energy supplies.
Necessary expansion of production and supply capacity will call for massive investment
at every link in the energy supply chain.Investment of almost $4.2 trillion will be needed
for new power generation capacity alone between now and 2030. Mobilising this investment
in a timely fashion will require the lowering of regulatory and market barriers and the creation
of an attractive investment climate – a daunting task in many countries in the developing
world and the former Soviet Union. Most investment will be needed in developing countries,
and it is unlikely to materialise without a huge increase in capital inflows from industrialised
countries.
Energy-related emissions of carbon dioxide are set to grow slightly faster than energy
consumption in the Reference Scenario, despite the policies and measures taken so far.In
the Alternative Policy Scenario, however, new policies that many OECD countries are currently considering, together with faster deployment of more efficient and cleaner technologies, would achieve energy savings and promote switching to less carbon-intensive fuels.
These developments would eventually stabiliseCO2 emissions in OECD countries, but only
towards the end of the Outlook period.
More than a quarter of the world’s population has no access to electricity, and two-fifths
still rely mainly on traditional biomass for their basic energy needs. Although the number
of people without power supplies will fall in the coming decades, a projected 1.4 billion people will still be without electricity in 2030. And the number of people using wood, crop residues and animal waste as their main cooking and heating fuels will actually grow. To extend
electricity supplies to the energy poor and give them better access to other forms of modern
energy, stronger government policies and co-ordinated international action will be essential.
Fossil Fuels Will Continue to Dominate Global Energy Use
World energy use will increase steadily through 2030 in the Reference Scenario. Global
primary energy demand is projected to increase by 1.7% per year from 2000 to 2030, reaching
an annual level of 15.3 billion tonnes of oil equivalent. The increase will be equal to twothirds
of current demand. The projected growth is, nevertheless, slower than growth over the past
three decades, which ran at 2.1% per year.
Fossil fuels will remain the primary sources of energy, meeting more than 90%of the
increase in demand. Global oil demand will rise by about 1.6% per year, from 75 mb/d
in 2000 to 120 mb/d in 2030.Almost three-quarters of the increase in demand will come from
the transport sector. Oil will remain the fuel of choice in road, sea and air transportation. As a
result, there will be a shift in all regions towards light and middle distillate products, such as
gasoline and diesel, and away from heavier oilproducts, used mainly in industry. This shift
will be more pronounced in developing countries, which currently have a lower proportion of
transportation fuels in their product mix.
Einleitung
22
Demand for natural gas will rise more strongly than for any other fossil fuel. Primary gas
consumption will double between now and 2030, and the share of gas in world energy demand will increase from 23% to 28%. New power stations will take over 60% of the increase
in gas supplies over the next three decades. Most of these stations will use combined-cycle
gas turbine technology, a form of generation favoured for its high energyconversion efficiency and low capital costs. Gas is also often preferred to coal and oil for its relatively benign
environmental effects, especially its lower carbon content.
Consumption of coal will also grow, but more slowly than that of oil and gas. China and
India together will account for two-thirds of the increase in world coal demand over the projection period. In all regions, coal use will become increasingly concentrated in power generation, where it will remain the dominant fuel. Power-sector coal demand will grow with the
expected increase in gas prices. The deployment of advanced technologies will also increase
coal’s attractiveness as a generating fuel in the long term.
The role of nuclear power will decline markedly, because few new reactors will be built
and some will be retired. Nuclear production will peak at the end of this decade, then decline
gradually. Its share of world primary demand will hold steady at about 7% through 2010, then
fall to 5% by 2030. Its share of total electricity generation will fall even faster, from 17% in
2000 to 9% in 2030. Nuclear output will increase in only a few countries, mostly in Asia. The
biggest declines in nuclear production are expected to occur in North America and Europe.
The prospects for nuclear power are particularly uncertain. Some governments have expressed
renewed interest in the nuclear option as a means to reduce emissions and to improve security
of supply.
Renewable energy will play a growing role in the world’s primary energy mix. Hydropower has long been a major source of electricity production. Its share in global primary energy will hold steady, but its share of electricity generation will fall. Non-hydro renewables,
taken as a group, will grow faster than any other primary energy source, at an average rate of
3.3% per year over the projection period. Wind power and biomass will grow most rapidly,
especially in OECD countries. But non-hydro renewables will still make only a small dent in
global energy demand in 2030, because they start from a very low base. OECD countries,
many of which have adopted strong measures to promote renewables-based power projects,
will account for most of the growth in renewables.
Demand Will Rise Fastest in Developing Countries...
More than 60% of the increase in world primary energy demand between 2000 and 2030
will come from developing countries, especially in Asia. These countries’ share of world
demand will increase from 30% to 43%. The OECD’s share will fall from 58% to 47%. The
share of the former Soviet Union and Eastern and Central Europe (the transition economies)
will fall slightly, to 10%. The surge in demand in the developing regions results from their
rapid economic and population growth. Industrialisation and urbanisation will also boost demand. The replacement of traditional biomass by commercially traded energy will increase
recorded demand. Higher consumer prices as energy subsidies are phased out and international prices rise, are not expected to curb energy demand growth.
China, already the world’s second-largest energy consumer, will continue to grow in
importance on world energy markets as strong economic growth drives up demand and
Einleitung
23
imports. The Chinese economy will remain exceptionally dependent on coal, but the shares
of oil, natural gas and nuclear will grow in China’s energy mix. Increasing oil- and gasimport
needs will make China a strategic buyer on world markets.
...and Transport Uses Will Outstrip All Others
Transport demand, almost entirely for oil, will grow the most rapidly of all end-use sectors, at 2.1% per annum. It will overtake industry in the 2020s as the largest final-use
sector. Transport demand will increase everywhere, but most rapidly in the developing countries. OECD transport demand will grow at a slower pace, as markets become more saturated.
Consumption in the residential and services sectors will grow at an average annual rate of
1.7%, slightly faster than in industry, where it will rise by 1.5% per year.
Electricity will grow faster than any other end-use source of energy, by 2.4% per year
over the Outlook period. World electricity demand will double through 2030, while its share
of total final energy consumption will rise from 18% in 2000 to 22% in 2030. The biggest
increase in demand will come from developing countries. Electricity use increases most rapidly in the residential sector, especially in developing countries. But the huge difference in per
capita electricity consumption between the OECD and developing countries will hardly
change over the projection period. The shares of oil and gas in world final consumption will
also remain broadlyunchanged. Oil products will account for roughly half of final energy use
in 2030. The share of coal will drop from 9% to 7%. Coal use will expand in industry, but
only in non-OECD countries. It will stagnate in the residential and services sectors.
Fossil Energy Resources Are Ample, but Technologies and Supply Patterns Will Change
The world’s energy resources are adequate to meet the projectedgrowth in energy demand. Oil resources are ample, but more reserves will need to be identified in order to meet
rising oil demand to 2030. Reserves of natural gas and coal are particularly abundant, while
there is no lack of uranium for nuclear power production. The physical potential for renewable energy production is also very large. But the geographical sources of incremental energy
supplies will shift over the next three decades, in response to cost, geological and technical
factors. In aggregate, almost all the increase in energy production will occur in non-OECD
countries, compared to just 60% from 1971 to 2000.
Increased production in the Middle East and the former Soviet Union, which have massive hydrocarbon resources, will meet much of the growth in world oil and gas demand.
Most of the projected 60% increase in global oil demand in the next three decades will be met
by OPEC producers, particularly those in the Middle East. Output from mature regions such
as North America and the North Sea will gradually decline. More oil will become available
from Russia and the Caspian region, and this will have major implications for the diversity of
supply sources for oil-importing countries.
Global crude oil refining capacity is projected to increase by an average 1.3% a year,
reaching 121 mb/d in 2030. The growth of capacity will be slightly less than that of demand
for refined products, because of increased utilisation rates and the elimination of some refinery bottlenecks. Over 80% of new refining capacity will be built outside the OECD, much of
it in Asia. Refineries will have to boost their yields of transportation fuels relative to heavier
oil products, as well as improve product quality.
Einleitung
24
Production of natural gas, resources of which are more widely dispersed than oil, will
increase in every region other than Europe. The cost of gas production and transportation
is likely to rise in many places as low-cost resources close to markets are depleted and supply
chains lengthen.
There are abundant coal reserves in most regions. Increases in coal production, however,
are likely to be concentrated where extraction, processing and transportation costs are lowest
— in South Africa, Australia, China, India, Indonesia, North America and Latin America.
New sources of energy and advanced technologies will emerge during the Outlook period. Non-conventional sources of oil, such as oil sands and gas-to-liquids, are set to expand, as
their production costs decline. Fuel cells are also projected to make a modest contribution to
global energy supply after 2020, mostly in small decentralised power plants. The fuel cells
that are expected to achieve commercial viability first will involve the steam reforming of
natural gas. Fuel cells in vehicles are expected to become economically attractive only towards the end of the projection period. As a result, they will power only a small fraction of
the vehicle fleet in 2030.
International energy trade, almost entirely in fossil fuels, will expand dramatically. Energy trade will more than double between now and 2030. All oil-importing regions – including the three OECD regions – will import more oil, mostly from the Middle East. The increase will be most striking in Asia. The biggest growth markets for natural gas are going to
become much more dependent on imports. In absolute terms, Europe will see the biggest increase in gas imports. Cross-border gas pipeline projects will multiply, and trade in liquefied
natural gas will surge.
Rising Demand Will Drive Up Carbon Dioxide Emissions
Global energy-related emissions of carbon dioxide will grow slightly more quickly than
primary energy demand. They are projected to increase by 1.8% per year from 2000 to 2030
in the Reference Scenario, reaching 38 billion tonnes in 2030. This is 16 billion tonnes, or
70% more than today. Two-thirds of the increase will come in developing countries. Power
generation and transport will account for about three-quarters of new emissions.
The geographical sources of new emissions will shift drastically, from the industrialised
countries to the developing world. The developing countries’ share of global emissions will
jump from 34% now to 47% in 2030, while the OECD’s share will drop from 55% to 43%.
China alone will contribute a quarter of the increase in CO2 emissions, or 3.6 billion tonnes,
bringing its total emissions to 6.7 billion tonnes per year in 2030. Even then, however, Chinese emissions remain well below those of the United States.
The steep rise in projected emissions in the Reference Scenario illustrates the challenge
that most OECD countries face in meeting their commitments under the Kyoto Protocol.
Emissions in those OECD countries that signed the Protocol will reach 12.5 billion tonnes in
2010, the middle of the Protocol’s target period of 2008-2012. That is 2.8 billion tonnes, or
29%, above the target. Russia, like Central and Eastern Europe, is in a very different situation,
with projected emissions considerably lower than their commitments. Under the Protocol,
lower emissions in Russia, Ukraine and Eastern Europe, known as “hot air”, can be sold to
countries with emissions over their target. But even “hot air” will not suffice to compensate
Einleitung
25
for over-target emissions in other countries. The overall gap will be about 15% of projected
emissions in 2010. If the United States, which does not intend to ratify the Kyoto Protocol, is
excluded, the gap falls to 2%.
Carbon sequestration and storage technologies hold out the longterm prospect of enabling fossil fuels to be burned without emitting carbon into the atmosphere. These technologies, however, are unlikely to be deployed on a large scale before 2030. They are at an
early stage of development and are very costly. If their costs could be lowered more quickly
than assumed here, this would have a major impact on the longterm prospects for energy supply.
Policies under Consideration in the OECD Would Curb Energy Demand and Emissions
In the Alternative Policy Scenario, implementation of policies that are already under
consideration in OECD countries would reduce CO2 emissions by some 2,150 Mt in
2030, or 16% below the Reference Scenario projections described above. This is roughly
equal to the total emissions of Germany, the United Kingdom, France and Italy today. Energy
savings achieved by the new policies and measures and by faster deployment of more efficient technologies would be 9% of projected demand in the Reference Scenario in 2030. CO2
savings would be even bigger, because of the additional impact of fuel switching to less carbonintensive fuels. Because of the slow pace at which energy capital stock is replaced,CO2
savings in the early years would be relatively small – only 3% by 2010 and 9% by 2020.
The biggest reduction in CO2 emissions in the Alternative Policy Scenario would come
from power-generation, because of the rapid growth of renewables and savings in electricity demand. OECD governments are currently emphasising renewables and electricity in
their long-term plans to curb CO2 emissions and enhance energy security. Although the three
OECD regions would still not individually reach the targets under the Kyoto Protocol, “hot
air” could allow the targets to be met.
The Alternative Scenario projections show a marked reduction in import dependence in
the major energy-importing regions. In 2030, OECD gas demand would be 260 bcm, or
13%, below the Reference Scenario. The percentage fall in imports would be even greater.
The reduction in EU gas imports by 2030 would be greater than total current imports from
Russia and Norway. The savings in oil demand would reach 10%, or 4.6 mb/d.
Providing Modern Energy to the World’s Poor Will be an Unfinished Task
Some 1.6 billion people have no access to electricity, according to data compiled specially for this study. More than 80% of the people who currently lack electricity access live in
South Asia and sub-Saharan Africa. The majority of them live on less than $2 per day, but
income is not the only determinant of electricity access. China, with 56% of its people still
“poor” by international definition, has managed to supply electricity to the vast majority of its
population.
In the absence of major new government initiatives, 1.4 billion people, or 18% of the
world’s population, will still lack electricity in 2030, despite more widespread prosperity
and more advanced technology. The number without electricity in 2030 will be 200 million
less than today, even though world population is assumed to rise from 6.1 billion in 2000 to
Einleitung
26
8.3 billion. Four out of five people without electricity live in rural areas. But the pattern of
electricity-deprivation is set to change, because 95% of the increase in population in the next
three decades will occur in urban areas.
Poor people in developing countries rely heavily on traditional biomass –wood, agricultural residues and dung –for their basic energy needs. According to information specifically collected for this study, 2.4 billion people in developing countries use only such fuels
for cooking and heating. Many of them suffer from ill-health effects associated with the inefficient use of traditional biomass fuels. Over half of all people relying heavily on biomass live
in India and China, but the proportion of the population depending on biomass is heaviest in
sub-Saharan Africa.
The share of the world’s population relying on biomass for cooking and heating is projected to decline in most developing regions, but the total number of people will rise. Most
of the increase will occur in South Asia and sub-Saharan Africa. Over 2.6 billion people in
developing countries will continue to rely on biomass for cooking and heating in 2030.
That is an increase of more than 240 million, or 9%. In developing countries, biomass use will
still represent over half of residential energy consumption at the end of the Outlook period.
Lack of electricity exacerbates poverty and contributes to its perpetuation, as it precludes most industrial activities and the jobs they create. Experience in China and elsewhere demonstrates how governments can help expand access to modern sources of energy.
But electrification and access to modern energy services do not per se guarantee poverty alleviation. A variety of energy sources for thermal and mechanical applications are needed to
bring productive, income-generating activities to developing countries. Nonetheless, because
biomass will continue to dominate energy demand in these countries in the foreseeable future,
the development of more efficient biomass technologies is vital for alleviating poverty in rural
areas. Renewable energy technologies such as solar, wind and biomass may be cost-effective
options for specific off-grid applications, but conventional fuels and established technologies
are more likely to be preferred for ongrid capacity expansion.
1.5
Investment
The World Energy Investment Outlook (released November 4, 2003) builds on the World
Energy Outlook 2002 to present a detailed analysis of the global energy investment challenge.
The study assesses the amount of investment that will be needed across the energy supply
chain by fuel – oil, gas, coal, electricity and renewables – for each world region up to 2030. It
also identifies the obstacles that must be overcome to mobilise this investment so as to meet
anticipated demand and ensure long-term energy supply security.
The World Energy Investment Outlook includes analyses of the investment implications of a
range of alternative scenarios and policy options, including restricted investment in Middle
East oil production capacity, stricter environmental policies, measures to achieve universal
access to electricity and carbon sequestration technologies.
The study’s findings will help policymakers and investors understand the opportunities and
risks of the energy world as it is shaping up and so contribute to their decisions, including
decisions designed to alter the emerging trends. We believe that World Energy Investment
Einleitung
27
Outlook is essential reading for energy policymakers, investment planners and those concerned with the evolution of the global energy system and the long-term security of energy
supply.
Energy Investment by Region (2001-2030)
Fuel Share in Energy Investment Requirements (2001 - 2030)
The IEA’s Economic Analysis Division led the World Energy Investment Outlook project in
collaboration with some 20 energy experts from other divisions of the IEA. The study team
also benefited from substantial support provided by many government bodies, international
organisations and energy companies worldwide, notably the US Department of Energy, the
Ministry of Petroleum and Energy of Norway, the World Bank, the Organisation of Petroleum
Exporting Countries (OPEC), the World Energy Council, the World Coal Institute, BP and
Electricité de France (EdF). Many other experts commented on the underlying analytical work
Einleitung
28
and reviewed early drafts of each chapter. Their comments and suggestions were of great value.
Table: Global Energy Investment by Fuel and Supply Chain Componet (2001-2030)
Investment
2001-2030
$ billion
Annual Investment
$ billion
x
x
x
x
x
x
X
X
x
X
Pipelines
Exploration and development
Transmission and storage
LNG
x
X
x
X
x
X
x
X
Distribution
Mining
Port capacity
Shipping
Generating Capacity
Refurbishment
Transmission
Distribution
x
x
x
x
x
x
x
x
X
X
X
X
X
X
X
X
Fuel
Supply chain element
Oil
Exploration and development
Non-conventional Oil
GTL
Refining
Tankers
Gas
Coal
Electricity
1.6
Ausblick auf den Kurs
Von diesen drei Themenbereichen

Optimale Ressourceförderung

Externe Effekte: Umweltschutz und Versorgungssicherheit

Öffentliche Firmen
werden im Rahmen dieser Vorlesung vorwiegend der erste und der letzte behandelt.
Die Grundlage ökonomischer Theorie ist die Charakterisierung menschlichen Handelns aus
dem Gesichtspunkt der Rationalität. Das Individuum ist fähig, all seine Wünsche zu vergleichen und unter gegebenen Randbedingungen, etwa verfügbares Einkommen, eine rationa-
Einleitung
29
le Entscheidung zu fällen. In anderen Worten, ökonomische Analysen unterstellen den Individuen und Entscheidungsträgern ein Optimierungskalkül, meist ein egoistisches. Dies schließt
jedoch Altruismus nicht aus, siehe z. B. Becker (1981), der Familientscheidungen - Heiraten,
Kinder zeugen, Scheidung, Vererben etc. - als Ergebnis eines individuellen ökonomischen
Kalküls sieht.
Administrative Spezifika und juristische Rahmenbedingungen sowie Buchhaltung, Kostenrechnung und Investitionsrechnung wurden bereits im Grundstudium erarbeitet und daher hier
nicht weiter angesprochen. Jedoch werden zu Beginn die
notwendigen mathematischen Hilfsmittel wiederholt, insbesondere das Prinzip nichtlinearer
Optimierung.
Das Ziel dieser Vorlesung ist es, etwaige Defizite an ökonomischem Verständnis zu beseitigen. Dabei sind drei Spezialgebiete von eminenter Bedeutung für die Energiewirtschaft und
rechtfertigen die separate Behandlung dieser wichtigen Märkte.
1.7
Appendix
1.7.1 OPEC and other international organizations (www.opec.org)
OPEC came into being as a result of a joint action undertaken by several countries which are members of the
United Nations. The treaty establishing OPEC was registered at the United Nations Secretariat on 6 November
1962, under No. 6363. Later, OPEC also established relations with the Economic and Social Council (ECOSOC)
under UN Resolution 1053, adopted on 30 July 1965.
The OPEC Founder Members, in establishing OPEC, acted in strict observance of the UN principles and purposes. As a result of the absolute conformity between the principles and purposes of the UN and those of OPEC,
the OPEC Secretariat has become a regular participant in meetings of various organs, bodies and specialized
agencies of the United Nations, particularly the United Nations Conference on Trade and Development
(UNCTAD), the World Bank and the International Monetary Fund. OPEC also attends meetings of other
important international organizations.
Throughout its existence, OPEC has promoted the ideals of the UN, a landmark being the 'Solemn Declaration'
adopted in 1975 by the First Conference of Sovereigns and Heads of State of OPEC Member Countries, in which
they stressed that world peace and progress depended on mutual respect for the sovereignty and equality of all
members of the international community, in accordance with the UN Charter, and emphasized that the basic
statements of the 'Solemn Declaration' fell within the context of the decisions taken at the Sixth Special Session
of the UN General Assembly on problems of raw materials and development.
OPEC, as an intergovernmental organization, has a paramount concern for the problems affecting the developing
countries in particular and the international community in general. Inspired by the 'Solemn Declaration', seven
OPEC Member Countries participated in the meetings of the Conference on International Economic Co-operation
(CIEC), the socalled 'North-South Dialogue', with other developing countries and eight major industrialized nations,
with a view to achieving a more equitable distribution of the world's wealth and natural resources.
The Organization also demonstrated its concern for the plight of those developing countries most seriously affected by economic stress, by establishing in 1976 the OPEC Fund (see pages 22-24), and by playing a leading role in
the setting up and financing of the International Fund for Agricultural Development (IFAD), whose first Governing Council
met in Rome on 13 December 1977. IFAD's first Executive Board also included OPEC Member Countries, which have
one-third of the seats and the voting power.
Thus, the pattern of relationships established between OPEC and the developing countries on the one side
and the developed countries on the other within the framework of international fora will, it is hoped, serve to promote
Einleitung
30
international co-operation in achieving higher standards of living for all nations, full employment, and economic and
social progress and development.
Membership
The OPEC Statute stipulates that 'any country with a substantial net export of crude petroleum, which has
fundamentally similar interests to those of Member Countries, may become a Full Member of the Organization, if accepted by a majority of three-fourths of Full Members, including the concurring votes of all Founder
Members.' The Statute further distinguishes between three categories of Membership: Founder Member, Full
Member and Associate Member.
Founder Members of the Organization are those countries which were represented at the OPEC First Conference,
held in Baghdad, and which signed the original agreement establishing OPEC (see below). Full Members are
the Founder Members, plus those countries whose applications for Membership have been accepted by the Conference. An Associate Member is a country which does not qualify for full membership, but which is nevertheless admitted under such special conditions as may be prescribed by the Conference.
The Organization now has 11 Member Countries. They are listed below with their years of accession.
Founder Members
Year of accession
Islamic Republic of Iran
Iraq
Kuwait
1960
Saudi Arabia
Venezuela
Full Members
Qatar
Indonesia
Socialist People's Libyan Arab Jamahiriya
United Arab Emirates
Algeria
Nigeria
1961
1962
1962
1967
1969
1971
Ecuador, which became a Full Member in 1973, had its membership suspended at its own request, with effect from 31 December 1992.
Gabon, which became a Full Member in 1975, terminated its membership with effect from 1 January 1995.
1.7.2 Embargo
Embargo
from The Seven Sisters, Chapter 12
http://67.82.213.252:8383/7sisters/ch12embargo.htm
With the possible exception of Croesus, the world will never have seen anything like the wealth which is flowing
and will continue to flow into the Persian Gulf.
-- James Akins, April 1973
IN THIS atmosphere of crisis, the stolid oil company delegates prepared to confront OPEC in Vienna on October
8. The companies were represented by a team of five, led by George Piercy, the Exxon engineer, and André
Bénard, the French director of Shell, a former resistance hero who had only recently become involved with the
Einleitung
31
Middle East. They had all been briefed beforehand by their own boards, and by a special meeting of the London
Policy Group -- once again with antitrust clearance. Governments were kept informed, but in spite of the growing tension, no diplomats went to Vienna. The negotiation was still between countries and companies. The buffer
was still assumed to be working.
And then, just as they were leaving for Vienna, Egypt and Syria invaded Israeli-occupied territory. There was
war. It was now all too clear why King Feisal's warnings had been so emphatic: his lonely loyalty to the United
States was now untenable.
OPEC was represented only by the Persian Gulf countries, six of the thirteen (the original five had been gradually augmented, and by 1973 the members were: Algeria, Ecuador, Gabon [associate], Indonesia, Iran, Iraq, Kuwait, Libya, Nigeria, Qatar, Saudi Arabia, United Arab Emirates, Venezuela), was led by the oil ministers of the
two biggest producers: Yamani from Saudi Arabia and Amouzegar from Iran. They were in a strong position.
The 'house of cards' of the Teheran agreement had now clearly collapsed. Firstly, inflation had galloped ahead,
so that the increase of 2-1/2 percent a year was now obviously inadequate: the price of other commodities which
the OPEC countries had to import (as the Shah never ceased to point out) was far outstripping the oil price. Secondly the shortage had transformed OPEC's bargaining position: some independents were already offering $5 a
barrel for 'participation' oil. Thirdly, the whole psychological balance of power was changing in the face of the
shortage. As Dr. Amouzegar put it: 'we became so disgusted by their mercenary approach, bickering over a penny. But we realised that they were in a different position after two wars and the closing of the canal. All these
things made them get a little panicky about not getting oil for their customers; we began to feel they were losing
their strength.' (Interview with author, December, 1974.) On top of these factors, there was now the war. The
company delegates arrived to find the Arabs in a state of excitement, passing round newspaper articles and photographs of American supplies to Israel.
The negotiations opened ominously. Yamani began by demanding increases in the government 'take' which
would, in effect, double the posted price to $6 a barrel. Piercy replied by offering an extra 15 percent. The oilmen talked strictly commercially, in terms of the market as they saw it: 'we argued very effectively,' as one team
put it to me, 'perhaps too effectively. We left them with no resort to logic -- only to power.' But the OPEC delegates were convinced that, with the shortage, the market was on their side. Yamani made a few concessions,
taking the posted price to around $5 a barrel; but Piercy, in terms of his brief from his masters, could not go
beyond 25 percent.
In the meantime the war was raging, the Egyptians had crossed the Suez Canal, and the Arab states had been
forged into a new unity. The Arab members of OPEC, through their own Organisation OAPEC, announced that
they would meet in Kuwait to discuss the use of oil as a weapon of war.
The question of the price was now in imminent danger of being confused with the question of an embargo. It was
feared not only by the company delegates, but by Yamani, at least by his account: in Geneva four months earlier
he had said he would not negotiate again, but now apparently he wanted to avoid a breakdown. 'I wanted to keep
the companies with us, while we went into this political period,' he told me later, 'I didn't want to mix prices with
politics'. Amouzegar claimed afterwards that he had genuinely wanted to settle: 'we asked for a dollar a barrel of
government take, knowing that they would be mercenary as usual, expecting to settle for forty or forty-five
cents. They made a terrible mistake. They flatly. refused, saying the oil market didn't justify it. But we knew that
the low price was due to the world being divided between rich and poor.'
The company delegates cabled to their principals in London and New York and received their replies: they could
not agree to such huge increases without consulting the consumer governments. Some of the company delegates
regretted their instructions, believing that it was still possible to negotiate an agreement which might otherwise
be forced on them. After midnight, Piercy and Bénard paid their momentous call on Yamani at the Intercontinental Hotel, to tell him that they must adjourn for two weeks to consult governments. (See Chapter 1, pp. 14-15.)
Yamani made clear his regrets. The delegates could not budge. The next morning some of the other OPEC delegates arrived at the offices to find that Yamani and the company delegates had already flown home. The news of
this historic breakdown, which was to transfer the economy of the West, was buried in the war news. It was
delegated to the business pages, and even in the Financial Times it could only reach page 13.
In New York the Aramco delegates were now desperate about their companies' survival, and they turned once
again to Jack McCloy to press their case. McCloy promised to get a letter to the President, and wrote to General
Einleitung
32
Haig at the White House on October 12 by special messenger, enclosing a memorandum to be passed on to both
Nixon and Kiss-- Jamieson, Granville, Miller, and Warner. They emphasised that any increased American military aid to Israel 'will have a critical and adverse effect on our relations with the moderate Arab producing countries'. The Europeans could not face a serious shut-in, and 'may be forced to expand their Middle East supply
positions at our expense'. Japanese, European, and perhaps Russian interest might well supplant United States
presence in the area, 'to the detriment of both our economy and our security.' (Multinational Hearings: Part 7, pp.
546-7.) It was a characteristic mixture of military and commercial arguments: American oil must be protected
from both European competition, and a Russian invasion.
General Haig took his time in dealing with the letter; three days after its delivery, he replied to McCloy ('Dear
John') saying 'I will see that the letter is forwarded to the, President and to Secretary Kissinger'. But in the intervening weekend Kissinger and Nixon, alarmed by reports of Soviet shipments to the Arabs and the Israeli predicament, had authorised the immediate airlift of military supplies to Israel.
The next week, on October 16, four Arab foreign ministers arrived in Washington, led by the most crucial, Omar
Saqqaf, then Foreign Minister of Saudi Arabia. Saqqaf was in a very bad mood: Nixon had not been able to see
him that day, and at a press conference one American reporter said that the Saudis could drink their oil: Saqqaf
replied bitterly, 'all right, we will'. The next day, after a last-minute warning from Aramco, Nixon and Kissinger
agreed to see Saqqaf and the other three foreign ministers. Saqqaf gave Nixon a letter from King Feisal, stating
that if the United States did not stop supplying Israel within two days, there would be an embargo. But Nixon
explained that he was committed to supporting Israel; and on the same day the Senate voted, two to one, to send
reinforcements.
In Kuwait in the meantime the members of OPEC had assembled for a double-barrelled attack on the West. On
the first day they decided unilaterally to raise the oil price to $5.12 a barrel -- 70 percent more than the figure of
$3.00 agreed at Teheran, and an increase that made all others look tiny. On the second day the Arabs met by
themselves, for the meeting of OAPEC. They agreed on an immediate cutback in oil production of 5 percent, and
warned in their communiqué (which was issued only in Arabic) 'that the same percentage will be applied in each
month compared with the previous one, until the Israeli withdrawal is completed from the whole Arab territories
occupied in June 1967 and the legal rights of the Palestinian people restored'.
The two cuts together -- the price-hike and the embargo -- proved a deadly combination to the West. But the
coincidence, surprisingly enough, was accidental. The embargo had been conceived solely in the context of the
Arab-Israel conflict: 'It had nothing to do with wanting to increase the price of oil,' the Secretary of OPEC, Ali
Atiga, insisted later: 'or with increasing the power of the oil producers. It was meant simply to attract the notice
of the public in the West to the Israeli question; to get them to ask questions about why we did it.' (Interview
with author, February, 1975.) But the embargo turned out to be the most effective possible device to jack up the
price still further. It made not only the Arab producers, but the Iranians and Venezuelans who had no hand in it,
aware of their true position of strength.
Three days later, after Saqqaf had returned angrily from America, came the bombshell. Saudi Arabia, far from
distancing herself from OPEC, announced a cut-back of l0 percent, plus an embargo of all oil to the United
States and the Netherlands. The OPEC ring had now closed tightly and the country which Americans had regarded as the safest was now the most extreme. The next day, the Saudis cut back production by more than 20
percent, and in Riyadh Yamani summoned Jungers to discuss the implementation of the embargo.
The Saudis had already worked out the embargo in some detail. They insisted that on top of the 10 percent cutback, Aramco must subtract all shipments to the U.S. including the military. Aramco would have to police the
whole complex operation, and any deviations from the ground rules would be harshly dealt with. Jungers pointed
out some of the effects of the rules; for instance that Italy and Japan would be specially hard hit. Yamani remarked that this was deliberate, implying that they were being punished for pro-Israeli attitudes. If this embargo
didn't change American policy, Yamani explained, the next step would 'not just be more of the same': Jungers
had no doubt that he meant complete nationalisation, if not a break in diplomatic relations. (Multinational Hearings: Part 7, p. 517.)
The Aramcons now found a real crisis of identity; for where was their ultimate loyalty? At the height of a war,
with American public opinion highly-charged, they were required to be the agents of an Arab government in
enforcing an embargo, including a military embargo, designed openly to change United States foreign policy.
Einleitung
33
The whole past justification for Washington's diplomatic support of the companies in the Middle East -- that they
were essential to national security -- was undermined, just when the U.S. Sixth Fleet was being held in readiness.
By October 21, when the embargo was proclaimed, the Israelis had agreed to a cease-fire. The next day in New
York the Security Council unanimously adopted the call for a cease-fire by the two superpowers. The Aramco
directors heaved sighs of relief. 'No question that Saudi Arabian Government mood now more relaxed', Jungers
cabled to Socal on October 24, 'but one of cautious anticipation.' But, he warned, the King was still radical on the
point of Jerusalem -- 'always the most sensitive and uncompromising issue with His Majesty' -- and there was
'absolutely no question that the oil cutback would remain in effect until the entire implementation was worked
out.' One Saudi contact told Jungers that there was 'great satisfaction' with Aramco for its pro-Arab stand, and
remarked 'we hope to reward you' -- which Jungers interpreted as a promise to allow future growth. (Ibid: p.
513.) The vast project for Aramco's expansion was now a multi-billion political hostage.
Aramco was now closely in touch with Jim Akins, who had just become the Ambassador to Saudi Arabia. On
October 25 Akins sent a confidential message to Aramco, to ask the oil tycoons in America to hammer home to
their friends in government that oil restrictions would not be lifted 'unless the political struggle is settled in a
manner satisfactory to the Arabs'. There were some communications problems', Akins pointed out, with considerable understatement, between the industry and the government. The oil companies must put their views in an
unequivocal way. Akins' message was duly transmitted the next day to the four Aramco partners in New York
and San Francisco. It was an odd reversal of the diplomatic process. Was it the companies who were the instruments of the State Department, or vice-versa?
The Aramco directors still had to carry out the King's orders, even if they were directly against their own country's interests. The Saudis asked for details, within two days, of all their crude oil used to supply the American
military bases throughout the world. In New York officials from Mobil and Texaco were reluctant to release it.
But Exxon consulted with the Defence Department (though in a very peremptory fashion: Admiral Oller, in
charge of Defence Fuel, did not hear about it until it was a fait accompli). (U.S. Senate: Permanent Subcommittee on Investigations, April 22, 1974.) The details were provided, and the Saudis duly instructed Aramco to stop
the supplies to the military. The position was serious enough for a managing director of BP in London to receive
a phone call from Washington asking whether BP could supply the Sixth Fleet. Exxon and the others were now
wide open to the charge that had so often been made against them in the past -- that they put profits before patriotism.
In New York, it was all too evident that Aramco was carrying out the instructions of a foreign government, and
however much they insisted that they had no alternative, they had few public figures on their side. In the midst of
the most Jewish city, they stood out as a pro-Arab enclave. The topography seemed symbolic: on one side of
Sixth Avenue in Manhattan stood the three skyscrapers of the three TV networks -- CBS, NBC, ABC -- all of
them sympathetic to the Israelis, and deeply critical of the oil companies. On the other side stood the headquarters of the two key companies: Exxon's new skyscraper and the two floors of Aramco, at Fifty-Fourth Street. It
was as if the Avenue was an impassable frontier, like the River Jordan itself. Inside the Aramco offices there
were young Arab trainees, pictures of King Feisal, engravings of Arabia, and rows of those bleak colour photogrraphs of pipelines in the desert, so much favoured by oilmen.
To the media, across the avenue, Aramco appeared an all-powerful supra-government, a consortium of four of
the richest companies in the world in league with an alien sovereign state. But the Aramco men in New York
saw themselves as persecuted and encircled; anonymous telephone callers rang up with bomb scares to make
them troop out of the building, and with threats and insults against the oil traitors. There was little middle
ground: each side had its own view of the priorities of foreign policy, and each had a profound distrust of the
other. The opposite interests had now come together in an explosion.
The Price
The embargo, having originated quite separately, was now rapidly exacerbating the shortage, and thus affecting
the price. The oil producers, through their participation, now had oil to sell for themselves on the market, which
enabled them very soon to get still higher prices. The oil companies had often in the past exploited a political
Einleitung
34
crisis to push up their prices; the American companies had done so seventeen years earlier, after Suez. But
OPEC, being now a more effective cartel, was better able to take effective advantage.
The companies, surveying the situation with alarm and confusion, asked to meet again with OPEC, and on November 17 they assembled in Vienna -- this time not to negotiate, but to discuss. There followed a bewildered
discussion about the state of the market, for neither side altogether understood what was happening. Yamani
insisted that the market was the only thing that he believed in: why should the oil companies say that the market
worked when prices were depressed over the previous decade, and now reject the market at a time of shortage?
Was it not a paradox that the oil companies should now ask for a substitute for the market price? The companies
insisted that the embargo was not letting the free market work. Dr. Amouzegar of Iran, however, was already
insisting that the posted price was too low, pointing to the huge excise taxes that the consuming countries continued to levy on oil.
OPEC then held its own conference in Vienna, to discuss how to determine on oil prices. They decided that their
Economic Commission should report on the question in December. The companies, their communiqué said, had
failed to make a constructive proposal, and the statement continued in OPEC's most reproving style: 'The companies' representatives dwelt vaguely on ideas for pricing of petroleum on the basis of a rigid and arbitrarily predetermined procedure divorced from normal market forces. The conference is not in agreement with such an
approach and believes that the pricing of petroleum, like the pricing of other internationally-traded manufacturered goods, commodities and raw materials, should be market-orientated.' It was a comic reversal of roles:
OPEC, having discovered its monopoly power, had become the champion of the marketplace: the producers had
not only stolen the companies' cartel, they had stolen their humbug.
In the panic and shortage caused by the embargo, the majors were now terrified that the independents -- who
were much the most desperate for oil, not having their secure supplies -- would bid up the price to ridiculous
levels. In London, the companies tried to get Peter Walker, the Minister for Trade and Industry, to refuse foreign
currency to bids above $6 a barrel, but he would not agree. The companies were specially worried by Japan, who
was most dependent on oil: Frank McFadzean of Shell asked the Japanese prime minister, Kakeui Tanaka, to try
to restrain bids, but without success.
In Iran on December 16, the Iranian State Oil Company, NIOC, for the first time conducted an auction of some
of its oil, with horrific results for the West. The highest bid came to seventeen dollars a barrel. Most of the high
bidders were independents, but one bid of twelve dollars (according to Amouzeaar) was put in by a Shell affiliate. The majors could not stop the bidding, and the results supported the Iranian argument, that the posted price
was far too low.
The climax came just before Christmas. On December 22 the six Persian Gulf members of OPEC met again, this
time in Teheran, an ominous setting. For this was the Shah's home ground and the Shah had come to realise that
the embargo, though he had played no part in it, was giving him the chance of a lifetime to overcome all his
economic problems. Ever since the Teheran agreement of 1971, he had realised that the power of the oil kings
was waning; but (as he candidly admitted to me) it was not till the embargo that he understood the real weakness
of the companies.
The Shah had already prepared the ground. In October he had sent out a team to investigate the cost of alternative fuels, to try to establish a fair price for oil: they looked particularly at the United States, West Germany and
South Africa (with its extensive oil-from-coal operations). The experts' report gave the Iranians more powerful
arguments for conservation or, in other words, higher prices. As Dr. Amouzegar recalled it, 'we were specially
struck by the fact that in 1951 coal accounted for 51 percent of fuel in the United States, while in 1973 it was 19
percent. Because of cheap oil, all alternative sources were being neglected. We realised that no-one in the West
was worrying about what would happen when the oil ran out, and the communists could easily take advantage'.
(Interview with author, December 1974.) The Iranians could thus smoothly argue that expensive oil was really in
the best possible interests of the West. And the Iranian arguments were supported by the findings of OPEC's
economic commission, whose report just before the conference indicated that the price should be around seventeen dollars. The prices at auctions encouraged the claim; on the very day of the OPEC meeting an auction in
Nigeria had produced a new record bid of $22.60 a barrel -- though it was never actually paid.
Einleitung
35
When the OPEC ministers met, the Iranians and the Saudi Arabians were at loggerheads. The Shah wanted a
price of fourteen dollars a barrel which was, he insisted, less than the demands of some others. Sheikh Yamani,
on the other hand, was seriously worried by the effects of another big price increase on the world economy. How
seriously he was (or is) worried is much disputed by oilmen; many argue that it was his insistence on participation and a high buy-back price which began the whole price escalation. But both Yamani and his master, King
Feisal, showed signs at the time of being apprehensive: and Yamani said afterwards: 'I was afraid the effects
would be even more harmful than they were, that they would create a major depression in the West. I knew that
if you went down, we would go down.' (Interview with author.)
Yamani knew that the Shah would demand a high price, with the backing of the OPEC militants. The Saudis, as
he saw it, were faced with a simple choice: either stick out for a lower price and effectively break up OPEC; or
else go along with the majority, and try by all possible means to bring the price down, then and later. 'It was,' he
recalled afterwards, 'one of the critical moments of my life; one of the few decisions I took reluctantly.' He could
not get in touch with King Feisal, and had to take the decision alone. He encountered two friends in the lobby of
the Intercontinental Hotel, and sought their advice. One of them, Bill Tavoulareas of Mobil, advised him to keep
the price down, and if necessary break OPEC. The other, an independent oil expert, advised him to fight as hard
as he could for a low price within OPEC, but not to break with the majority -- a decision to which Yamani was
already tending. But it was not, as he discovered later, the King's view and on his return to Riyadh Feisal reprimanded Yamani for not having insisted on a lower price. What would have happened if Yamani had got through
to the King that night in Teheran? OPEC would probably have been broken, and the price would have stayed
down; but the political isolation of the Saudis would have been increasingly perilous, and it was unlikely that
they would have been able to hold out alone.
The next morning the OPEC ministers were still formally meeting when the Shah gave a press conference, to
leave no doubt that it was he who was in charge. He announced the shattering increase to $11.65 a barrel, more
than doubling the posted price of oil. His assurance was breathtaking: the price, he explained, was very low
compared to the going market price, and was reached 'on the basis of generosity and kindness'. The companies,
he explained, were making excessive profits of at least a dollar a barrel, for no reason at all. As for the Western
consumers, it would do them good to have to economise: 'eventually all those children of well-to-do families
who have plenty to eat at every meal, who have their own cars, and who act almost as terrorists and throw bombs
here and there, will have to rethink all these privileges of the advanced industrial world. And they will have to
work harder... ' (Middle East Economic Survey: December 28, 1973; Petroleum Intelligence Weekly: December
31, 1973.)
The OPEC communiqué calmly concluded by saying that, considering that the increase was moderate, 'the Ministers hope that the consuming countries will refrain from further increase in their export prices'.
The price of oil had now quadrupled in just over two months. With incredible suddenness, the whole oil cartel
had apparently fallen into the hands, not of seven companies, but of eleven countries. All the converging trends
of 1973 -- the movement towards participation, the shortage, the Arab-Israel war -- had come together to clinch
the cartel. The Middle East leaders, in private, expressed their gratitude to the sisters for making it possible. 'We
just took a leaf out of our masters' book,' as one Kuwaiti put it. Or as the Shah said afterwards: 'with the sisters
controlling everything, once they accepted, everything went smoothly.' (Interview with author: February, 1974.)
The Western nations now found themselves, to their bewilderment, confronted with a cartel, not of companies,
but of sovereign states.
1.7.3 OPEC. Still holding customers over a barrel1
This week marks the 30th anniversary of the Arab oil embargo. Western countries are no less in thrall to Middle
Eastern oil than they were then
ON OCTOBER 17th 1973, Saudi Arabia and several of its oil-rich neighbours voted to cut off oil supplies to
America. Two days later, Libya said it would also cut supplies to America and raise the price of oil to other
countries from $4.90 a barrel to $8.25 a barrel. Arab frustration at Israel's military victory that month came to a
1
The Economist, Oct 23rd 2003.
Einleitung
36
peak on October 21st when Dubai, Qatar, Bahrain and Kuwait cut off supplies too. The Organisation of Petroleum Exporting Countries (OPEC), founded in Iraq in 1960 to promote the interests of producer nations, had finally found its muscle.
The Arab embargo has become a symbol of the political chaos and economic troubles endured by the West during the oil shocks of the 1970s. After decades of gradual decline in real terms, oil prices rocketed upwards (see
chart 1). Most mainstream forecasters—including those at America's Department of Energy—predicted that oil
would cost over $100 a barrel by 2000.
A casual observer of the enerlittle changed from that tumulOnce again there is talk of
East is again on the brink of
Arab countries' resentment
Israel, but also because of its
And, after years of weakness
sprung back to life. Although
around $30 a barrel for some
are anaemic at best, the cartel
by voting to cut its output
gy business today might find
tuous autumn of 30 years ago.
scarcity and crisis. The Middle
chaos, not only because of
over America's support for
military occupation of Iraq.
in the 1990s, OPEC has
oil prices have remained
time, and western economies
shocked the market last month
even further.
Moreover, America's Congress is in the final stages of
intense negotiation over a
huge energy bill that is based
on the administration's notion
that there is a serious energysupply crisis. The bill is expected to be passed by Congress any day now. “It's becoming very clear to the country”, George Bush has said, “that demand is outstripping
supply.” The Texas oilman's words echo those of Jimmy Carter in 1977. “The diagnosis of the US energy crisis
is quite simple,” he said. “Demand for energy is increasing while supplies of oil and natural gas are diminishing.”
It's the market, stupid
If so many things remain unchanged, is the power of OPEC to bring western economies to their knees one of
them? The answer to that is complicated: OPEC's power was enhanced by stupid policies pursued by western
governments, then reduced by wiser policies of energy conservation, and now is making an alarming comeback.
First, consider what the Arab embargo actually accomplished. In technical terms it was a complete failure:
OPEC oil shipped to Europe was simply resold to America or, in effect, it displaced non-OPEC oil that was
redirected from Europe across the Atlantic. Prices did rise, but that affected all oil consumers not just Americans.
Oil, it became clear at the time, is a “fungible” global commodity. In 1973, Morris Adelman, a professor at the
Massachusetts Institute of Technology (MIT), predicted that “if the Arabs don't sell us oil, somebody else will.”
He was right.
The petrol queues and shortages in America that are now linked in the popular imagination with that period had
little to do with the Arab embargo. Jerry Taylor of the Cato Institute argues, correctly, that the shortages were
due chiefly to the misguided, anti-market energy policies that had been adopted by America in the years before
the embargo.
In 1971, for example, the Nixon administration imposed price controls on the energy industry that prevented oil
companies from passing on the full cost of imported oil to consumers. That led directly, and predictably, to the
companies making decisions to reduce their imports and to stop supplying independent petrol stations that they
did not own.
Congress made the situation worse in September 1973 by trying to allocate oil to various sectors of industry and
different parts of the country through bureaucratic fiat. It also tried to force different pricing for “old” oil and
“new” oil—a meaningless distinction for a fungible commodity. These measures led (again predictably) to the
panic and hoarding that were to blame for those petrol queues. Both Arab producers and American politicians
Einleitung
37
failed in the 1970s to understand the market forces that lie behind the oil business—that is, the power of supply
and demand. Happily, there are signs that both are now a bit wiser to the ways of the market.
Einleitung
38
Siberia to the rescue?
In one sense, the cries of oil scarcity heard three decades ago were certainly wrong: the world is not about to run
out of hydrocarbons. Thanks to advances in exploration technology, there are more proven reserves of conventional oil today than there were three decades ago. What is more, even if the stuff starts to grow scarce some
decades hence, there are great quantities of unconventional oil (such as Canada's tar sands) still to be extracted.
The astonishing burst of innovation in oil technology was the result of investment by big western oil companies
in non-OPEC areas such as Alaska and the North Sea. The development of fields in these regions undoubtedly
helped to check the market power of OPEC. Unfortunately for consumers, however, these mature oil sources are
about to enter a period of dramatic and irreversible decline. This poses an enormous challenge for the big oil
companies, which must somehow replace their lost reserves or see their share prices punished by Wall Street.
In a forthcoming study, the International Energy Agency (IEA), a quasi-governmental group of oil-consuming
nations, estimates that the oil industry needs to invest as much as $2.2 trillion over the next 30 years in exploration and production. Much has been made about the soon-to-soar energy needs of fast-developing giants like
China and India, but only a quarter of that $2.2 trillion is required to meet growth in oil demand; the rest is needed, the boffins say, merely to replace production that is already in decline or soon to decline. Daniel Yergin of
Cambridge Energy Research Associates, an industry consultancy, says: “Every day the head of every major oil
company wakes up focusing on how he is going to replace his reserves. The pressure is relentless.” If western oil
companies do not manage to find new sources of supply, OPEC's market share can only increase—and with
increasing market share comes more power.
Where can the companies hope to find new reserves? A glance at the headlines in recent weeks suggests that
Siberia is to be the industry's salvation. After a long history of hostility to foreign involvement in energy, it now
appears that Russia is putting out the welcome mat. And big oil firms are racing breathlessly across it, given that
Russia has the largest reserves of any country outside the Middle East.
BP, which lost $200m in an ill-fated venture with a local company in 1997, appears to have won the first big
prize with its new joint-venture with TNK, a big Russian oil firm. Recent rumours suggest that Exxon Mobil and
Chevron Texaco may be about to gobble up minority stakes in local firms too. Such acquisitions could be welcomed by YukosSibneft and Lukoil, two of Russia's biggest oil firms. Their owners might be happy to sell now
that foreign companies seem eager to pay high prices for businesses such as theirs.
No one swings like the Saudis
If Russia's fickle politics continues to allow foreign investors in, then the big oil companies should be able to
replenish their reserves. That does not mean, however, that the West has found an OPEC slayer. One problem is
that it costs far more to lift oil out of the tundra than it does from the sands of the Middle East; indeed, it costs
barely a dollar a barrel to extract it from the Saudi or Iraqi deserts compared with an average of about $2.5 a
barrel in Russia.
Another reason why Russia will not prove the end of OPEC is that it cannot play the role of swing producer.
Saudi Arabia maintains a large amount of excess capacity in order to manage prices and cope with disruptions in
supply. Because Russia's oil is in private hands, the country will never be able to maintain such a buffer—no
company boss could justify such a waste of shareholders' money. Iraq, whose reserves are cheap but not as plentiful as Saudi Arabia's, is unlikely to become a swing producer because its capacity too is limited. Given the
dilapidated state of Iraq's infrastructure and the problem of continuing sabotage, few analysts think that its output
will rise even to 6m barrels a day (bpd) in less than a decade—let alone to Saudi levels of over 8m bpd.
There is another reason why Russia will never be a proper counterweight to Saudi Arabia. Vahan Zanoyan of
PFC Energy, a consultancy, points out that many of the country's ports are frozen for part of the year. Even if the
Russians develop idle capacity, it will be of little use if they cannot get the extra output to market quickly. When
political turmoil in Nigeria and Venezuela reduced oil exports on the eve of America's invasion of Iraq this year
(which in turn led to a halt in Iraq's limited exports) it was the swift release of oil by the Saudis that kept prices
from soaring.
Einleitung
39
Such moves by Saudi Arabia may seem reassuring, but in fact they point to a cause for great concern: the real
problem with the supply of oil is its concentration, not its scarcity. Fully 25% of the world's proven reserves of
oil sit under the parched deserts of Saudi Arabia. Add in four of the kingdom's neighbours, and the share of the
world's oil reserves held by Middle Eastern OPEC countries soars to about two-thirds. It is this immutable fact
that gives the cartel, and especially the Saudis, all the aces in the energy game. Russia, by contrast, sits atop
barely 5% of the world's reserves. (Iraq controls about 10%.) The Arctic reserves in Alaska, which are at the
centre of so much controversy in America, are insignificant in comparison.
What is more, because the Middle Eastern suppliers are restraining their production in order to prop up prices,
they are sure to have plenty of oil left when the non-OPEC countries start to run out of it. That is why official
forecasts, such as those of the IEA, suggest that the market share held by countries in the Middle East—
especially Saudi Arabia—can only increase over the next two decades.
CAFE society
All this shows that an approach that focuses on the supply of oil, such as that taken by President Bush, can do
little to free the world economy from OPEC's grip. An approach that focuses on demand, however, might be a
different story. Amory Lovins, the head of Rocky Mountain Institute, a natural-resources think-tank, is among
those who argue that demand-oriented policies designed to encourage energy efficiency and conservation can
help.
During the dark days following the Arab embargo, when most oil economists were convinced that energy use
and economic growth had to grow in harness, Mr Lovins insisted that demand-side measures could save the day.
In a famous article published in Foreign Affairs in 1976, he argued that America could pursue a “soft path” that
would remove the link between energy guzzling and GDP growth. He was widely mocked by the energy industry and mainstream economists at the time, but history has shown him to have been right (see chart 2).
Several forces explain the
economic output in the rich
tion from manufacturing to
tries, which typically require
the embrace of policies specifenergy efficiency. In Europe
adopted higher energy taxes
ronmental and security “exterwere not reflected in the marcians decided to use regulation
efficiency.
decoupling of energy use and
world. One is the broad transiservice and information indusless energy input. Another is
ically designed to encourage
and
Japan,
governments
on the grounds that the envinalities” involved in using oil
ket price. In America, politirather than price to encourage
The most important, and most
controversial, of America's
demand-side measures is the
Corporate
Average
Fuel
Economy (CAFE) law. As a
result of this measure, the
average fuel efficiency of new
American-made cars rose by
over two-fifths from 1978 to 1987. From 1977 to 1985, America's GDP rose by 27%, but its oil use dropped
17% by volume. The volume of America's net oil imports fell by nearly 50% during that time. Mr Lovins argues
that the dramatic drop in oil intensity of the American economy “broke OPEC's pricing power for a decade”. The
cartel fell into disarray in the late 1980s, and the world enjoyed relatively low and stable oil prices for much of
the 1990s.
Demand-side measures like CAFE did help check the cartel's power for some time. However, the automobile
industry hates the law and for the past few years has managed to thwart efforts by some in Congress to raise the
standards and to close a loophole that exempts trucks and sport-utility vehicles (SUVs). As a result, America has
started to return to its gas-guzzling ways of the past. The average fuel efficiency of American vehicles has been
near a 20-year low for the past two years.
Einleitung
40
Praying for Riyadh
Beyond these measures, what can the West do to reduce the chances of another oil shock? Stock up on oil, for a
start. At the time of the Arab embargo there were no meaningful buffer stocks of petroleum. The wealthy members of the OECD have since agreed to maintain at least 90 days' worth of stocks, and they created the IEA specifically to monitor them.
Critics argue that politicians meddle in the management of these stocks too much; some even suggest that the
stocks do not do much good at all. But Claude Mandil, the IEA's boss, insists that they play an important role as
an “insurance policy”, which gives Saudi Arabia an incentive to play its role as swing producer and to prevent
future oil shocks. If the Saudis do not release their oil, Mr Mandil argues, they know that the IEA will release its
own.
This delicate game of cat and mouse points to the harsh reality of today's oil market: it is Saudi Arabia's willingness to be the swing producer that now insures the world's economy against oil shocks. As long as there is a
stable government in Riyadh, the West can probably be confident that the enlightened self-interest of the Saudis
will coincide with the interests of western gas guzzlers.
Alas, the stability of the Saudi regime is far from guaranteed. The pro-American, ruling family is deeply unpopular with fundamentalists in the country, and there is no clear successor to the current de facto ruler, Crown Prince
Abdullah. As even the Saudis now grudgingly concede, home-grown terrorists regularly carry out attacks in the
country. And if a radical like the Saudi-born Osama bin Laden were ever to topple the royal family, the world
could well be hit by another energy shock.
The conventional view has held that economic reason and American military might would quickly put an end to
any such trouble. It is true that any rational rebel, however anti-American, would still sell oil to the world market
in order to feed his people. A wilfully irrational zealot, however, might very well shut down the Saudi spigots in
an effort to hurt the West.
As for the notion that American troops could quickly restore oil exports, the current morass in Iraq suggests
otherwise. If zealots ever got hold of nuclear or chemical weapons and turned them on essential bits of Saudi
infrastructure, then all of America's might could not prevent a prolonged and extremely painful oil shock. At a
recent conference held on Capitol Hill to reflect on the anniversary of the Arab oil embargo, James Woolsey, a
former director of America's Central Intelligence Agency, said: “There are malicious, 9/11 equivalents in the
energy system because of our risky reliance on the Saudis as swing producers.”
There's safety in cells
As the centre of gravity of the world's oil production shifts inexorably closer to Riyadh over the next two decades, this risk can only grow. One statistic makes the point particularly well: even assuming that oil-production
technology advances by leaps and bounds, and assuming that four-fifths of all upstream investment in oil takes
place outside the Middle East, the IEA still predicts that Saudi Arabia and its immediate neighbours will meet
nearly two-thirds of the anticipated increase in oil demand in the years to 2030.
If that is accurate, government stocks, while sensible, will never be able to compensate for the loss of Saudi
output for more than a few months. Seeking out new sources of non-OPEC oil abroad, and squeezing out more
energy efficiency at home, are surely good things to do as well. But in the end neither will make the world much
safer from another oil shock.
Only by finding a radical alternative to oil—another way to power the world's cars and buses—will consuming
countries be able to escape a dangerous reliance on Saudi Arabia and its neighbours. Hydrogen-powered fuel
cells, and other alternatives such as bioethanol, might provide a means of escape in a decade or two, if pursued
vigorously enough in the meantime. Until then, however, the world's addiction to oil remains an increasingly
risky gamble on Saudi Arabia.
Einleitung
41
1.7.4 Electricity in America. Life after Enron.
Electricity in America. Life
The Economist Nov 21st 2002
after
Enron.
Can
the
energy
traders
save
themselves?
“AFTER the collapse of Enron, the industry has to come together.” So says John Collins, chief risk officer of
Constellation Energy, once a rival to the bankrupt Texan firm. Energy traders are known for their bitter rivalries,
so why the curious call for co-operation? Simply put, the industry is fighting for its life. According to Jone-Lin
Wang of Cambridge
Energy Research Associates, a consultancy, America's “power
industry is suffering.
The impact will be
more far-reaching and
will last longer than
many now expect.
What is unfolding in
America will have
repercussions for the
energy
business
worldwide.” Enron's
demise did not kill
energy trading, but the
evidence of financial
skulduggery
and
murky
accounting
uncovered by the Enron
post-mortems
may yet do the job. In
the past few days, for
example, the industry's
main regulator, the
Federal Energy Regulatory
Commission
(FERC), has accused
Williams and AES of
colluding to drive
prices up during the
California power crisis
two years ago. And in
Sacramento, Californian legislators were
told that energy firms
submitted false prices
to firms such as Dow
Jones and Platts that
publish energy-price
indices. Such news
has started a vicious
cycle of downgrades
by credit-rating firms,
loss of access to financing and demands for greater collateral. The share prices of once-aggressive energy traders
such as Mirant and Dynegy have plunged, as more recently have those of stodgier integrated utilities once
thought so safe they were branded “widows and orphans” shares. Some firms are leaving the trading business.
Others may go bust. Which is why Mr Collins and other chief risk officers from energy-trading firms are joining
forces to try to restore confidence. Their committee of chief risk officers reported on November 19th, setting out
best-practice standards in corporate governance, credit and risk management, and financial disclosure. Lack of
clarity and consistency in how trades are valued and reported have undermined investor confidence at least as
much as any hard evidence of wrongdoing. Trading firms now promise much more detailed disclosure of trading
portfolios—and, crucially, standardisation of how they value the often-obscure components of those portfolios.
The risk officers also want to shift from bilateral contracts to multilateral “netting” agreements cleared on neutral
exchanges, as this should require far less collateral to be posted by individual firms. This is radical stuff, especially by the standards of this industry. Will traders pay any attention to these worthy but voluntary targets set by
risk officers? Maybe. The 31 firms behind this week's deal account for about half of the power and gas traded in
America. And the threat of heavy regulation hangs over the industry, if it does not clean up its act. Indeed, even
if it does, FERC may crack down hard. Like the credit-rating agencies, which some observers think are now
overzealously downgrading power marketers to atone for their lax treatment in the past, regulators may also
overreact to restore their image. FERC was guilty of “a shocking absence of regulatory vigilance”, said a congressional committee investigating California's crisis and Enron's collapse. Last week, the politicians seemed to
blame FERC for causing those fiascos through gross negligence. Loretta Lynch, head of California's Public
Utility Commission, accuses her federal counterparts, starting under President Bill Clinton, of pursuing an ideologically driven agenda of “deregulation at any cost”. Surprisingly, FERC does not seem to disagree with its
critics. One official responded to the congressional report by saying that “in the past, the agency probably wasn't
as quick as it should have been to jump on this stuff”. Nora Brownell, a FERC commissioner appointed by
George Bush, goes further: “I won't accuse my predecessors,” she begins, before explaining how more vigilance
could have mitigated California's excesses. “We need to be as nimble as the markets. The shaming factor works
very well, applied quickly; but the threat of public punishment must come quickly, not two years after the fact.”
FERC recently created a new office of market oversight and investigations, and doubled the number of market
Einleitung
42
“overseers” on staff. More powers and cash have been promised. More action may also flow from several highprofile court cases now under way. In San Francisco, prosecutors issued subpoenas last week to half a dozen
energy-trading companies that did business in California. Their request suggests that they are seeking evidence
of collusion and price-fixing. So America's power-trading industry may at last get an active cop on its beat. That
should reassure investors, who may return once an economic rebound again raises demand for power and lifts
prices. Constellation's Mr Collins is optimistic: “We're an industry in its formative stages; the strong will survive”. How many of today's firms will be around for that (eventual) happy day is anybody's guess.
1.7.5 Enron
Chronology of the corporation’s rise based on Sandra Leitner
July 1985 -- Houston Natural Gas merges with InterNorth, a natural gas company based in Omaha, Neb., to
form the modern-day Enron, an interstate and intrastate natural gas pipeline company with approximately 37,000
miles of pipe.
1989 -- Enron begins trading natural gas commodities. Over the years, the company becomes the largest natural
gas merchant in North America and the United Kingdom.
June 1994 -- Enron North America trades its first electron. Enron goes on to become the largest marketer of
electricity in the U.S.
January 1997 -- Enron unveils a new logo and its first global advertising campaign. The company also acquires
Zond Corp., a leading developer of wind energy power. The acquisition results in the formation of Enron Renewable Energy Corp.
August 1997 -- Enron announces its first commodity transaction using weather derivative products. Enron goes
on to market coal, pulp, paper, plastics, metals and bandwidth.
April 1999 -- Enron agrees to pay $100 million over 30 years for the naming rights to Houston's new ballpark,
Enron Field. The Astros also sign a 30-year facilities management contract Enron Energy Services.
June 1999 -- Enron Energy Services transacts its first billion-dollar deal with Suiza Foods.
November 1999 -- Enron launches EnronOnline, the first global Web-based commodity trading site.
January 2000 -- In a Fortune survey, Enron was named "The Most Innovative Company in America" for the
fifth consecutive year and is ranked No. 24 among the "100 Best Companies to Work for in America."
March 2000 -- The Energy Financial Group ranks Enron the 6th largest energy company in the world.
May 2000 -- Enron and strategic investors, IBM and America Online, launch The New Power Company, the
first national energy service provider for residential and small businesses in deregulated U.S. energy markets.
The fall
Enron’s problems began when in October 2001 Enron officials discovered that its balance sheets were reporting
mysterious charges and when later Enron admitted that profits between 1997 and 2000 were $ 600 million lower
than had been claimed. Enron used complex partnerships to keep some $ 500 million in debt off its books and
mask its financial problems so it could continue to get cash and credit to run its trading business. In a six-week
downward spiral last fall, Enron disclosed a stunning $638 million third-quarter loss, the Securities and Exchange Commission (SEC) opened an investigation into the partnerships and the company’s main rival backed
out of an $8.4 billion merger deal.
Enron filed for protection from creditors on December 2 in the biggest corporate bankruptcy in the U.S. history.
Its sock , worth more than $ 80 at the end of year 2000, has tumbled to less than a dollar a share. Enron’s collapse left investors burned out and thousands of employees out of work with lost retirement savings.
Einleitung
43
Chronology of the fall2
August 2001 -- Enron chief executive officer Jeff Skilling resigns after running the company for just six months.
Chairman and former CEO Ken Lay resumes his position atop Enron.
October 16, 2001 -- Enron reports a $638 million third-quarter loss and discloses a $1.2 billion reduction in
shareholder equity, partly related to partnerships run by chief financial officer Andrew Fastow.
Oct. 22, 2001 -- Enron acknowledges Securities and Exchange Commission inquiry into a possible conflict of
interest related to the company's dealings with those partnerships.
Oct. 24, 2001 -- Enron ousts Fastow.
Oct. 27, 2001 -- Enron taps into more than $3 billion in credit in an effort to boost confidence of investors and
customers.
Oct. 31, 2001 -- Enron announces the SEC inquiry has been upgraded to a formal investigation. Enron creates
special committee headed by University of Texas law school dean William Powers to respond to the investigation.
Nov. 1, 2001 -- Enron secures $1 billion in new financing, using its natural gas and pipeline assets as collateral.
Nov. 6, 2001 -- Enron's stock price drops below $10 a share -- down from a 52-week high of $84.87 on Dec. 28,
2000 -- after reports the financially troubled energy trader was seeking additional financing to shore up confidence.
Nov. 8, 2001 -- Enron files documents with SEC revising its financial statements for past five years to account
for $586 million in losses.
Nov. 9, 2001 -- Dynegy Inc. announces an agreement to buy its much larger rival Enron for $7.8 billion in stock.
The Economist: The ship that sank quietly,
Enron's collapse was spectacular. Why has it scarcely ruffled the energy markets?
“A HURRICANE in the Gulf of Mexico would have been more disruptive than the fall of Enron.” So goes a
saying doing the rounds in the energy business. Although it overstates the point, this statement contains more
than a grain of truth. Who could have imagined that the world's leading energy-trading company—a colossus
that boasted a 25% market share in gas and power trading on both sides of the Atlantic—could go bust without
causing widespread havoc? Despite Enron's demise the lights have stayed on everywhere and the gas has flowed
smoothly. What is more, no other firm has gone under as a direct result of its collapse.
How can this be? In part, the explanation lies in the fact that Enron was never quite as formidable a force as it
claimed. Its reported revenues (of some $100 billion in 2000 and over $130 billion in the first three quarters of
2001) turned out to be more imagined than real. That is because it took to extremes a dubious habit common in
its industry: booking the entire value of trades as revenues, rather than merely the profits earned on those trades
(a sleight of hand not permitted for financial trading firms such as Wall Street banks). Reporting in a more honest manner deflates Enron's revenues to $8 billion in 2000 (see chart). Its market-share boasts were exaggerated
too. The firm probably had closer to a 15% share in the gas and power markets, reckons ICF, a consultancy.
2
http://www.chron.com/cs/CDA/printstory.hts/special/enron/nov01/1126890
Einleitung
44
1
2
3
4
5
6
7
8
But Enron was still undoubtedly the biggest energy trader in the
world. Even in bankruptcy, it remains a bigger player than
many rivals. Enron is holding on to enough contracts to maintain a market share of about 5% in America, reckons Steve
Bergstrom of Dynegy, a rival energy-trading group that led an
aborted attempt to save Enron from bankruptcy through a lastminute takeover. So the fact that its demise failed to rock the
market still demands an explanation.
9
10
11
12
13
14
15
16
17
Some analysts point to the fact that Enron's bankruptcy was not
sudden, but took place in slow motion. The first revelations of
dodgy off-balance-sheet financing came in September 2001.
Only after Dynegy pulled out of its takeover, on November
28th, did Enron file for bankruptcy. This gave its counterparties
time to untangle themselves. Cheekily, Dynegy takes credit for
this. “Our merger delayed the bankruptcy by 30 to 45 days.
[Without it] most companies would have been shocked and
unprepared for the sudden bankruptcy,” says Mr Bergstrom.
18
Maybe, maybe not. Joe Bob Perkins of Reliant Resources, another energy trader, insists that the markets would not have been disrupted even if Enron had collapsed suddenly.
The reason, he argues, is that supply and demand did not change when Enron went bust. Because Enron had
turned to an “asset-light” strategy in recent years, eschewing power plants in favour of fancy financial derivatives, its decline did not take much physical supply of gas or electricity off the market. The physical market, Mr
Perkins insists, was flexible enough to hold up even if Enron had imploded overnight. In contrast, ICF estimates
that the market for financial trading that Enron pioneered has collapsed to a third of its pre-bankruptcy level.
Deregulation works
The physical market's resilience points to the biggest explanation for the lack of a crisis: energy deregulation.
Thanks in part to Enron's tenacious lobbying, the sweeping liberalisation of energy markets on both sides of the
Atlantic has greatly boosted competition in wholesale gas and power. In every bit of the business, an array of
companies now fights for market share. They were able to swoop in as the industry leader faded from the scene.
Even EnronOnline, the firm's successful Internet-trading platform, has been seamlessly displaced by previously
struggling rivals, such as the InterContinental Exchange (ICE). Richard Spencer, ICE's chief financial officer,
can hardly contain his excitement: “Enron validated the market, they opened the door, they let us in the door, and
then they left.” However, he is quick to give credit to the market reform that made his firm's ascent possible.
“We hope Washington will see that it's not deregulation that's the problem,” he says. “Here the market had a
failure, and it went away almost without a blip.”
It is not only energy traders—market zealots one and all—who give thanks for energy deregulation. So do regulators, an altogether more cautious lot. “Enron's demise proves that liberalisation works,” says Callum McCarthy, Britain's energy regulator. Britain's New Electricity Trading Arrangement was just seven months old when
Enron, the market leader, collapsed—and yet the system proved robust. Mr McCarthy's counterparts on America's Federal Energy Regulatory Commission have also made clear that they think deregulation is part of the
solution to the Enron debacle, not part of the problem.
Making waves
Although Enron's sinking did not pull down the energy world, it has still produced a few ripples. The biggest of
these is closer scrutiny of traders' balance sheets. Because many of Enron's financial fiddles involved hiding
debt, investors have been punishing any firms that appear to have over-borrowed (see article).
This has led to a flight to quality, with asset-heavy firms, which were once seen as stodgy, now back in favour.
One such company is Dominion Resources, a big American utility with trading operations. Thos Capps, its boss,
Einleitung
45
says: “We don't like mark-to-market accounting and we don't do asset-light trading. We believe that you ought to
have your profits and revenues in the same year.”
The industry's reporting standards may never become that conservative, but there is no doubt that Enron's demise
has already raised the bar. Take the example of Williams, an Oklahoma-based energy company that delayed
releasing its final 2001 results while it worked out exactly how to treat potential liabilities related to its telecoms
unit. Despite the fact that Williams was one of the only companies to have reported its 2000 energy-trading revenues on the conservative basis used by financial firms (as the chart shows), its shares took a beating.
Reliant Resources was also punished by the market when it delayed releasing its results by a day earlier this
month—even though it explained that its accounting had been too cautious and its profits were therefore higher
than previously stated. “Nobody wants to be perceived as Enron-like,” says Reliant's Mr Perkins.
That must seem the cruellest thing of all to Enron. After all, it was the firm's vision and aggressive lobbying that
helped to create today's vibrant energy marketplace. Yet not only are its erstwhile rivals dancing on its grave; it
now seems clear that the best of Enron's ideas will outlast the ill-fated company. “This industry was championed
by Enron when a leader was needed to push deregulation,” says Dynegy's Mr Bergstrom. “Now, the industry has
finally figured out that it no longer needs Enron.”
1.7.6 Russia
The tragicomic destruction of Yukos, and its legacy, The Economist, Dec 29th 2004
IN THE end it was a classic Russian combination of the astonishing and the predictable and the predictably bad,
and a fitting denouement to a campaign that has been as chaotic as it has been capricious. Following the forced
auction of the main oil-production subsidiary of Yukos, the Kremlin has extended its influence in Russia's energy sector. Besieged for a year and a half, Yukos has finally and irrevocably been eviscerated; Mikhail
Khodorkovsky, its former boss, whose political ambitions incurred the wrath of Vladimir Putin, Russia's president, is still in prison and on trial. The astonishing part involved an American court and a mystery shell company.
On December 19th, Yuganskneftegaz, which accounted for 60% of Yukos's oil-production capacity, was sold by
the government for $9.35 billion, ostensibly to pay some of Yukos's huge tax bill. But the sale was not to Gazprom, a state-run gas firm that had seemed the likely buyer. Instead, Yugansk was bought by Baikal Finance
Group, a hitherto unknown firm whose registered address in the town of Tver reportedly houses a grocery shop.
Big Russian corporate auctions are often brazen and bizarre, but the identity of the successful buyer is generally
not a surprise. Rumours about the provenance of Baikal swirled around Moscow. Then, on December 22nd,
Rosneft, a state-owned oil company, revealed that it had bought Baikal (and thus Yugansk) for an undisclosed
sum. The chairman of Rosneft is Igor Sechin, a close confidant of Mr Putin. Thus the state took back Mr
Khodorkovsky's prime asset in a way not unlike that in which he acquired his wealth in the first place. Mr Putin
said that the process had adhered to the best market standards. Andrei Illarionov, the president's maverick economic adviser (at least for now), reportedly called it the “swindle of the year”.
Why Baikal and Rosneft, and not Gazprom? The most palatable explanation is a last-minute injunction secured
by Yukos in a court in Houston, Texas, protecting the firm's assets while it filed for bankruptcy—part of Yukos's
strategy of trying to force the Kremlin into openly using extra-judicial methods. The ruling, though questionable,
scared off a consortium of western banks financing Gazprom's bid. In the end, Baikal was the only actual bidder.
Rosneft, being state-owned, should enjoy sovereign immunity, even in a Texan court.
That is unlikely to stop Yukos and some of its shareholders suing it, the Russian government, the owners of
Baikal (if they can be found) and Gazprom. Yet Yukos now looks comprehensively doomed. It once seemed
likely that the firm's alleged tax debts and the attendant penalties would conveniently equal the government's
valuation of Yugansk. After the sale Yukos would have kept some assets to pacify minority investors. But the
tax bill dwarfs the discounted auction price, and further expropriations now seem likely.
Einleitung
46
The Houston court has altered the fate of Yugansk only temporarily, because Rosneft is merging with Gazprom
in a deal that will give the Russian government a controlling stake in the enlarged firm. The merger will produce
a global energy giant, and an even stronger foreign-policy instrument for the government than Gazprom is now.
However, the Yugansk auction may delay the merger for a while, and with it the liberalisation of Gazprom share
ownership—to allow foreign investors to buy ordinary shares—that is supposed to follow it.
The anxiety induced by the Yukos affair has not been helped by another of Mr Putin's remarks about the auction.
It had, he said, put right a wrong done in the privatisations of the 1990s—of which Mr Khodorkovsky was not
the only beneficiary. Roman Abramovich, an oil baron turned soccer-club owner whose flamboyant lifestyle has
helped to make him vulnerable to crowd-pleasing penalties, has already sold some of his Russian assets. There
were rumours this week that Rosneft and a foreign partner were planning to acquire Sibneft, the oil company in
which Mr Abramovich has a majority stake. Sibneft may yet face a back-tax bill of its own.
Investors who had hoped that the Yukos affair was a one-off vendetta against a troublesome and hubristic oligarch had already been distressed by new tax charges against Vimpelcom, a mobile phone operator listed in New
York. Vimpelcom is neither a privatised company nor an energy firm, two of the factors that made attacking
Yukos attractive to the Kremlin. The fracas may owe something to a rumoured spat between a government minister and a big Vimpelcom shareholder. Not “another Yukos”, then, but not an advert for investing in Russia,
either.
Strong-arm tactics The bullying of Shell over Sakhalin II does Russia few favours3
THE quest for oil demands flexibility when operating in harsh environments, and big companies are used to
accommodating some unsavoury regimes. These days few places are tougher than Russia, where Royal Dutch
Shell has been forced to bend over backwards. On Monday December 11th the Anglo-Dutch energy giant reportedly offered to cede control of Sakhalin II, a huge natural-gas project in the east and the country’s biggest single
foreign investment, to Gazprom, the state-controlled gas titan. Shell and its two Japanese minority partners succumbed after months of bullying by the government, which hasnowacquired a big chunk of a private enterprise.
It is a disturbing and unwelcome development, but it should not come as a surprise. Vladimir Putin’s regime
shamelessly dismembered Yukos, an oil firm owned by a political rival. And Russia’s government has made
little secret that it regards energy as a legitimate tool of foreign policy in an energy hungry world. The grab for
Sakhalin is just the latest tightening of Russia’s grip on its oil and gas reserves. The Kremlin is discouraging
foreign participation in the exploitation of energy reserves: legislation is planned to limit outsiders, in future, to
minority stakes in energy and precious-metal firms.
Gazprom had long coveted a slice of Sakhalin II and had negotiated with Shell to take a 25% stake. But it has
gradually become clear that Russia’s government expected more. In September some important environmental
permits were revoked, which threatened to halt work on the project. The Kremlin’s new green credentials drew
admiring words from environmental groups, but the state was evidently more concerned about flexing its political muscles than protecting nature.
Russia may have had some grounds for complaint over the deal with Shell. It was signed when energy prices
were much lower and when the country was desperate to attract foreign capital and expertise. The terms of the
production-sharing agreement (PSA), governing the distribution of spoils, were tilted towards Shell. Russia’s
government has also been infuriated by huge cost overruns, which led to the breakdown of talks that might have
resulted in Gazprom settling for a minority stake. The project may now cost $20 billion, twice the original estimate. And Shell is entitled to recover its investment before paying out royalties.
But where Russia’s government may have had a good case for renegotiating the deal, instead it has resorted to
intimidation. Shell had few negotiating levers and had little option but to back down. Though the details of the
deal are not clear, some analysts suggest that Shell and its Japanese partners might get $4 billion for the half of
Sakhalin II that they will hand over. At least it seems that Russia has not yet torn up the PSA, so Shell can still
expect returns on its huge investment.
3 Dec 12th 2006 from Economist.com
Einleitung
47
Other big oil companies may fear similar treatment. Gazprom or Rosneft, another state-run energy firm, may try
to elbow their way further into the remaining foreign-controlled projects. Already there have been veiled threats
over the other two big ones governed by PSAs—ExxonMobil’s Sakhalin I and Total’s Kharyaga. The Kremlin is
also putting pressure on TNK-BP, an Anglo-Russian energy firm whose Kovykta project is north of China.
The risk for Russia, of course, is to its reputation. The government is getting a name for disregarding or unilaterally rewriting agreements when the mood strikes. With global demand for energy so high, oil firms may well
decide that the risk is still worth it in Russia. But foreign companies considering investment in other sectors may
think again. Investors eyeing a slew of forthcoming IPOs (among energy firms and others) may now be discouraged. That is not what Russia needs. Thanks largely to high oil prices, its economy has been growing by an average of some 6.5% a year. The best way to sustain that is not to cede control of oil and gas fields to bureaucratic,
inefficient and opaque state energy firms. More foolish still would be to scare away investors from other parts of
Russia’s still-creaking economy.
1.7.7 China
Bogus fears send the Chinese packing, The Economist Aug. 2nd 2005.
CNOOC, a Chinese state-controlled oil firm, has abandoned its $18.5 billion bid for Unocal, blaming political
opposition in America. China’s government could retaliate by blocking American investment in China. American firms may, in the long run, be glad of that
FU CHENGYU, chairman and chief executive of China National Offshore Oil Corporation (CNOOC), did all he
could to make his firm appear like a western, commercially-minded enterprise in its pursuit of Unocal. But on
Tuesday August 2nd, Mr Fu pulled the plug on CNOOC’s $18.5 billion bid for America’s eighth-largest oil firm.
This leaves the way open for Chevron, America’s second-largest oil company, to pursue its own $17 billion offer
for Unocal.
Despite its reputation as one of China’s best-managed companies and the presence on its board of two respected
non-Chinese businessmen—Evert Henkes, formerly of Shell, and Kenneth Courtis of Goldman Sachs—
CNOOC’s bid for Unocal met with considerable hostility from American politicians. Indeed, in explaining the
decision to abandon its bid, the Chinese company said that it had “given active consideration to further improving the terms of its offer, and would have done so but for the political environment in the US.”
Not even CNOOC’s promise to preserve American jobs could prevent a wave of criticism across Washington,
which centred on the perceived threat to national security of placing precious energy reserves (albeit located
largely in Asia) in the hands of a firm that, despite its semblance of westernisation, is still linked to China’s
communist government. The political resistance to CNOOC’s bid culminated in the insertion into an energy bill
of a clause requiring a four-month study of China’s energy policy before the bid could continue—a move that
would, in effect, force CNOOC to raise its offer to compensate investors for the delay. But the company insisted
it would not countenance paying more “just because we’re Chinese”. The final nail in the coffin may have been
the decision by Institutional Shareholder Services, an influential advisory group, to recommend Chevron’s lower
offer, citing the opposition to CNOOC’s bid and the risks associated with it.
When CNOOC launched its bid in April, it seemed to confirm a trend: Chinese companies were on a buying
spree. Shortly before, Haier, a white-goods manufacturer, had launched its own bid for a slice of American business, offering $2.25 billion for Maytag (though it pulled out last month after Whirlpool countered). And in May,
Lenovo, a firm with strong connections to China’s government, had finalised its purchase of the PC-making arm
of IBM.
These and other deals have clear backing from Beijing. China’s government is intent on creating up to 50 statecontrolled “global champions” to cement the place of the country’s businesses among the world’s best and maintain China’s rapid rate of economic growth. It hopes to achieve this both through the acquisition of natural resources and of western brands, management skills and access to international markets, while cutting costs by
moving manufacturing jobs to mainland China. Firms that are directly or indirectly state-owned have access to
the vast resources of the Chinese state. Even those that are nominally independent can obtain loans that are virtually interest-free from state-owned banks.
Einleitung
48
American politicians made much of the fact that CNOOC was able to trump Chevron’s offer with a cash bid
because $7 billion would come directly from China’s government and another $6 billion would come in the form
of low-interest loans from state banks. This partly explains why CNOOC could afford to preserve American jobs
while Chevron has promised cost savings of some $325m from the merger (inevitably including job losses).
Congress’s objections to the subsidising of American employment by China’s government are hard to fathom.
So too are fears that American interests would be damaged if China gained access to a limited amount of oil and
gas reserves (Unocal is not even one the world’s top 40 oil companies). For all the talk of securing energy reserves, China would still be as exposed to the movement of oil prices on the world’s energy markets as any other
country.
American politicians’ objections to the deal echo those heard in the 1980s, when Japan embarked on a buying
spree of American assets. Then, too, congressmen spread misguided fears of excessive foreign control and national-security threats. Yet, in recent years, acquisitions of American energy-related assets by state-owned oil
firms such as Saudi Arabia’s Aramco and Venezuela’s PDVSA failed to elicit so much as a murmur. In the case
of CNOOC, some may have seen an opportunity to repay China for the “unfair” competition that America
blames for its huge trade deficit. On July 21st, China tried to allay some of the criticism by revaluing the yuan
slightly and switching its peg from the dollar to a basket of currencies.
At the time of the Japanese invasion, America’s Congress considered a number of bills to curtail foreign investment. Ronald Reagan introduced the notorious “voluntary export restraints” on Japanese steel and cars. He also
abandoned America’s laisser-faire approach to currency markets and, through the Plaza Agreement, engineered a
sharp drop in the dollar. But the widely predicted Japanese conquest of American business failed to materialise,
largely because the investments were ill-considered. Chinese firms are likely to continue chasing American assets despite CNOOC’s failure. American investors should make the most of it while they are still prepared to
overpay.
By denying China access to energy assets through legitimate means, America might expose itself to bigger
threats. Some think that China might now seek energy security more aggressively, for instance by competing
more directly for access to the oil and gas from Russia and Central Asia that the West so prizes. And the Chinese
government may retaliate by blocking American investment in China. No other country attracts as much foreign
direct investment: in 2004, around $60 billion poured into China as firms raced to grab a slice of its huge untapped market.
Foreign multinationals may not like to mention it, but doing business in China is far from easy—and often not
very profitable. The country’s bureaucracy is mystifying, its maze of regulations ever-changing. In addition,
Chinese officials generally consider that foreign firms deserve little in return for their investments. And compounding all this is the difficulty of finding trustworthy local business partners. So perhaps America’s firms
would, eventually, have reason to thank Beijing for turning them away.
1.7.8
The oil industry Steady as she goes4
Why the world is not about to run out of oil
IN 1894 Le Petit Journal of Paris organised the world's first endurance race for “vehicles without horses”. The
race was held on the 78-mile (125km) route from Paris to Rouen, and the purse was a juicy 5,000 francs. The
rivals used all manner of fuels, ranging from steam to electricity to compressed air. The winner was a car powered by a strange new fuel that had previously been used chiefly in illumination, as a substitute for whale blubber: petrol derived from oil.
Despite the victory, petrol's future seemed uncertain back then. Internal-combustion vehicles were seen as noisy,
smelly and dangerous. By 1900 the market was still split equally among steam, electricity and petrol—and even
Henry Ford's Model T ran on both grain-alcohol and petrol. In the decades after that great race petrol came to
4
From The Economist, Apr 20th 2006.
Einleitung
49
dominate the world's transportation system. Oil left its rivals in the dust not only because internal-combustion
engines proved more robust and powerful than their rivals, but also because oil reserves proved to be abundant.
Now comes what appears to be the most powerful threat to oil's supremacy in a century: growing fears that the
black gold is running dry. For years a small group of geologists has been claiming that the world has started to
grow short of oil, that alternatives cannot possibly replace it and that an imminent peak in production will lead to
economic disaster. In recent months this view has gained wider acceptance on Wall Street and in the media.
Recent books on oil have bewailed the threat. Every few weeks, it seems, “Out of Gas”, “The Empty Tank” and
“The Coming Economic Collapse: How You Can Thrive When Oil Costs $200 a Barrel”, are joined by yet more
gloomy titles. Oil companies, which once dismissed the depletion argument out of hand, are now part of the
debate. Chevron's splashy advertisements strike an ominous tone: “It took us 125 years to use the first trillion
barrels of oil. We'll use the next trillion in 30.” Jeroen van der Veer, chief executive of Royal Dutch Shell, believes “the debate has changed in the last two years from 'Can we afford oil?' to 'Is the oil there?'”
But is the world really starting to run out of oil? And would hitting a global peak of production necessarily spell
economic ruin? Both questions are arguable. Despite today's obsession with the idea of “peak oil”, what really
matters to the world economy is not when conventional oil production peaks, but whether we have enough affordable and convenient fuel from any source to power our current fleet of cars, buses and aeroplanes. With that
in mind, the global oil industry is on the verge of a dramatic transformation from a risky exploration business
into a technology-intensive manufacturing business. And the product that big oil companies will soon be manufacturing, argues Shell's Mr Van der Veer, is “greener fossil fuels”.
The race is on to manufacture such fuels for blending into petrol and diesel today, thus extending the useful life
of the world's remaining oil reserves. This shift in emphasis from discovery to manufacturing opens the door to
firms outside the oil industry (such as America's General Electric, Britain's Virgin Fuels and South Africa's Sasol) that are keen on alternative energy. It may even result in a breakthrough that replaces oil altogether.
26
27
To see how that might happen, consider the first question: is the world really running out of oil? Colin Campbell,
an Irish geologist, has been saying since the 1990s that the peak of global oil production is imminent. Kenneth
Deffeyes, a respected geologist at Princeton, thought that
the peak would arrive late last year.
28
29
30
31
32
33
34
35
36
37
38
39
40
It did not. In fact, oil production capacity might actually
grow sharply over the next few years (see chart 1). Cambridge Energy Research Associates (CERA), an energy
consultancy, has scrutinised all of the oil projects now under way around the world. Though noting rising costs, the
firm concludes that the world's oil-production capacity
could increase by as much as 15m barrels per day (bpd)
between 2005 and 2010—equivalent to almost 18% of today's output and the biggest surge in history. Since most of
these projects are already budgeted and in development,
there is no geological reason why this wave of supply will
not become available (though politics or civil strife can
always disrupt output).
41
42
43
44
Peak-oil advocates remain unconvinced. A sign of depletion, they argue, is that big Western oil firms are finding it
increasingly difficult to replace the oil they produce, let
alone build their reserves. Art Smith of Herold, a consultancy, points to rising “finding and development” costs at the big firms, and argues that the world is consuming two
to three barrels of oil for every barrel of new oil found. Michael Rodgers of PFC Energy, another consultancy,
says that the peak of new discoveries was long ago. “We're living off a lottery we won 30 years ago,” he argues.
It is true that the big firms are struggling to replace reserves. But that does not mean the world is running out of
oil, just that they do not have access to the vast deposits of cheap and easy oil that are left in Russia and members of the Organisation of Petroleum Exporting Countries (OPEC). And as the great fields of the North Sea and
Einleitung
50
Alaska mature, non-OPEC oil production will probably peak by 2010 or 2015. That is soon—but it says nothing
of what really matters, which is the global picture.
When the United States Geological Survey (USGS) studied the matter closely, it concluded that the world had
around 3 trillion barrels of recoverable conventional oil in the ground. Of that, only one-third has been produced.
That, argued the USGS, puts the global peak beyond 2025. And if “unconventional” hydrocarbons such as tar
sands and shale oil (which can be converted with greater effort to petrol) are included, the resource base grows
dramatically—and the peak recedes much further into the future.
After Ghawar
It is also true that oilmen will probably discover no more “super-giant” fields like Saudi Arabia's Ghawar (which
alone produces 5m bpd). But there are even bigger resources available right under their noses. Technological
breakthroughs such as multi-lateral drilling helped defy predictions of decline in Britain's North Sea that have
been made since the 1980s: the region is only now peaking.
Globally, the oil industry recovers only about one-third of the oil that is known to exist in any given reservoir.
New technologies like 4-D seismic analysis and electromagnetic “direct detection” of hydrocarbons are lifting
that “recovery rate”, and even a rise of a few percentage points would provide more oil to the market than another discovery on the scale of those in the Caspian or North Sea.
Further, just because there are no more Ghawars does not mean an end to discovery altogether. Using ever fancier technologies, the oil business is drilling in deeper waters, more difficult terrain and even in the Arctic (which,
as global warming melts the polar ice cap, will perversely become the next great prize in oil). Large parts of
Siberia, Iraq and Saudi Arabia have not even been explored with modern kit.
The petro-pessimists' most forceful argument is that the Persian Gulf, officially home to most of the world's oil
reserves, is overrated. Matthew Simmons, an American energy investment banker, argues in his book, “Twilight
in the Desert”, that Saudi Arabia's oil fields are in trouble. In recent weeks a scandal has engulfed Kuwait, too.
Petroleum Intelligence Weekly (PIW), a respected industry newsletter, got hold of government documents suggesting that Kuwait might have only half of the nearly 100 billion barrels in oil reserves that it claims (Saudi
Arabia claims 260 billion barrels).
Tom Wallin, publisher of PIW, warns that “the lesson from Kuwait is that the reserves figures of national governments must be viewed with caution.” But that still need not mean that a global peak is imminent. So vast are
the remaining reserves, and so well distributed are today's producing areas, that a radical revision downwards—
even in an OPEC country—does not mean a global peak is here.
For one thing, Kuwait's official numbers always looked dodgy. IHS Energy, an industry research outfit that constructs its reserve estimates from the bottom up rather than relying on official proclamations, had long been using a figure of 50 billion barrels for Kuwait. Ron Mobed, boss of IHS, sees no crisis today: “Even using our
smaller number, Kuwait still has 50 years of production left at current rates.” As for Saudi Arabia, most independent contractors and oil majors that have first-hand knowledge of its fields are convinced that the Saudis have
all the oil they claim—and that more remains to be found.
Pessimists worry that Saudi Arabia's giant fields could decline rapidly before any new supply is brought online.
In Jeremy Leggett's thoughtful, but gloomy, book, “The Empty Tank”, Mr Simmons laments that “the only alternative right now is to shrink our economies.” That poses a second big question: whenever the production peak
comes, will it inevitably prompt a global economic crisis?
The baleful thesis arises from concerns both that a cliff lies beyond any peak in production and that alternatives
to oil will not be available. If the world oil supply peaked one day and then fell away sharply, prices would indeed rocket, shortages and panic buying would wreak havoc and a global recession would ensue. But there are
good reasons to think that a global peak, whenever it comes, need not lead to a collapse in output.
For one thing, the nightmare scenario of Ghawar suddenly peaking is not as grim as it first seems. When it peaks,
the whole “super-giant” will not drop from 5m bpd to zero, because it is actually a network of inter-linked fields,
Einleitung
51
some old and some newer. Experts say a decline would probably be gentler and prolonged. That would allow,
indeed encourage, the Saudis to develop new fields to replace lost output. Saudi Arabia's oil minister, Ali Naimi,
points to an unexplored area on the Iraqi-Saudi border the size of California, and argues that such untapped resources could add 200 billion barrels to his country's tally. This contains worries of its own—Saudi Arabia's
market share will grow dramatically as non-OPEC oil peaks, and with it the potential for mischief. But it helps to
debunk claims of a sudden change.
The notion of a sharp global peak in production does not withstand scrutiny, either. CERA's Peter Jackson points
out that the price signals that would surely foreshadow any “peak” would encourage efficiency, promote new oil
discoveries and speed investments in alternatives to oil. That, he reckons, means the metaphor of a peak is misleading: “The right picture is of an undulating plateau.”
What of the notion that oil scarcity will lead to economic disaster? Jerry Taylor and Peter Van Doren of the Cato
Institute, an American think-tank, insist the key is to avoid the price controls and monetary-policy blunders of
the sort that turned the 1970s oil shocks into economic disasters. Kenneth Rogoff, a Harvard professor and the
former chief economist of the IMF, thinks concerns about peak oil are greatly overblown: “The oil market is
highly developed, with worldwide trading and long-dated futures going out five to seven years. As oil production
slows, prices will rise up and down the futures curve, stimulating new technology and conservation. We might
be running low on $20 oil, but for $60 we have adequate oil supplies for decades to come.”
The other worry of pessimists is that alternatives to oil simply cannot be brought online fast enough to compensate for oil's imminent decline. If the peak were a cliff or if it arrived soon, this would certainly be true, since
alternative fuels have only a tiny global market share today (though they are quite big in markets, such as ethanol-mad Brazil, that have favourable policies). But if the peak were to come after 2020 or 2030, as the International Energy Agency and other mainstream forecasters predict, then the rising tide of alternative fuels will help
transform it into a plateau and ease the transition to life after oil.
The best reason to think so comes from the radical transformation now taking place among big oil firms. The
global oil industry, argues Chevron, is changing from “an exploration business to a manufacturing business”. To
see what that means, consider the surprising outcome of another great motorcar race. In March, at the Sebring
test track in Florida, a sleek Audi prototype R-10 became the first diesel-powered car to win an endurance race,
pipping a field of petrol-powered rivals to the post. What makes this tale extraordinary is that the diesel used by
the Audi was not made in the normal way, exclusively from petroleum. Instead, Shell blended conventional
diesel with a super-clean and super-powerful new form of diesel made from natural gas (with the clunky name of
gas-to-liquids, or GTL).
Several big GTL projects are under way in Qatar, where the North gas field is perhaps twice the size of even
Ghawar when measured in terms of the energy it contains. Nigeria and others are also pursuing GTL. Since the
world has far more natural gas left than oil—much of it outside the Middle East—making fuel in this way would
greatly increase the world's remaining supplies of oil.
36
37
38
39
40
41
42
43
44
45
So, too, would blending petrol or diesel with ethanol and
biodiesel made from agricultural crops, or with fuel made
from Canada's “tar sands” or America's shale oil. Using
technology invented in Nazi Germany and perfected by
South Africa's Sasol when those countries were under oil
embargoes, companies are now also investing furiously to
convert not only natural gas but also coal into a liquid fuel.
Daniel Yergin of CERA says “the very definition of oil is
changing, since non-conventional oil becomes conventional
over time.”
46
47
48
49
50
51
Alternative fuels will not become common overnight, as
one veteran oilman acknowledges: “Given the capitalintensity of manufacturing alternatives, it's now a race between hydrocarbon depletion and making fuel.” But the
recent rise in oil prices has given investors confidence. As
Peter Robertson, vice-chairman of Chevron, puts it, “Price
Einleitung
52
is our friend here, because it has encouraged investment in new hydrocarbons and also the alternatives.” Unless
the world sees another OPEC-engineered price collapse as it did in 1985 and 1998, GTL, tar sands, ethanol and
other alternatives will become more economic by the day (see chart 2).
This is not to suggest that the big firms are retreating from their core business. They are pushing ahead with
these investments mainly because they cannot get access to new oil in the Middle East: “We need all the molecules we can get our hands on,” says one oilman. It cannot have escaped the attention of oilmen that blending
alternative fuels into petrol and diesel will conveniently reinforce oil's grip on transport. But their work contains
the risk that one of the upstart fuels could yet provide a radical breakthrough that sidelines oil altogether.
If you doubt the power of technology or the potential of unconventional fuels, visit the Kern River oil field near
Bakersfield, California. This super-giant field is part of a cluster that has been pumping out oil for more than 100
years. It has already produced 2 billion barrels of oil, but has perhaps as much again left. The trouble is that it
contains extremely heavy oil, which is very difficult and costly to extract. After other companies despaired of the
field, Chevron brought Kern back from the brink. Applying a sophisticated steam-injection process, the firm has
increased its output beyond the anticipated peak. Using a great deal of automation (each engineer looks after
1,000 small wells drilled into the reservoir), the firm has transformed a process of “flying blind” into one where
wells “practically monitor themselves and call when they need help”.
The good news is that this is not unique. China also has deposits of heavy oil that would benefit from such an
advanced approach. America, Canada and Venezuela have deposits of heavy hydrocarbons that surpass even the
Saudi oil reserves in size. The Saudis have invited Chevron to apply its steam-injection techniques to recover
heavy oil in the neutral zone that the country shares with Kuwait. Mr Naimi, the oil minister, recently estimated
that this new technology would lift the share of the reserve that could be recovered as useful oil from a pitiful 6%
to above 40%.
All this explains why, in the words of Exxon Mobil, the oil production peak is unlikely “for decades to come”.
Governments may decide to shift away from petroleum because of its nasty geopolitics or its contribution to
global warming. But it is wrong to imagine the world's addiction to oil will end soon, as a result of genuine scarcity. As Western oil companies seek to cope with being locked out of the Middle East, the new era of manufactured fuel will further delay the onset of peak production. The irony would be if manufactured fuel also did
something far more dramatic—if it served as a bridge to whatever comes beyond the nexus of petrol and the
internal combustion engine that for a century has held the world in its grip.
1.7.9
Nuclear power: Atomic renaissance5
America's nuclear industry is about to embark on its biggest expansion in more than a generation. This will influence energy policy in the rest of the world
OVER the next few months America's Nuclear Regulatory Commission (NRC) expects to receive 12 applications to build new nuclear-power reactors at seven different sites. It is preparing to see plans for another 15 at 11
more locations next year. These will be the first full applications to build new nuclear plants in America for 30
years. If they are all successful, the number of reactors in the country will increase by roughly a third. The output
of nuclear electricity would grow even more sharply—the new reactors would be more powerful than older ones.
The new enthusiasm for building reactors means America's long-awaited “nuclear renaissance” is about to become reality.
Whether it is a leap forwards or a step backwards remains to be seen. Since the 1970s, far from being “too cheap
to meter”—as it proponents once blithely claimed—nuclear power has proved too expensive to matter. The problem is finance: nuclear plants cost a lot to build but are relatively cheap to run, unlike gas-fired ones, for which
the reverse is true. So to be profitable they must be built quickly, to minimise the period when no revenue is
coming in and interest payments are piling up on construction loans. Yet America's previous generation of nu-
5 The Economist, Sep 6th 2007.
Einleitung
53
clear plants was plagued by safety scares, design revisions and time-consuming regulatory procedures, which
resulted in ruinously protracted construction.
America's most recent nuclear plant, at Watts Bar in Tennessee, started operations in 1996. But it took 23 years
to complete at a cost of $6.9 billion; a second reactor at the site has been under construction, on and off, since
1973. Another plant, at Shoreham in New York, was completed and tested, but never allowed to start commercial operations because of local opposition. By the time it was decommissioned, in 1994—21 years after construction had begun—the costs had exploded from $70m to $6 billion. The local utility was able to pass most of
this bill on to its customers. Not all energy firms have been so lucky: in 1988 Public Service Company of New
Hampshire became the first American utility to go bust since the Depression, thanks largely to the fallout from a
much-delayed nuclear project.
Even when they were switched on, nuclear-power stations did not fulfil their promise. They were supposed to
run almost constantly, but proved much less reliable. In the early 1970s, for example, the average nuclear plant
produced power for under half the time. Since most utilities had planned to run them flat out to generate enough
revenue to repay their debts, this poor performance led to further financial troubles. And, as anti-nuclear activists
complain, all this happened despite the government's generous subsidies to help cover the costs of developing
new designs and building prototypes.
As for safety...
What is worse, nuclear power has a spotty safety record. There have never been any catastrophic releases of
radiation in Western countries. But one did occur in 1986 at Chernobyl, in what was then the Soviet Union and is
now Ukraine. America came perilously close to such a disaster in 1979, when a reactor at Three Mile Island in
Pennsylvania overheated and began to melt down. There have been lesser safety scares and scandals in many
countries, including Britain, Germany and Sweden. In August an earthquake resulted in several small leaks of
radioactive material from a nuclear reactor in Japan.
The next generation of nuclear plants is said to be very different. Firms which make them, such as America's
General Electric and Westinghouse, and foreign manufacturers like France's AREVA, insist that such episodes
will soon be a thing of the past. Their latest designs, they maintain, are simpler and safer than existing nuclear
plants. That should make it easier to obtain operating permits, allow them to be built faster and be cheaper to
run—and so much less risky financially. Meanwhile, contractors are said to be getting better at building them,
the NRC better at regulating them and utilities better at running them. Although nuclear power's boosters welcome a smorgasbord of new subsidies that Congress has approved to nourish the industry, they say that in the
long run even this will not be necessary because the industry will be able to move forward under its own nucleargenerated steam.
Consolidating reactors
America's utilities have certainly warmed to their existing nuclear-power plants now that they are running them
more efficiently. In the 1970s, says Colette Lewiner, of Capgemini, a consultancy, even small municipally
owned firms ordered nuclear reactors, imagining they would be no more complicated to operate than their existing power stations, except in so far as workers would need uranium to shovel into the furnace instead of coal.
But they found that they had neither the expertise to maintain their new investments, nor the scale to absorb all
the extra regulatory costs, nor the clout to secure fuel and parts at competitive prices. Many ended up putting
their nuclear plants up for sale.
That allowed bigger firms to acquire reactors on the cheap, and thus to achieve economies of scale and to capitalise on their experience. These nuclear specialists have been able to speed up the refuelling process, keep shutdowns for maintenance to a minimum and so keep the reactors going more of the time. Last year the average
nuclear reactor in America was in use 90% of the time. Better still, utilities have found ways to improve the nonnuclear parts of the power station, such as the steam turbines. These so-called “uprates” have increased America's nuclear capacity by almost 5,000MW since 1977, the equivalent of about five new nuclear reactors, according to the Nuclear Energy Institute, an industry group. At the same time, the NRC has agreed to extend the working life of about half of America's nuclear plants for an extra 20 years.
Einleitung
54
All this has turned nuclear-power plants into virtual mints—as long as the bill for construction has been paid
down or written off. In most of America, the wholesale power price is closely linked to the price of natural gas,
since gas-fired plants tend to provide the extra power required at times of peak demand. So the price of power
has risen along with that of gas over the past few years, whereas the operating costs of nuclear plants have remained relatively stable. According to the Energy Information Administration, a government agency, the average wholesale power price in 2005 was 5 cents per kilowatt-hour (kWh); the Nuclear Energy Institute, an industry group, reckons that the average operating cost of America's nuclear plants was 1.7 cents per kWh that year.
So their margins were almost 200%.
No wonder that utilities are rushing to the NRC with their plans for new reactors. But to get any of them off the
ground they must not only persuade the NRC of the safety of their designs, but also convince potential creditors
that there will be no repeat of the financial meltdowns of the 1970s and 1980s. They point to three reasons for
optimism: changing conditions in the energy business, a streamlining of the NRC's process for obtaining permits
and an overhaul of construction techniques.
Until recently coal-fired plants seemed to be safer investments. But nowadays most utilities expect—and in some
cases are calling for—Congress to limit emissions of greenhouse gases in the near future to temper climate
change. Coal-fired plants, which have a working life of 40 years or more, spew out globe-warming pollution,
whereas nuclear ones produce almost no greenhouse gases at all. So coal is now subject to a massive “regulatory
risk” of its own. Utilities are piling into green-generation technologies, such as wind turbines and solar panels.
But for a constant source of clean power, they have few choices other than nuclear.
Meanwhile, to avoid the fiascos of the past the NRC has simplified its procedures. It used to require utilities to
obtain two different licences, the first to build a nuclear plant and after that a second licence to start it up. Both
applications involved lengthy reviews, which culminated in interminable public hearings. New reactors, like the
one at Shoreham, could be finished at great expense and yet never secure an operating licence. So the NRC is
combining the two stages: utilities can now apply for a single “combined construction and operating licence”.
Construction need not start—and for most bits of the plant is not allowed to—until the licence is issued.
To speed things up even more, the NRC is allowing firms selling nuclear reactors to get designs cleared in advance. That way, when a utility applies to build a reactor of an approved design, the NRC will only need to review the modifications that are unique to its site. Westinghouse has already got its AP-1000 model cleared; the
NRC is in the process of certifying GE's latest design, called the ESBWR, and AREVA is about to submit an
application for its new offering, the EPR.
By the same token, utilities can now ask the NRC to approve a location as suitable for a nuclear-power station
before they go to the trouble and expense of applying for a combined licence. Four firms have asked for these
“early site permits” and two have already received them. Another short cut involves submitting the environmental part of a combined licence before the part that deals with the design. UniStar, a joint venture between America's Constellation and Électricité de France (EDF), filed that sort of paperwork in July for a new reactor in Maryland.
The NRC has also made a point of asking utilities about their nuclear plans before any applications arrive. This
is so it can be sure it will have enough staff to handle them—which is how it knows how many new plants are in
the works. It is hiring about 200 new staff every year, and since most of the utilities contemplating nuclear plants
are in the South, has set up a field office in Georgia to co-ordinate with them directly. It is even planning to suggest to Congress possible amendments to the relevant laws to reduce the hassle and uncertainty of licensing even
more.
The process will still be time-consuming: the NRC reckons it will need two and a half years to review each application and a further year to conduct hearings on its conclusions. Certification of new reactor designs might
take as long as four years: AREVA says its application for the EPR runs to 17,000 pages and fills a small bookcase. Nonetheless, the NRC aims to issue its first new licences at some point in 2011.
Obstreperous local authorities could still put a spanner in the works. It was opposition from county and state
officials, for example, that finally did in the Shoreham plant. Although they have no explicit authority to block a
new reactor, local officials can withhold permits to use the water from a river for cooling, for example, or refuse
to co-operate on emergency planning. But utilities are hoping to avoid such pitfalls by locating their new reactors
Einleitung
55
only in welcoming jurisdictions—preferably next door to existing ones. Locals in such places know that expanding existing nuclear facilities will bring more jobs and produce more tax revenue. Moreover, they have grown
accustomed to having nuclear reactors nearby and do not find the idea particularly frightening. As Dale Klein,
chairman of the NRC, puts it, the staff and management of nuclear plants, and local residents, all go to church
together.
Fast builders
Utilities are also confident that they can build new reactors more quickly than before. Many have already placed
orders for the parts that take a long time to build. They have also brought in partners that have completed nuclear
projects on time and on budget in other countries. Westinghouse, for example, points to the exemplary record of
its parent company, Toshiba, in Japan. Similarly, GE has teamed up with Hitachi, another respected Japanese
nuclear contractor. AREVA, meanwhile, looks to the series of successful plants it has built in conjunction with
EDF in France. All three vendors say they plan to save time and money by using as many identical parts as possible for the different nuclear plants they build in America—unlike the bespoke designs of the past. All this
should reduce the time required for construction to four years, they say, which would allow the first new reactors
to enter service in 2015 or 2016.
But bankers are still sceptical. They are worried that when the new designs and the NRC's new procedures are
put to the test, hidden flaws will emerge. After all, the first of AREVA's EPR designs is under construction in
Finland and is two years behind schedule and dramatically over budget. To avoid such nasty surprises, NRG
Energy, a power-generation company that is applying to build two new reactors in Texas, has opted for one of
GE's older and already-proven designs, even though GE insists that its ESBWR will be cheaper to build and to
run. Other utilities are planning to build nuclear plants in the regulated markets of the South, in the hope that the
regulators will allow them to pass any cost over-runs on to their customers.
Even so, says David Crane, NRG's boss, banks are simply not prepared to lend money to build nuclear plants in
America without some extra surety. The Energy Policy Act, which Congress approved in 2005, is supposed to
provide that. It offers four different types of subsidies for new reactors. First, it grants up to $2 billion in insurance against regulatory delays and lawsuits to the first six reactors to receive licences and start construction.
Second, it extends an older law limiting a utility's liability to $10 billion in the event of a nuclear accident. Third,
it provides a tax credit of 1.8 cents per kWh for the first 6,000MW generated by new plants. Fourth, and most
importantly, it offers guarantees for an indeterminate amount of loans to fund new nuclear reactors and other
types of power plant using “innovative” technology.
The scope of these loan guarantees is the subject of great controversy. Some politicians fear that the costs of the
programme might balloon; others complain that the Department of Energy, which will administer it, is too stingy. Meanwhile, some financial experts argue that the rules, as drafted, would not allow issuing banks to repackage and sell on the loans in question, making them less attractive. There is also some debate about what proportion of a nuclear plant's debt should be covered: the act says up to 80% of the costs of construction, but that
might be sufficient to cover the full amount borrowed, leaving banks with no risk at all. Until all this is settled,
utility bosses insist, new nuclear plants will not get built.
Clearing up afterwards
The fate of America's nuclear waste, which the government has vowed to sequester for a million years, is another
unresolved issue. In theory, the Department of Energy is in charge of looking after it all. It requires utilities to set
aside a tenth of a cent for each kilowatt-hour of nuclear power they generate to help defray the costs of transporting nuclear waste to a safe repository and storing it there permanently. The only hitch is that no such repository
yet exists.
Most countries with nuclear power have determined that the safest way to store their waste is underground, deep
in the bedrock in air- and watertight containers. But no one has actually built such a facility. America has got as
far as selecting a site for one, at Yucca Mountain, a ridge in the middle of a former nuclear-testing ground in
Nevada. The Department of Energy is planning to submit an application to the NRC next year to build a repository there. The NRC, in turn, thinks the application will take about three years to review. Officials say the facility will be open for business in 2017.
Einleitung
56
But Harry Reid, a senator from Nevada, has vowed to derail the scheme. As it is, Congress has been cutting
funding for the Yucca Mountain project, which was first proposed in 1978 and has since been the subject of
several lawsuits. Now that Mr Reid has become Senate majority leader the odds of the repository ever getting
built have diminished.
Meanwhile, nuclear waste continues to pile up in ponds and containers at nuclear plants around the country. The
NRC monitors these and claims that they are safe for the foreseeable future. But Mr Klein, its chairman, tactfully
hints that it would be prudent for the government to find a more permanent solution, especially since it is encouraging a dramatic expansion of nuclear power.
Nonetheless, Mr Klein believes that the expansion of nuclear energy is now in motion and is unlikely to be
slowed down by concerns about what to do with the waste. The only thing that could stop a nuclear renaissance
now, he suggests, is a serious accident at an existing plant. Unfortunately, it would not be the first.
Einleitung
57
1.7.10 Appendix: World Energy Data
Resource for all Data Sheets: BP Statistical Review of Worl Energy, 2004.
Oil Peaking?
Comparing production with discoveries
Source: Bentley Roger W. , Global Oil and Gas Depletion -- A Letter to the Energy Modelling Community, International Association for Energy Economists, Newsletter, Second Quarter 2006, www.iaee.org, p 5-14.
Price Projections
:
Source:
Ressourcen
58
2 Theorie der optimalen Förderung nicht erneuerbarer Ressourcen
Die jüngere Vergangenheit, etwa seit 1974, ist gekennzeichnet durch ein wiedererwachtes
Interesse in der Analyse der optimalen Nutzung finiter Ressourcen. Dieses Interesse resultierte sowohl aus dem apokalyptischen Bericht des Club of Rome, Meadows et al: "Limits to
Growth", als auch der Strategie der OPEC, Ende 1973 die Ölpreise drastisch zu erhöhen. Diesem Interesse steht eine Vernachlässigung dieses Phänomens in allen Standardlehrbüchern der
Ökonomie seit Jahrhunderten gegenüber. Trotzdem sind die Grundzüge dieser Theorie bereits
seit längerem bekannt (Ricardo -"Land", Malthus), und H. Hotelling schrieb
Contemplation of the world's disappearing supplies of minerals, forests and
other exhaustible assets has led to demands for regulation of their exploitation.
The feeling that these products are now too cheap for the good of future generations, that they are selfishly exploited at too rapid a rate, and that in consequence of their excessive cheapness they are being produced and consumed
wastefully has given rise to the conservation movement.
Dieses Zitat klingt wie aus den Zeitungen des Jahres 1974/75, stammt jedoch aus einer für
unsere Überlegungen grundlegenden Arbeit aus dem Jahre 1931.
Der essenzielle Unterschied der Ressourcentheorie zu anderen ökonomischen Fragestellungen
ist die Notwendigkeit der Betrachtung internationaler Zusammenhänge; z. B. schrieb Siebert
(1981): Allokationsentscheidungen verlangen ein Abwägen zwischen dem Nutzen einer Aktivität und ihren Opportunitätskosten. Bei intertemporalen Allokationsproblemen fallen Nutzen
und Opportunitätskosten zeitlich auseinander. Einem Vorteil heute steht ein Nachteil morgen
gegenüber - oder vice versa. Das allgemeine Prinzip der Optimalität fordert, dass sich heutiger
Nutzen und der abdiskontierte Nutzenverlust in der Zukunft gerade die Waage halten, dass
also Indifferenz zwischen heute und morgen besteht. Welche Allokationsresultate lassen sich
aus diesem allgemeinen Prinzip ableiten? Wie sind die Opportunitätskosten der Zukunft - die
sog. Nutzungskosten (user costs) - zu spezifizieren? Von welchen Bestimmungsfaktoren werden sie beeinflusst? Und inwieweit wird diese Fragestellung verkompliziert, wenn der Nutzenzuwachs heute und der Nutzenentgang morgen unterschiedlichen Individuen oder verschiedenen gesellschaftlichen Gruppen zufallen?
2.1
Nutzungskosten und intertemporale Sachzusammenhänge
Siebert: "Nutzungskosten sind definiert als die in zukünftigen Perioden entgangenen Nutzen
infolge der Entscheidung zugunsten einer Aktivitätseinheit heute. Beispielsweise bedeutet für
Robinson Crusoe der Verzehr einer Einheit Zwieback heute einen Nutzenentgang in der Zukunft (Page 1977, S. 152). Nutzungskosten können als Schattenpreis von Variablen interpretiert werden. Angenommen, es fällt - im Wege des Gedankenexperiments - zu irgendeinem
(auch zukünftigen) Zeitpunkt t eine zusätzliche Einheit eines Gutes wie Manna vom Himmel:
Um wie viel steigt dann der (Gegenwartswert des) Nutzen(s), um wie viel verbessert sich der
Wert der Zielfunktion (Arrow 1968, S. 93/94)? Die Größe gibt die zukünftige Bewertung des
Gutes an. Analog können wir fragen, wie sich der Nutzen verringert, wenn wir zu irgendeinem Zeitpunkt t dem System eine Einheit eines Gutes per Gedankenexperiment "entziehen".
Die dadurch verursachten Nutzenentgänge der Zukunft kennzeichnen die Opportunitätskosten..."
Ressourcen
59
Dies erfordert, i.A. dynamische Optimierung, etwa Variationsrechnung (Euler'sche Differentialgleichung) oder moderne Ansätze wie die Kontrolltheorie oder dynamische Programmierung. Die folgenden, beispielhaften Modelle betrachten diskrete Zeitperioden, so dass einfache Analysis und das Kuhn-Tucker Theorem aus Kapitel 2 die Ableitung der wichtigsten Eigenschaften gestatten. Zu Beginn der Diskussion muss jedoch der Begriff finite oder erschöpfbare Ressource genauer präzisiert werden. Wenn vom Prozess der Extraktion/Förderung als Produktionsprozess abgesehen wird, ist eine Ressource ein nicht produziertes Gut, als ein Primärinput für den Wirtschaftskreislauf. Aber auch "Land" ist ein Primärinput, ohne dass wir Land in dem selben Sinne als erschöpfbare Ressource wie etwa fossile Brennstoffe betrachten. Das Charakteristikum finiter erschöpfbarer Ressourcen ist, dass das
gesamte intertemporale Service dieses Gut beschränkt ist. Land hingegen kann unter entsprechender Kultivierung eine unbegrenzte Dienstleistung über die Zeit erbringen. Dies ist auch
der Unterschied zu erneuerbaren Ressourcen, etwa biologischen Populationen wie Fisch,
Wald, die bei entsprechend konservativen Fangraten eine unbegrenzte Dienstleistung über die
Zeit erbringen können.
2.2
Wohlfahrtsoptimum
Eine soziale, etwa eine gesamte Volkswirtschaft zieht aus dem Konsum der Ressource einen
Nutzen:
u(q)
beschrieben durch eine zweimal stetig differenzierbare Funktion, wobei keine Sättigungen
beobachtbar sind
u' > 0
jedoch der Grenznutzen abnimmt, also der Konsum einer zusätzlichen Einheit weniger Gewinn bei bereits hohem Konsumniveau als bei niedrigem Niveau bringt: u'' < 0.
Sei im folgenden
qt
der Konsum = Förderung der betrachteten Ressource in
der Periode t
R
der Gesamtbestand der nicht erneuerbaren Ressourcen, wobei wir die Zeiträume
t = 0, 1, 2
betrachten, dann gilt aufgrund der Definition:
R  q0 + q1 + q2
Weiter sei
r
der Zinssatz
Ressourcen
60
zum Vergleich der Einnahmen oder des Nutzens aus verschiedenen Perioden.
(Die Verwendung von Diskontraten zum Vergleich unterschiedlich datierter Erträge wird
teilweise auf ethischer Basis kritisiert, da jetzige Generationen gegenüber später folgenden
bevorzugt werden, vergleiche die späteren Ergebnisse). Zur einfachen Darstellung der wichtigsten Behauptungen und Ergebnisse der Ressourcetheorie nehmen wir an, dass Förderkosten
vernachlässigbar sind.
Eine zentrale Planung versucht nun den Barwert, das ist die abgezinste Summe aus dem Nutzen, in den verschiedenen Perioden zu maximieren:
2
max
qt ,t 0,1, 2
(1  r )

t
u( qt )
(1)
t 0
Dabei sind folgende Beschränkungen zu beachten; der Konsum kann nicht negativ werden,
qt  0, t = 0, 1, 2
(2)
und die Summe der Dienstleistungen ist durch R beschränkt:
R - (q0 + q1 + q2) 
(3)
Definiere die Lagrangefunktion
2
2
2
t o
t 0
t 0
L   (1  r ) t u (qt )    t qt   ( R   qt )
wobei µt, t = 1, 2, 3 und  die Kuhn-Tucker Multiplikatoren für (2) und (3) sind.
Differenzieren und die komplementären Schlupfbedingungen liefern aufgrund der Annahme
die notwendigen und hinreichenden Bedingungen für eine optimale Politik.
L
 (1  r ) t u (qt )   t    0 , t= 1, 2, 3
qt
(4)
 t qt  0
(5)
t  0
2
 ( R   qt )  0 ,   0
t 0
Aufgrund der Eigenschaft u' > 0 folgt, dass der gesamte Ressourcestock R verwendet wird:
2
q
t 0
t
R
(6)
Ressourcen
61
so dass
>0
Angenommen qt>0, t = 1, 2, 3 folgt das optimale intertemporale Konsumprofil aus (4)
u'(qt)=(1+r)t
(7)
da µt= 0 aufgrund von (5). Diese innere Lösung ist unter der zusätzlichen Annahme z. B. hoher Grenznutzen für geringen Konsum, wie in Abb. 2. 1 bereits eingezeichnet, gesichert:
lim u( q)  
q0
Dieses Ergebnis ist in Behauptung 1 zusammengefasst und in der Abb. 2. 1 grafisch konstruiert.
Behauptung 1: Die gesamtgesellschaftlich optimale Extraktionspolitik { q0, q1, q2} wird so
gewählt, dass der Grenznutzen mit dem Zinssatz wächst, d. h. der abgezinste Grenznutzen
konstant bleibt. Dies impliziert für r>0 ein fallendes Konsumprofil über die Zeit.
Abb. 2.1: Berechnung des optimalen Konsumprofils
Dieses Ergebnis stellt genau den Ausgleich des Gewinns aus dem Konsum einer zusätzlichen
Einheit jetzt mit dem auf heute abgezinsten marginalen Nutzenentgang in der nächsten Periode dar:
Ressourcen
u (q 0 ) 
62
u (q1 )
(1  r )
Bemerkungen:
1. q0(r) ist eine wachsende Funktion, d. h. stärkeres Abzinsen verzerrt das Konsumprofil
mehr in die Ausgangsperiode zu Lasten späterer Perioden. Die Abb. 2. 2 vergleicht Extraktions- (oder Konsumpfade) bei unterschiedlichen Diskontraten r. Der Spezialfall r=0 impliziert
ein konstantes Profil über der Zeit, q0=q1=q2=R/3.
Abb. 2.2: Ressourceförderung und Zinssatz
2. Die Lösung ist invariant gegenüber linearen Transformationen des Nutzenindex u: Sei im
folgenden zum Beispiel
v = a + bu
der gesamtgesellschaftliche Nutzen, dann erhält man aus den Optimalitätsbedingungen (4):
V' (1 + r)-t + µt- = 0
t = 0, 1, 2
was für innere Lösung zur selben Bedingung
u'(1 + r)-t = /b
Ressourcen
63
führt (ausgenommen der Ressource-Schattenpreis).
2.3
Ressourceförderung unter verschiedenen Marktformen
Zahlreiche Streitigkeiten über den "richtigen" Preis des Erdöls charakterisierten die öffentliche Debatte in den letzten Jahren, und wenn auch unter anderen Vorzeichen, stellt sie sich
auch zum heutigen Zeitpunkt den fallenden Ölpreisen; denn während die meisten Preise für
Güter durch die (Grenz)kosten erklärt werden können, versagt dieses Paradigma als Erklärung
für die Ölpreise.
"Nearly every OPEC member ... rejects the notion that the price of oil is now too high. What
do they mean by high? asks Iran Minister of the Interior ... incredulously. He reasons that the
price is about equal to what it would cost to obtain an alternative from of energy, such as gas
produced from coal. Thus he ... insists that $9.70 per bl is a fair price."
"(OPEC supporters) ... seem to be rejecting the play of free market forces in determining prices. In such a market the price of a product is closely related to the cost of producing the last
unit of supply that is demanded by a buyer. No one anywhere in the world is pumping oil that
cost $10 a bbl. to produce. The cost of brining up a barrel ranges from 10c in Saudi Arabia to
60c in Venezuela to $3 or so in the US. OPEC's defenders seem to have the notion that somehow market forces have never properly recognized the value of oil that its price always should
have been higher. This tosses rational economic analysis out of the window."
Zum Vergleich verschiedener Marktgewichte unterstellen wir, dass die Konsumentenentwicklung durch eine - Preis-Nachfragebeziehung
P = p(q)
reflektiert ist. Diese Nachfrage sei zeitinvariant. Dabei bezeichnet man mit
_
P:= p(0)
als choke oder Backstop-Preis, d. h. jener Preis, bei dem die Ressourcenachfrage verschwindet.
Ressourcen
64
Abb. 2.3: Inverse Nachfragefunktion
2.3.1 Konkurrenzmarkt
Angenommen, viele Minen- (Ölfeld-) Besitzer fördern die betrachtete Ressource, so dass die
Entscheidungen eines einzelnen Produzenten keinen Einfluss auf den Marktpreis des Gutes
haben, so bedeutet dies, dass jeder Produzent basierend auf der Preiserwartung seine Produktion plant:
Sei {pt, t=0,1,2} der Marktpreis für die zu extrahierende Ressource, dann versucht jeder individuelle Produzent:
2
 (1  r )
t 0
t
pt qt
zu maximieren unter den üblichen Beschränkungen
qt  0
2
R   qt  0
t 0
Verlangen wir von einem Marktgleichgewicht, dass die betrachtete Ressource in allen Perioden zur Verfügung steht, also:
qt > 0
dann ist dies nur möglich, wenn der Marktpreis exponentiell wächst:
Pt = (1 + r)t
Dieses Ergebnis, dass ein Konkurrenzgleichgewicht durch exponentiell wachsende Preise
charakterisiert ist, heißt Hotelling' Regel.
Ressourcen
65
Behauptung 2: Im Falle einer perfekten Konkurrenz unter den Minenbesitzern muss für ein
Marktgleichgewicht der Ressourcepreis exponentiell mit dem Zinssatz wachsen. Dies führt
dazu, dass die Produzenten indifferent über das Datum der Förderung und deshalb bereit sind,
soviel zu fördern wie die momentane Nachfrage ist. Dies führt zu einem fallenden Extraktionsprofil für den gesamten Zeitraum.
Dieses Ergebnis ist plausibel, denn nur für dieses Preisprofil sind die individuellen Produzenten indifferent über das Datum der Förderung. Bei jedem anderen Preisprofil würde die Förderung in einer der beiden Perioden unterbleiben; da durch Reallokation über die drei Zeitpunkte eine entsprechende Arbitrage realisierbar ist.
Indirekt sei z. B.:
Pt = P0(1 + )t
und <r, dann ist die Lösung:
q0 = R, q1= q2 = 0
optimal, da der heutige Barwert für spätere Förderungen geringer ist als der momentane Preis
P0.
Analog erhält man für  > r:
q2 = R, q0 = q1 = 0
Beide Allokationen stellen jedoch kein Gleichgewicht dar.
Aus der Preisregel folgt jedoch kein Anhaltspunkt über den Anfangspreis P0. Die individuellen Entscheidungen der Produzenten sind unabhängig vom Niveau des Ausgangspreises P0.
Daher argumentieren einige Autoren, dass die freie Konkurrenz zuwenig Information besitzt,
um den "optimalen" Anfangspreis P0 zu bestimmen. In anderen Worten, freie Konkurrenz
garantiere nicht die optimale Ressourceverwendung; z. B. sei P0 zu hoch angesetzt und die
Hotelling Regel gültig. Daher hat keiner der Produzenten einen Anreiz, sein Verhalten, d. h.
Indifferenz über das Datum der Föderung zu ändern. Jedoch aufgrund des zu "hohen" Preises
ergibt sich in allen Perioden eine zu niedrige Nachfrage, so dass Ressourcen ungenutzt bleiben. Nur unter der zusätzlichen Randbedingung der richtigen Wahl von P0 ergibt sich die
sozial optimale Lösung.
2.3.2
Planwirtschaftliche Förderung (Soziales Optimum)
Die Analyse planwirtschaftlicher Allokation ist ein Spezialfall der Untersuchung aus 2. 2 für
eine spezielle Nutzenfunktion; und zwar wird die Konsumentenrente ("Consumer surplus")
plus den Einnahmen aus der Förderung als gesamtgesellschaftliche Nutzenfunktion definiert
verwendet.
Ressourcen
66
Die soziale Nutzenfunktion u ist dann durch:
q
u (q ) :  p ( x)dx  p (q )q
0
beschrieben.
Für das Optimierungskalkül erhält man:
2
max  (1  r )
t
t 0
qt
 p( x)dx
0
Konsumentenrate + Einnahmen
qt  0
2
R   qt  0
t 0
Analog zur Analyse in den vorherigen Kapitel 2.2 und 2.3.1 erhält man:
p(qt) = (1+r)t 
so dass dieselbe Regel wie in 2.3.1 abgeleitet wird, wobei jedoch die Randbedingung:
2
R   qt
t 0
ein integraler Bestandteil der Lösung ist.
Behauptung 3: Im Falle planwirtschaftlicher Allokation der Ressourcennutzung führt dies zu
einem Preis, der mit dem Zinssatz über die Zeit wächst.
Der Vergleich der planwirtschaftlichen Allokation mit der durch die freie Konkurrenz implizierten Konsumrate zeigt, dass die freie Konkurrenz die gesellschaftlich optimale Allokation
garantiert voraussetzt, dass der Anfangspreis Po entsprechend gewählt wird.
2.3.3 Monopol
Der Monopolist, d. h. ein alleiniger Anbieter für die betrachteten Ressourcen, kennt das PreisNachfrageverhalten der Konsumenten p(q) und wählt die Extraktionsrate so, dass der Barwert
seiner Profite maximal wird:
2
max :  (1  r ) t qt p (qt )
t 0
Ressourcen
67
Annahme:  (q):=qp(q),  Einnahmen (=Profit, da Kosten Null),  konkav, '' < 0.
Definition: Grenzeinnahmen ("maginal renvenues"):
' = qp' + p
d. h. die Einnahmen aus dem Verkauf einer zusätzlichen Einheit.
Geht man entsprechend den vorherigen Kapiteln vor, erhält man:
'(qt)=(1+r)t 
Das bedeutet, dass für die Profit maximierende Förderung die Grenzeinnahmen mit dem Zinssatz inflationiert werden; in anderen Worten, der Barwert der Einnahmen aus dem Verkauf
einer zusätzlichen Einheit bleibt konstant.
Dieses Ergebnis ist intuitiv plausibel. Indirekt sei {q0,q1,q2} eine Profit maximierende Förderstrategie, wobei:
 (q 0 ) 
 (q1 )
(1  r )
Dann wäre auf Barwertbasis der Ertrag aus einer heute zusätzlich geförderten Einheit größer
als in der folgenden Periode 1. Dadurch könnte der Profit durch eine Reallokation dieser kleinen Einheit noch erhöht werden. Dann aber wäre das Optimum noch nicht erreicht. Widerspruch.
Die Lösung ist grafisch in 2.4 dargestellt.
Abb.2.4: Profit maximierende Strategie eines Monopols
Ressourcen
68
Aufgrund dieser Darstellung folgt unmittelbar die Charakterisierung der monopolistischen
Extraktionsstrategie.
Behauptung 4: Der Monopolist wählt die Extraktionspolitik so, dass die laufenden Grenzeinnahmen mit dem Zinssatz wachsen; d. h. die Einnahmen aus dem Verkauf einer marginalen
Einheit müssen auf der Basis von Barwerten für alle Perioden gleich sein. Dies führt zu einer
fallenden Förderpolitik.
Ein Charakteristikum der bisher abgeleiteten Resultate ist, dass die Förderpolitik für beschränkte Ressourcen in den untersuchten Marktverhältnissen zu fallender Produktion führt.
Da die Eigenschaft monoton fallender Förderpolitiken in den beiden extremen Fällen - freie
Konkurrenz (soziales Optimum), und Monopol auftritt, wollen wir andere Unterschiede studieren. Im besonderen scheint die Frage relevant, welche Marktform sorgsamer mit den Ressourcen umgeht. Die folgende Behauptung beantwortet diese Frage.
Behauptung 5: Der Monopolist fördert zu Beginn weniger als sozial optimal wäre, so dass
mehr an Ressource für die späteren Perioden verbleibt.
Dieses Ergebnis mag viele überraschen, da in diesem Fall die Interessen von Umweltschützern mit denen des Monopols übereinstimmen, "The monopolist is the conservationist's best
friend" (Hotelling (1931)). vergleicht die sozial optimale Strategie (bzw. perfekte Konkurrenz) mit der des Monopols. Oligopole, d. h. "wenige", aber mehr als ein Produzent, liegen
zwischen diesen Extremen.
Abb. 2.5: Vergleich der Förderung: Monopol vs Konkurrenz
Jedoch im Falle von "common pool" Problemen, d. h. mehrere Firmen extrahieren aus einem
gemeinsamen Reservoir, können mehrere Firmen, insbesondere auch perfekte Konkurrenz, zu
einem zu schnellen Abbau führen.
Ressourcen
2.4
69
Backstop Technologien
Die folgende Darstellung legt nur die Grundzüge einer Theorie über Backstop- Technologien
dar, da wichtige Überlegungen, etwa timing, in den diskreten Modellen nicht abgehandelt
werden können.
Wir verstehen unter einer Backstop-Technologie eine Technik, die zu bestimmten Kosten ein
perfektes Substitut für die betrachtete Ressource darstellt:
c
Kosten zu Herstellung eines synthetischen und nicht erneuerbaren Substitutes für eine
Ressource.
Als Backstoptechnologien wurden im Laufe der Zeit unter anderem Kohleverflüssigung,
Schieferöl, Teersände (für Erdöl) geannt, obwohl diese auf Grund ihrer Erschöpfbarkeit eigentlich keine Backstoptechnologiem im engen Sinne sind. Perfekte Backstops sind alle Formen der Sonnenenergie (z.B. Photovoltaik) und die aktuellste Form mit den momentan besten
Chancen ist die Brennstoffzelle.
Brennstoffzelle:
The Economist, July 24th, 1999: „It gets wet and hot and that’s all. .... In simple terms, it gobbles up hydrogen
and combines it with oxygen from the air to generate electricity, avoiding combustion and by-products any nastier than water and heat. Although there are rival varieties of fuel cell, the most promising is the proton-exchange
membrane. This is a sandwich of two electrodes, a cathode and anode, with an electrolyte stuffing called a polymer membrane placed in between. At the anode, hydrogen gives up its electron with the help of a platinum catalyst. While hydrogen passes across the membrane in the form of positively charged ions, its electrons, which
cannot cross the membrane, instead stream around an external circuit, rather as electrons do if you connect the
poles of a battery. And as with a battery, this current can powr a car or a computer. When the hydrogen ions
reach the cathode, they are united with electrons and combined with oxygen to create water and heat.
Ressourcen
70
2.4.1 Einfaches Modell optimalen Übergangs zu erneuerbaren Energieträgern
Vereinfachend nehmen wir an, dass die Kosten konstant sind, so dass für p = c beliebig viel
angeboten werden kann. Wir betrachten das soziale Planungsproblem aus 2.3.2 und unterstellen, dass in der Periode t = 2 eine Backstop-Technologie zur Verfügung steht.
y
beschreibt Produktion des Backstop-Gutes.
Das entsprechende Optimierungskalkül ist dann:

 1  qt


 q2  y
t
2
max    p( x)dx  (1  r )   (1  r )   p ( x)dx  cy 

 t 0  0

 0

qt ≥ 0
yt ≥ 0
2
q
t 0
t
R
Ansetzen der Lagrange Funktion, differenzieren und die Voraussetzung innerer Lösungen,
>0, µ0 = µ1 = 0 liefert für die ersten beiden Perioden die bekannte Regel:
p(q0) = 
=> p1 = (1 + r) p0
p(q1) = (1 + r)
exponentiellen Wachstums. Für die Produktionsrate der letzten Periode erhalten wir (µ3
Kuhn-Tucker Multiplikator für y ≥ 0):
L
 (1  r )  2 p (q 2  y )   2    0
q 2
L
 (1  r )  2  p (q 2  y )  c    3  0
y
Fall 1: q2 > 0, y > 0 => µ2 = µ3 = 0
C = p(q2 + y) = (1 + r)2=p0(1 + r)2
das bedeutet, das exponentielle Wachstum wird fortgesetzt analog zur planwirtschaftlichen
Allokation ohne Backstop-Technologien.
Fall 2: y = 0, d. h. angenommen die Backstop-Technologie wird gar nicht verwendet: µ3 > 0,
und es folgt:
Ressourcen
71
 (1+r)2 = p0(1 + r)2 = p(q2) = c-µ3(1 + r)2 < c
so dass p2 < c, d. h. die Kosten sind so hoch, dass die Technik gar nicht eingesetzt wird.
Aus dem Vergleich dieser beiden Fälle folgt, dass die Präsenz einer auch nur teilweise eingesetzten alternativen Technologie den Preis in allen Perioden reduziert, da c dann den Ressourceschattenpreis beschränkt.
Fall 3: q2 = 0 => µ2 > 0, d. h. es wird angenommen, dass die Ressourcen bereits in den ersten
beiden Perioden aufgebraucht werden:
-2
(1 + r) p(y) + µ2 -  = 0
-2
(1 + r) [p(y) - c] = 0
Daraus folgt:
2
2
2
p2 = c = (1 + r) ( - µ2) = (1 + r)  - (1 + r) µ2
da: p1 = (1 + r)  => p2 < (1 + r)p1
so dass die Backstop-Technologie das gewohnte Ressourcepreiswachstum stoppt.
2.4.2 Ressource-Preise und Innovation alternativer Energieträger
Die betrachtete Industrie - in der Folge werden "Erdöl" und "Sonnenenergie" als Synonyme
für ressourcebasierende und erneuerbare Quellen verwendet - besteht aus einem monopolistischen Kartell ("OPEC"), das die finite Ressource fördert, und aus vielen kleinen Firmen und
Ingenieuren, die in die Forschung von alternativen Energieträgern investieren. Dieser Forschungsprozess sei entweder bereits abgeschlossen oder noch im Gange.
Die Forschung nach alternativen Energiequellen stellte einen Kernpunkt des Programmes
Project Independence der Administration Carter dar. Der damalige amerikanische Präsident
maß der Energiepolitik einen hohen Stellenwert bei, wie sich u. a. durch die Errichtung eines
eigenen Energieministeriums und aus der Aussage, "dass die Verringerung der Energieimporte den moralischen Stellenwert eines Krieges hätte", ablesen lässt. Deshalb wurden alle Formen alternativer Technologien wie Sonnen- und Windenergie, der Abbau von Teersänden und
Schieferöl, die Förderung schwerer Öle und tertiäre Fördermaßnahmen usw. finanziell gestützt. In der folgenden Administration Reagans wurden - im Zuge der allgemeinen Deregulierung der amerikanischen Wirtschaft - alle Förderungen dieser Forschungsvorhaben gestrichen. Die Regierung Reagans ging - im Gegensatz vom paternalistischen Sendungsbewusstsein der Regierung Carter - von der Voraussetzung aus, dass die Unternehmen im Energiemarkt selbst am besten die Notwendigkeit und Chancen von Alternativen abschätzen können.
Eine ausführliche Analyse zu Fragen über Innovation, Wettrennen um Patente für Produkte,
die als Substitute für nicht-erneuerbare Ressourcen dienen, und die Konsequenz unter-
Ressourcen
72
schiedlicher Marktformen, findet man in Stiglitz-Dasgupta. Diese Arbeiten bilden auch die
Grundlage für die folgende Darstellung.
Die Marktnachfrage nach Energie könne sowohl durch "Erdöl" als auch durch "Sonnenenergie" befriedigt werden, so dass die betrachteten Brennstoffe perfekte Substitute von der Warte
des Konsumenten aus seien. Die Marktnachfrage sei durch eine inverse Nachfragefunktion:
p = P(x + y) , P' < 0, pc := P(0) < Ñ
p
Marktpreis für Energie
pc
"choke" (oder backstop)-Preis
x
Ressourceangebot (Erdölförderung)
y
Angebot alternativer Energieträger in zu x äquivalenten Einheiten
(1)
beschrieben. Die Kosten der Ressourceförderung seien vernachlässigbar. Hingegen erfordere
die Produktion einer Einheit von y, des erneuerbaren alternativen Energieträgers, die konstanten Grenzkosten c. Die Produktionskosten müssen geringer als der maximal erzielbare Ressourcepreis sein, also c < pc, da anderenfalls die betrachtete Technologie wirtschaftlich obsolet ist. Die Produktion von y erfolge in einem perfekten Konkurrenzmarkt, so dass für Marktpreise geringer als c kein Produzent anbietet, und beim Preis p = c die gesamte Nachfrage
gedeckt werden kann. Diese Technologie sei jedoch erst ab einem Zeitpunkt S verfügbar.
Diese Annahme, dass der kompetitive Sektor sofort die ursprüngliche Ressourcenachfrage
befriedigen kann, ist eine typische Annahme in der Literatur über Backstop-Technologien.
Backstop Technologien stellen ein (perfektes) Substitut für eine finite Ressource jedoch mit
"hohen" Kosten zur Verfügung. Diese Kosten bilden dann ein Limit für die mögliche Ressourcepreisentwicklung. Der Ausdruck backstop geht auf W. D. Nordhaus, The Allocation of
Energy Resources, Brookings Paper on Economic Activity, Vol. 3, 1973, 529-576, zurück.
Die Annahme eines kompetitiven Konkurrenzsektors führt zu einem Knick in der Einnahmefunktion, p(x), des Ressourcekartells:
 x(t ) P ( x(t )) wenn t  S

~
p ( x)   x(t ) P ( x(t )) wenn t  S und x(t )  x

~
cx(t )
wenn t  S undx(t )  x
(2)
ab dem Datum S - der Entdeckung der alternativen Technologie; dabei wird x durch die folgende Beziehung bestimmt.
~
~
x := P(x) = c
(3)
Ressourcen
73
Das heißt, dass der Ressourceproduzent in jenen Perioden, wo die alternative Technologie
bereits bekannt ist, das Konkurrenzprodukt infinitesimal unterpreisen wird, um den ganzen
Markt zu bedienen. Die Einnahmefunktion für t ≥ S lässt sich auch in der folgenden Form
anschreiben:
p(x) = min{xP(x), cx} für t ≥ S
(4)
Abb. 2.7 zeigt die Einnahmefunktionen vor und nach der Innovation des Substitutes. Sowohl
in der Abbildung als auch in der folgenden Analyse wird eine konkave Einnahmefunktion
unterstellt.
Abb 2.7: Einnahmefunktion des Monopolisten (Ressource)
Abb. 2.8: Grenzeinnahmefunktion (Marginal Revenues): MR
Das Ressourcekartell wird versuchen, den Profit aus der Förderung zu maximieren, mathematisch: Lösung des folgenden deterministischen Kontrollproblems, wenn von Unsicherheiten
abstrahiert wird:
Ressourcen
S
74
T
max  e x(t ) P ( x(t ))dt   e  rt minx(t ) P ( x(t )), cx(t )dt
(5)
.
X(t) = x(t), X(0) = 0, X(T) = R
(6)
x
 rt
0
S
X(t) kumulative Förderung, T Ausbeutung, R Ressourcestock,
Die notwendigen Optimalitätsbedingungen des Kontrollproblems (5) und (6) lauten:
H = I(t)[0,S]P(x(t))x(t)+I(t)[S,T]min{P(x(t))x(t),cx(t)}+mx(t)
(7)
max H
x
(8)
(t) = r(t)
(9)
H(T) = 0
(10)
Dabei sind I(t)[0,S] und I(t)[S,T] Indikatorfunktionen, die eins sind, wenn der Zeitpunkt t aus
dem jeweils indizierten Intervall ist; außerhalb des indizierten Intervalles verschwindet die
jeweilige Indikatorfunktion. Die obigen notwendigen Optimalitätsbedingungen, insbesondere
das Maximumprinzip, können durch einfache Umformungen und Definition von MR als
Grenzeinnahmen (oder durch direkte Anwendung des Hotelling Prinzips, siehe Hotelling6
oder Dasgupta-Heal7) in der folgenden Form angeschrieben werden:
 m(t )  e  r (T  t ) p(T )
MR( x)  
~
MR( x)   (t )
wenn t  t1
wenn t  t1
(11)
Dabei beschreibt {-m(t)} den Schattenpreis einer zusätzlichen Einheit Öl in der Lagerstätte
(zum Zeitpunkt t) und p(T) den am Ausbeutungsdatum T erzielbaren Preis. Der Endpreis
hängt von der Konkurrenzsituation ab: p(T) = c wenn S < T und p(T) = pc wenn S > T, z. B.
wenn keine alternative Technologie erwartet wird, S = Ñ. Das Datum t1 beschreibt den Zeitpunkt, zu dem die Forderung nach den wachsenden Grenzeinnahmen aus der ersten Zeile in
(11) erstmals zu einer Förderung unter x führen würde (und damit zu einem Ressourcepreis
über c) und die alternative Technologie bereits bekannt ist: t1 ≥ S. Ab diesem Zeitpunkt können die Grenzeinnahmen nicht mehr erhöht werden. Abb. 2.8 zeigt den Verlauf der Grenzeinnahmefunktion. Deshalb wird der Monopolist ab diesem Zeitpunkt t1 bis zum Datum der
6H.
Hotelling, The Economics of Exhaustible Resources, Journal of Political Economy, Vol. 39, 1931, 137 175.
7P. Dasgupta und G. M. Heal.
Ressourcen
75
Ausbeutung auf dem Knick bei x auf der Einnahme und Grenzeinnahmefunktion verharren.
Dies führt zum konstanten Produktionsniveau x(t) = x und dem Ressourcepreis p = c, wobei c
die infinitesimale Verbilligung gegenüber der Konkurrenz andeutet, die diese Konkurrenz
damit noch vom Markt fernhält. Die alternative Technologie tritt erst zum Zeitpunkt T in den
Markt ein, so dass das technische Patent im Zeitraum [S,T] "schläft", also technische und
ökonomische Innovation auseinander fallen. Obwohl das Patent nicht zur Anwendung vor
dem Ausbeutungsdatum T kommt, wirft es seinen "Schatten" auf den Ressourcemarkt ab dem
Zeitpunkt, wo die Ressourcepreisentwicklung die Produktionskosten des Substitutes erreicht.
Das Ergebnis einer marginalen Verbilligung gegenüber dem Konkurrenzsektor ist intuitiv
plausibel; im folgenden sei dies auch formal bewiesen. Das Verharren am Knick der Grenzkostenkurve erfordert die Produktion x. Jedoch für eine geringere
~
Produktion x < x gilt:
~
~
H(x = x) = (c + m)x > (c + m)x = H(x = x)
(12)
~
daher kann x < x die Hamiltonfunktion nicht maximieren.
Im folgenden sei die Frage gestellt, ob ein ambitioniertes Forschungs- und Entwicklungsprogramm, das die alternative Energieform zu einem früheren Zeitpunkt zur Verfügung stellt, auch den Ressourcepreis, also den Ölpreis, reduziert?
Dies scheint einer der wichtigsten Motivationen sowohl für Carter's Project Independence als
auch für die IEA-Strategien - Forcierung von Kernenergie, Kohleverflüssigung usw. - gewesen zu sein. Intuitiv würde man vermuten, dass eine frühzeitige Konkurrenz das Ressourcekartell zu einem weniger ausbeuterischen Verhalten und zu niedrigeren Preisen zwingt.
Zuerst werden die Randfälle eines möglichen Zeitpunktes der technologischen Innovation der
alternativen, erneuerbaren Energieform betrachtet. Angenommen, die Technologie alternativer Energieträger sei bereits zu Beginn bekannt, S = 0. Dann bestimmen die folgenden
Gleichungen:
~
-r
MR(x) = e (T - t1)c
(13)
~
R = (T - t1)x + X(t1)
(14)
die beiden Zeitpunkte (t1,T). Dies erlaubt in Verbindung mit (11) die Berechnung der optimalen Lösung. Das Patent der alternativen Technologie schläft den ganzen Zeitraum [0,T] aufgrund von (12). Aus der obigen Analyse ist unmittelbar ersichtlich, dass jeder Innova-tionszeitpunkt S[0,t1] die obige Analyse nicht ändert; der Ressourcepreis, insbesondere p(0),
Ressourcen
76
bleibt dadurch unverändert. Obwohl das Patent erst zum Zeitpunkt T angewandt wird, hat es
eine ökonomische, d. i. preisreduzierende Wirkung bereits im Intervall [t1,T]. Hingegen im
Intervall [0,t1] ist das
Patent auch ökonomisch bedeutungslos, und Investitionen in eine allzu frühzeitige Entwicklung (vor t1) sind dann auf jeden Fall eine Verschwendung.
Abb: 2.9 Optimale Förderrate der Ressource, S = 0
Abb. 2.10: Optimale Ressourcepreisstrategie des Monopols, S = 0
Abb. 2.9 zeigt die optimale Förderrate. Die Eigenschaft fallender Förderraten im Intervall
[0,t1] folgt unmittelbar aus Abb. 2.8 und dem Hotelling-Prinzip, so dass die (laufenden)
Grenzeinnahmen (relativ mit der Diskontrate r) wachsen müssen. Abb. 2.10 zeigt die entsprechende Ressourcepreisentwicklung. In beiden Abbildungen wird das Ergebnis entsprechend
der Annahme über das technologische Innovationsdatum S = 0 indiziert, z. B. T0 ist das optimale Ausbeutungsdatum, wenn S = 0.
Sei nun das Gegenteil S = Ñ angenommen - also keine Alternative zu Erdöl gegeben - dann
folgt die Extraktion entlang einer inneren Lösung mit:
Ressourcen
MR(x(t))=e
-r(T-t)
pc
77
(15)
Dieses Ergebnis stellt die berühmte Hotelling Regel; (für einen Monopolisten) dar und besagt,
dass die Grenzeinnahmen von der Barwert-Perspektive aus konstant gehalten und in laufender
Betrachtung mit der Zinsrate r eskaliert werden müssen. Dies garantiert, dass durch intertemporale Reallokationen marginaler Mengen der Profit nicht mehr erhöht werden kann. Daraus
folgt unmittelbar, dass die Förderung monoton fällt und der Preis monoton steigt, aber im
Durchschnitt8 geringer als mit dem Zinssatz: p < rp. Aus der Annahme pc < Ñ folgt, dass das
Ausbeutungsdatum, indiziert entsprechend der Innovation S = Ñ, finit ist: T < Ñ. Daraus
ergibt sich unmittelbar, dass Innovationen aus dem Intervall (T,Ñ) die Förderpolitik nicht verändern. Es ist durch einfache Überlegungen leicht nachzurechnen, dass jedoch Innovationen
vor T und nach dem Zeitpunkt t2:
t2: P(x(t2)) = c,
(16)
x, monopolistische Förderung ohne Konkurrenz von Alternativen
die Ressourcepreise zu Beginn reduzieren.
Jedoch eine Vertagung der Innovation von S = t1 nach S' > S = t1 reduziert den Ressourcepreis
zu Beginn. Das heißt, die Erwartung, dass erhöhter Forschungsaufwand und dadurch frühere
Verfügbarkeit alternativer Energiequellen die OPEC zu momentan niedrigeren Ressourcepreisen zwingt, ist trügerisch und eigentlich unberechtigt. Der Beweis wird indirekt geführt; es sei
also die verspätete technische Entwicklung S' > S (wie erwartet) mit einer Preiserhöhung verbunden:
pS’(0) > pS(0)
(17)
wobei das Innovationsdatum wieder zum Indizieren der Lösung verwendet wird. Jedoch (17)
ist äquivalent zu:
-µS'(0)>- µS(0) <=> TS’ < TS
(18)
Aus der linken Ungleichung von (18) und dem Ausgleich von Grenzeinnahmen und
Ressourceschattenpreis folgt, dass die Produktion jetzt geringer sein muss, in [0,S']:
xS'< xS. In den späteren Zeitpunkten wird in beiden Fällen x produziert, so dass die
rechte Ungleichung (18) zum Widerspruch führt, da die Förderung xS'(t) jetzt den Ressourcestock nicht mehr ausbeutet; siehe Abb. 2.11.
8Unter gewissen Regularitätsannahmen - etwa erhöhter Preissensitivität bei höheren Preisen (dies folgt zumindest lokal um den Punkt p für finite backstop Preise) - gilt, daß der Ressourcepreis des Monopolisten nie schneller als mit dem Zinssatz eskaliert.
Ressourcen
78
Abb. 2.11: Förderraten für S' > S wenn TS > TS'
Eine ähnliche Argumentation kann für S2 > S1 > S = t1 durchgeführt werden, so dass das obige Ergebnis nicht von der Wahl S = t1 abhängt. Betrachte folgende (allgemeinere) Argumenta-tion: für Si, i = 1,2 gilt: -mSi(Si) = MR(x); abzinsen auf t = 0 liefert: -mS1(0) > -mS2(0);
Ausgleich des Ressourceschattenpreises mit den Grenzeinnahmen liefert xS1(0) < xS2(0) (da
MR eine fallende Funktion ist) und somit pS1(0) > pS2(0) nach (1). 
Daraus folgt das Ergebnis, dass - in einem interessanten Bereich - die Energieforschung und
die damit verbundene verfrühte Innovation eines Substitutes den Energiepreis verteuert. Eine
intuitive Erklärung dieses überraschenden Ergebnisses ist, dass eine frühere Entdeckung den
Monopolisten zwingt, früher abzusahnen, da ab dem Entdeckungsdatum die Grenzeinnahmem
durch die Kosten des erneuerbaren Substitutes beschränkt sind.
Das Ergebnis dieser Untersuchung ist abschließend in der folgenden Behauptung zusammengefasst und graphisch in Abb. 2.12 dargestellt.
Behauptung (Stiglitz-Dasgupta9): Ausgenommen für sehr langsame Entwicklungsprozesse (S > t2, t2 bestimmt nach (16)), hat eine beschleunigte Entwicklung
alternativer erneuerbarer Energiequellen entweder keinen Effekt (S < t1, t1 bestimmt
nach (11)) oder erhöht sogar im Anfangsintervall [0,t1) die ressourcebasierenden Energiepreise.
Dieses Ergebnis besagt, dass Förderung der Forschung und Entwicklung alternativer Energieträger - abgesehen von der Möglichkeit einer Fehleinschätzung des Marktes (etwa der Nachfrage, der Ressourcensituation) - ein problematisches und möglicherweise sogar ein kontraproduktives Instrument ist.
9J. E. Stiglitz und P. Dasgupta, Strategic Considerations in Invention and Innovation: The Case of Natural Resources.
Ressourcen
79
Abb. 2.12: Ressourcepreis p(0) vis à vis Innovationsdatum S
Die sozial optimalen Preise für das Wohlfahrtskriterium der Konsumenten - plus Produzentenrente (als konkav vorausgesetzt) ergeben sich aus folgendem Kalkül:
T
 rt
max  e
x, y
x (t ) y (t )
o
 P(q)dq  cy(t )dt
(19)
0
x(t) ≥ 0
(20)
y(t) ≥ 0
.
X(t) = x(t), X(0) = 0, X(T) = R
(21)
(22)
Definition der Hamiltonfunktion (H) und der Lagrange-Funktion (L) mit den Kuhn-Tucker
Multiplikatoren a,b liefert (wie üblich wird im folgenden der Zeitindex unterdrückt):
x y
H
 P(q)dq  cy  mx,
L H  ax  by
(23)
0
Im folgenden sind die notwendigen (und hinreichenden) Optimalitätsbedingungen zusammengefasst:
P(x + y) + m + a = 0
(24)
P(x + y) – c + b = 0
(25)
m = rm
(26)
ax = 0, a ≥ 0
(27)
Ressourcen
by = 0, b ≥ 0
80
(28)
so dass der Marktpreis P(x + y) entweder gleich dem Ressourceschattenpreis (-m) ist - wenn
x> 0 - oder gleich den Produktionskosten des synthetischen Brennstoffes - wenn y > 0.
Aus (24) und (25) folgt unmittelbar, dass y(t) = 0 - keine Erzeugung des synthetischen Substitutes - solange die Ressource gefördert wird, also: y(t) = 0, t[0,T]. Weiter folgt aufgrund
von (24) und (26), dass der Ressourcepreis mit dem Zinssatz wächst: p = rp solange die Ressource extrahiert wird (x > 0 => a = 0). Zum Ausbeutungsdatum erreicht der exponentiell
wachsende Preis die Kosten der alternativen und erneuerbaren Energieträger: p(T) = c. Damit
ergibt sich die folgende Behauptung.
Behauptung: Die sozial optimale Politik ist charakterisiert durch: exponentiell mit dem
Zinssatz wachsende Ressourcepreise bis zum Zeitpunkt der Ausbeutung; der Anfangspreis muss so gewählt werden, dass zum Zeitpunkt
der Erschöpfung der Lagerstätten der Ressourcepreis die Kosten der Backstop-Technologie erreicht. Im Gegensatz dazu, wählt der Monopolist anfangs eine höhere Preisstrategie und beutet die Lagerstätten später aus10. Die alleinige Konkurrenz einer Industrie
alternativer Energieträger diszipliniert ein Ressourcemonopol nicht hinreichend, so dass
es sozial optimale Preise verrechnet.
Der Teil über die konservierende Haltung des Monopolisten aus der obigen Behauptung ist
noch zu beweisen. Bezeichne der Index m die Monopol- (Problem (5) und (6) mit S = 0) und
der Index * die sozial optimale Lösung (Kontrollproblem (19)-(22)); z. B. Tm das Ausbeutungsdatum des Monopolisten und T* die sozial optimale Nutzungsdauer der Ressource. Der
Beweis wird indirekt geführt. Angenommen es sei Tm ≤ T*, daraus folgt:
m
p*(t)=ce-r(T*-t) ≤ ce-r(T -t) = -m(t) = MR(xm(t)) < pm(t)
(29)
Die Gleichheit, -mm(t) = MR(xm(t)), gilt nur für t + [0,t1). Außerhalb dieses Intervalles gilt
ohnedies x*(t) ≥ xm(t), t + [t1,Tm], da p* ≤ pm ≤ c. Somit würde der Monopolist nicht nur
kürzer, sondern auch zu jedem Zeitpunkt weniger produzieren. Dies würde Ressourcen ungenutzt lassen, was im Widerspruch zur Optimalität steht, daher: Tm > T*.
Unter bestimmten Regularitätsannahmen über die Nachfrage - z. B. die (absolute) Preiselastizität steigt mit wachsenden Preisen - folgt, dass der Monopolpreis zu Beginn höher ausfällt.
10Die
Aussage von H. Hotelling, a O., daß der Monoplist der beste Freund des Umweltschützers ist ('the monopolist is the conservationist's best friend') mag viele überraschen. Der Artikel von S. Clemhout und H. Y. Wan
jr.;, Does Cartelization Conserve Endagered Species?, in: Optimal Control Theory and Economic Analysis 2,
hrsg. von G. Feichtinger, Amsterdam 1985, 549-568, versucht diese inhärente Tendenz von Monopolen und
Kartellen auch für die Umweltpolitik - Schützung bedrohter Arten - auszunützen.
Ressourcen
81
Abb. 2.13 vergleicht die Preisstrategie eines Ressourcekartells, pm, mit der sozial optimalen
Strategie p*.
Die sozial optimale Allokation differiert hier von der Lösung durch den Markt, trotz der hit
and run Konkurrenz. Die Konkurrenz durch Eindringlinge beschränkt nur die Möglichkeit
des Absahnens. Dieses Ergebnis bestärkt die Bedeutung der ersten Annahme in der Definition
eines perfekt anfechtbaren Marktes, dass auch der Eindringling Zugang zur effizientesten
Produktionstechnologie haben muss. Im Bereich von finiten Ressourcen ist diese Bedingung
notwendigerweise nicht erfüllt. Denn das Ressource-Monopol hat einen (Kosten-) Vorteil in
der Produktion. Aufgrund von Eigentumsrechten haben andere Produzenten keinen Zugang
zur Ausbeutung der Lagerstätten.
Abb. 2.13: Vergleich von Monopol- und sozial optimalen Preisen für finite Ressourcen bei
Backstop-Technologie
2.4.3 Other topical backstop examples
Stirrings in the corn fields, May 12th 2005, From The Economist print edition
Diesel fuel made from oilseeds, petrol replaced by ethanol made from corn, sugar or grain—or even straw.
They're here and are starting to change energy markets.
AMERICAN output of maize-based ethanol is rising by 30% a year. Brazil, long the world leader, is pushing
ahead as fast as the sugar crop from which its ethanol is made will allow. China, though late to start, has already
built the world's biggest ethanol plant, and plans another as big. Germany, the big producer of biodiesel, is raising output 40-50% a year. France aims to triple output of the two fuels together by 2007. Even in backward Britain a smallish biodiesel plant has just come on stream, and another as big as Europe's biggest is being built. And
after long research a Canadian firm has plans for a full-scale ethanol plant that will replace today's grain or sugar
feedstock with straw. Output is still tiny compared with that of mineral fuels. But the day of the biofuel has arrived.
The reason is simple. Forget greenery or energy security, the grounds on which governments justify subsidising
biofuels. Just take the past year's soaring price of mineral fuels, subtract the biofuel subsidy, and the answer is
plain: for the user, biofuels are currently cheaper. Indeed, in America's corn (maize) states, locally produced
ethanol is close to being competitive even without subsidy; imported Brazilian ethanol could have been so long
ago, had not a federal tax credit for ethanol, originally 54 cents per American gallon, been carefully balanced by
a 54 cent tariff.
Ressourcen
82
Though production methods are rapidly evolving, the new fuels are new only in their rampant growth. An engine
that Rudolf Diesel showed at the 1900 World Exhibition in Paris ran on peanut oil, and biodiesel has been in
small-scale use here and there since the 1930s. You can make it from animal fats, oilseeds, used cooking oil,
sugar, grain and more. Indeed, you can feed your diesel vehicle with cooking oil from the supermarket and it will
run, until (as they will) the filters gunge up. As for ethanol, Henry Ford was an enthusiast for crop-based ethanol
in the 1920s.
Modern uses were sparked by the oil shock of 1973. Brazil, rich in sugar-cane but not oil, led the way, building
cars adapted to burn pure ethanol until the late 1980s, when sliding oil prices and rising sugar prices made sugar
a more profitable end-use for the cane growers and the subsidy for ethanol too costly for the state. In 1989-90
ethanol pumps began to run dry, and sales of these cars collapsed.
Today, both biofuels tend to be used in mixtures. Europeans typically use “B5”—standard diesel, blended with
5% biodiesel, usually made from rape (canola) oil. In America, many drivers, often unaware of it, are using E10
“gasohol”—10% ethanol, 90% standard gasoline.
But the proportions can be higher than that. Some American and Canadian public-sector vehicles run on B20.
Californians use unmixed, 100% biodiesel, and, with additives to keep it usable down to –20°C, it is sold even in
such colder places as Germany and Austria. As for ethanol, in its pure form it can damage standard gaskets and
hoses. But, to meet Brazil's supply problems, carmakers there, already familiar with the stuff, in 2003 brought in
“flex-fuel” engines that can run on any ethanol-petrol blend you like; at present 75% to 25% is standard. These
now win 30% of new car sales there. The American version of flex-fuel runs on E85 (in practice, 70-85% ethanol, depending on the region and the season). Already America has 4m such cars, and they are multiplying. So
are E85 pumps for them. Indeed, the corn-state press delights in anecdotes of John Doe who habitually fills his
ancient Chevy with E85 and avers that it suffers no harm.
If he's right, he is no fool: E85 (though not E10) gives a bit
less oomph per gallon than standard fuel, but even so he is
saving money. Supply constraints may prevent E85 being
the future of ethanol in America. But if the oil price stays
high, Mr Doe and other penny-pinchers will certainly be
using more biofuel.
The oil companies were originally far from happy to see
“their” filling stations openly selling a rival fuel. They are
still not eager. But pro-ethanol pressure has grown. America's environmentalists favour it (except the purists who
object, truly enough, that the real “green” issue there is not
the fuel but the cars that guzzle it). And the law, in some
areas, is with them. Anti-smog rules require a clean-burn
additive to petrol, and one formerly favoured, known as
MTBE, turned out to have nasty properties, and is being
phased out. Ethanol—as such, or used roughly half and half
with another chemical in a compound known as ETBE—
can do the job.
There is pressure too from the corn-growers, gleefully envisaging a huge new market; and hence from their politicians. The market is big already: of America's 255m tonnes
of maize last year, 30m went into ethanol. One or two states
have adopted mandatory requirements for a certain use of
this fuel; Minnesota requires E10 as a minimum, and its
legislature has just voted to make that E20. A federal bill
launched in March, calls for the use of eight billion gallons
of biofuels a year by 2012.
This and less ambitious bills are still merely bills, not law;
and even eight billion gallons, though near double this
year's likely American output, looks trivial beside total
Ressourcen
83
motor fuel use, which already exceeds 175 billion gallons. Yet if oil stays high that target may be exceeded, law
or no law, greens or no greens, because drivers will demand ethanol.
Do the sums
The arithmetic is simple. Ethanol's federal tax credit is by now 51 cents per gallon (in European terms, 10.5
euro-cents per litre). So-called “small” producers, making up to 30m gallons a year, get an extra 10 cents. Several states add their own tax breaks, which can be worth 10-20 cents a gallon. Say, very crudely, 70 cents in all: 7
cents per gallon of E10, and nearly 60 cents for E85.
The subsidies in theory go mostly to the blender; how much in fact ends up with whom depends on the market,
and is not simple at all. Witness some figures from filling stations in Minnesota—the E85 capital of America—
in early May. The pump price of the E10 gasoline standard in that state varied little, from around $1.90 a gallon
to $2.10. E85 prices varied more, from about $1.50 to $1.80. And the gap between the two varied wildly: 26
cents in Austin, 34 in Owatonna, 45 in Eagan and Shakopee, 50 in Redwood Falls, 58 in Alden.
Say, typically, 35-45 cents and what the figures show is again simple, and conclusive: at today's prices, in that
corn state, the wise driver buys subsidised E85 ethanol if he can; and it is only 10 cents or so from being cheaper
than standard gasoline even were there no subsidies at all.
Other obstacles may be on the way out. Even now, a new flex-fuel car costs barely more than a standard one.
There is little reason for any real differential, and as these cars gain popularity there may be none—as in Minnesota already. Guarantees have been a trouble: John Doe and his Chevy are past caring, but would you buy a
brand-new car and risk invalidating its guarantee by using E85? But the car makers' attitudes are changing.
Guarantees are especially relevant to America's infant biodiesel industry. A heavy truck or combine harvester is
a big investment to put at risk. But Case, a leading farm-equipment maker recently extended its guarantees to B5
(and at another, John Deere, machines leave the factory filled with B2). Volkswagen has just done likewise, as it
and others did long ago in Europe, for its diesel-engined cars, a rare species in America, but now spreading.
American output of biodiesel is still trivial: last year 30m gallons, in a total on-road diesel consumption of 36
billion. A year ago, biodiesel cost about 20-30 cents a gallon more than petro-diesel. But in October a new law
gave it too a federal tax credit: one cent for every 1% of biodiesel in the mix. Oil prices are higher now. And new
rules requiring diesel in 2006 to be all-but free of sulphur will help. Taking the sulphur out makes the fuel less
slippery; adding biodiesel can make it more so.
The story has been much the same in Europe, though the
leader there is biodiesel. In Germany, where more than half
of all cars are diesel-engined, pure biodiesel, retailed as
such, has long escaped fuel tax. In January 2004 blends up
to B5 were legalised, and the exemption was extended, pro
rata, to them. Per “biolitre”, it is now worth €0.47 (in
American terms, $2.30 a gallon). Italy takes off 40 eurocents, France 33 (though both governments set a quota for
output), Spain and Britain 29.
The public hears little of these tax breaks: in Germany or in
France—where pure biodiesel is not sold—the driver looking for “diesel” seldom knows, or cares, that he may be
getting B5. And even in Germany the pure stuff is available at only one filling-station in ten, thanks to the hostility of the oil companies. But where it is, drivers are eager for it: it is 10-12 euro-cents a litre cheaper than plain
diesel. Big users buy in bulk, to blend for themselves at whatever percentage they like. And demand from the oil
companies, since blending was authorised, has given Germany's biodiesel producers a huge boost.
Go, diesel, go!
As in America, there is also political pressure, though the politics, so far, is more that of the green lobby than the
farmers. The European Union, unlike the United States, has ratified the Kyoto treaty on emissions and the environment, and the EU authorities in 2003 issued indicative targets for translation into national law: 2% of motorfuel consumption should be biofuel by 2005, and 5.75% by 2010.
Ressourcen
84
Many of the 25 EU governments have thumbed their noses at Brussels. In February, the European Commission
sent warnings to 19 for failing to put their targets into law; and later to nine for not even fixing targets. Even of
those that have, many picked figures below the EU's hopes. The politics sounds like a typical EU non-event.
In fact, not so: EU governments dislike being tied down by Brussels, but few will mind tying down their own
citizens, or at least cajoling them with tax breaks. And there is national pressure for that, from committed greens
below and ministers eager to look green above. Even Britain's government this year extended its biodiesel subsidy to bioethanol too. France is to enlarge the quotas of biofuel output that qualify for subsidy.
Yet in the end it is the market—producers, intermediaries and consumers—that will decide. And there are already signs that, given the price signals (and the supply of raw materials) they may in time leave governments
behind.
Really? In America and Europe alike, that today looks far from likely. And if oil prices slump, the signals will
not come. Yet look at the response, already visible, to the leap in oil prices and the biofuel savings or profit opportunities it represents.
In America, by late 2005 ethanol capacity may hit 4.4 billion gallons a year, against 3.4 billion in 2004. There
are 84 existing plants, 16 being built, and new projects galore. And while one big grain firm, ADM, used to
dominate the ethanol industry, many are backed by local farmers, eager for a new outlet as corn prices have slid.
In Missouri, 730 farmers put in $24m of $62m needed for a 50m-gallon plant—a size that reflects the cost of
corn transport.
State governments aid such plants. Missouri gives producers 20 cents a gallon for their first 12.5m gallons, 5
cents for the second. Besides $7m for an ethanol research centre, and freeing biofuels from state sales tax on
biofuel, Illinois has put $4.8m into one project to help it raise other capital. North Dakota has done likewise.
Predictably, though, enthusiasm is abruptly reversed if the fuel is not American-made (or even, in some cases,
made from home-state corn). The import tariff apart, two bills came up in the Senate last year to block the small
volume from Brazil that could avoid it by being partly processed in the Caribbean basin.
Sprouting plants
In Europe, Germany's biodiesel producers say output has trebled since 2002 to maybe 1.5m tonnes (about 1.7
billion litres, or 450m American gallons) this year, as new plants come on stream. The producers say that by now
4% of all diesel sold there is theirs—over 2% of all motor fuel already, even if ethanol were never to make its
mark there (as it certainly will).
France's biggest diesel producer, Diester Industrie, already making 250,000 tonnes a year at Europe's biggest
plant, near Rouen, plans to double another plant in the north to 200,000 tonnes, and build a 160,000 tonne one in
central France. It is also in talks with Cargill, an American grain and oilseed giant, about yet another plant at
west-coast Saint-Nazaire.
In Britain, though half of all motor fuel sold is diesel, biodiesel use has been tiny. But a new 50,000-tonne Scottish plant is due to be overtaken later this year by a 250,000-tonne monster on Teesside, near the east coast. And,
with partners, Tesco, a supermarket giant that also runs filling stations, plans another east-coast plant. It will not
be huge, but in Britain Tesco's name could give biofuels a huge boost.
So, in a different way, may the decision of Fortum Oil, part of Finland's Neste conglomerate, to build a 170,000tonne biodiesel plant at its Porvoo refinery near Helsinki, which now makes 4m tonnes of conventional diesel.
The oil companies' war with biofuels has already become a truce; now it may become an alliance. Not all their
skills are transferable: coastal biofuel plants, like refineries, have an eye on bulk, seaborne inputs, but most of
Europe's biodiesel is made from rapeseed (or rape oil) brought in by truck, not tanker or pipe. It is the economics
of supply, more than distribution, that inspire the wide spread and relatively modest size of biofuels plants. But
the oilmen are mighty.
Europe's coming ethanol boom in part reflects a different aspect of supply: its source. Italy has just cut the total
of its biodiesel output eligible for tax relief, switching the money to ethanol. A greener fuel? No. But the rape or
soya that go into biodiesel are not common crops in Italy; the grain, sugar or wine used for ethanol are.
Likewise, France's tax-aided biofuel push will be more ethanol-slanted than its far bigger biodiesel industry
thinks fair. Lo, wheat and sugar beet, the main inputs for ethanol there, matter far more to French farmers than
Ressourcen
85
rape does. Three new German ethanol plants, due to make about 500,000 tonnes a year, mostly from rye, will eat
near three times that weight of grain—3% of Germany's total harvest. No wonder the EU's offer to take a billion
litres (near 800,000 tonnes) a year of Brazilian ethanol duty-free alarms EU farmers; they want imports limited,
as in America, to a percentage of EU output. And as the EU cuts direct subsidies to farmers, their search to open,
but then protect, new outlets will surely gain influence.
There may be good news for them (and, for once, for EU buyers of their products too). A firm from Spain,
Abengoa, is the European leader in ethanol, with 260,000 tonnes of capacity there, and 160,000 more on the
way. Big also in America, it hopes, using its experience there, to build the EU's first maize-based plant, in southwest France. But it may lead Europe in a far more significant direction than that.
The biofuellers make much of their green credentials. Critics claim their stuff takes more energy to make than it
gives out; not so, say allies, citing advances in technology. But neither greenery nor energy-efficiency is the real
issue. It is double-headed. First, can they compete, unsubsidised, with mineral oil? Not yet in biodiesel, says
German experience. Nor in Europe's ethanol, says Abengoa's boss, Javier Salgado: oil would have to reach $70 a
barrel. But in America, yes, at about $50 a barrel. So...
And another thing
Second, can they compete with each other? The big transatlantic difference is in raw material costs: about 30
euro-cents (39 American ones) a litre in the EU, half that figure in America or Brazil, lament the EU's ethanolmakers. The Brazilians gleefully agree. They expect to make some 16 billion litres of ethanol this year, about as
much as America. And overall, they say, American ethanol costs 50% more to make than theirs, European ethanol 150%; their stuff, they claim, became competitive with petrol, at pre-tax prices, in 2002. By 2010 their state
oil company, Petrobras, hopes to be exporting 8 billion litres a year.
So, in a free-market world, only Brazil and the traditional oil companies would be keeping transport moving?
Not necessarily. Biofuel technology is rapidly advancing. Even in Europe, Abengoa reckons its ethanol could
compete with mineral fuels within ten years. And a new technology, aided by some biotech, may both cut costs
and ease raw-material constraints. Mr Salgado's firm, under an EU contract since 2003, has been studying how to
make ethanol not from grain but straw.
It is not alone—nor indeed first. A Canadian firm, Iogen, backed with capital not just from the government
(which freed ethanol from federal tax in 1992) and ex-state-owned Petro-Canada, but from Shell, opened a pilot
plant for such “cellulosic” ethanol a year ago. It now plans a full-scale one in the Canadian prairies or Idaho.
Another firm has begun studying a plant, proposed for British Columbia, using wood. America's Department of
Energy heavily finances similar research, and enthusiasts there say that within 20 years the result could cost only
80 cents a gallon, well below today's gasoline cost. And in a study, “Growing Energy”, put out last December,
serious dreamers claim that by 2050 cellulosic biofuels, mainly ethanol from switchgrass, a native American
plant, could total nearly 120 billion gallons a year—over two-thirds of today's total motor-fuel needs.
That is blue-sky stuff, and none of this is sure to happen: if the oil price were to slump (or, as America's wind
farms have shown, if subsidies yo-yo), much may develop much more slowly or never. But the old idea of biofuels as merely a green diversion from the real world can no longer hold. Fine, when oil was $20 a barrel; not even
oil companies believe it now.
Canada’s Oil Boom. Building on Sand. The allure and perils of investing in Alberta's oil sands11
EACH tyre on the massive trucks carting gritty black goo around a mine in northern Canada weighs as much as
four cars, an engineer explains excitedly; the trucks, in turn, can carry 400 tons. They are driving around a hole
in the ground that is several hundred metres deep, several kilometres wide, and growing fast. Open-cast mines
like this are planned for some 3,000 square kilometres of the surrounding area, and subterranean ones beneath a
further 35,000 square kilometres.
11
The Economist, May 24th, 2007.
Ressourcen
86
Canada's oil sands, or tar sands, as the goo is known, are outsized in every way. They contain 174 billion barrels
of oil that can be recovered profitably, and another 141 billion that might be worth exploiting if the oil price rises
or the costs of extraction decrease—enough to give Canada bigger oil reserves than Saudi Arabia. They are attracting huge investment from oil giants such as Royal Dutch Shell, Exxon Mobil and Total. But they are also
stirring great controversy.
Until recently, most big oil firms shunned the oil sands as too expensive to exploit. In most cases, extracting oil
involves chopping down the forest that blankets the region, draining the boggy ground, stripping off the topsoil
and literally digging up the oily sand below. Producers must then mix it with water, heated using natural gas, to
separate the oil from the sand. Some do all this underground by pumping steam into deeper deposits and pumping out the resulting slurry. Both processes produce bitumen, which needs extra treatment before it can be refined into petrol. All this consumes lots of energy, and so costs C$20-25 ($18-23) per barrel of output in operating expenses alone. Analysts at Citibank reckon the oil price needs to remain above $40 a barrel to make the
development of the oil sands worthwhile.
But with oil selling for around $70 a barrel, and with big oil firms struggling to find new resources, the oil sands
suddenly seem much more attractive. There is no exploration risk: the oil is definitely there. Once up and running, oil-sands mines produce a steady flow of oil for 30 years or more, whereas the output of more conventional
fields is much less predictable. Best of all, the oil sands are in Canada, a hearteningly moderate and stable country.
So the oil majors are piling in. This month Total said it would increase its total investment in the region to as
much as C$15 billion. Norway's Statoil has just spent $2 billion on a Canadian firm with oil-sands rights. Shell,
Exxon, Chevron and others are joining in. Production from the region, now 1.2m barrels per day, is expected to
rise to 4m by 2020, putting Canada's output on a par with Iran's.
But not all the oil giants are convinced. BP, for one, has steered clear. If the price of natural gas rises, or that of
oil falls, the oil sands will look less enticing. As it is, development costs have roughly tripled since 2001, according to industry figures, thanks to a shortage of labour and parts—such as those massive tyres.
Meanwhile, the province of Alberta is reviewing the tax regime. Back in the 1990s, when there was little interest
in the oil sands, it sought to lure investment by setting a nominal royalty of just 1% of revenues until investment
costs were recovered. Today, although production is booming, the province's revenue from royalties is actually
falling, as oil firms take advantage of that and other tax breaks. Critics argue that times have changed and that
producers can now afford to pay more. More broadly, they contend that the rapid growth of the industry is fuelling inflation in the province and overloading its infrastructure, and should be slowed. The mayor of the main
oil-sands district has called for a lull in new projects.
But the biggest uncertainty is over the environment. Extracting oil from oil sands produces two or three times as
much carbon dioxide as pumping it out of a normal well, according to the Pembina Institute, an environmental
group. Yet the Canadian government has vowed to reduce Canada's emissions. To that end, it will soon require
oil-sands projects to reduce the ratio of emissions to oil produced by 2% a year.
Activists at WWF, another pressure group, say a much tougher regime is needed. Meanwhile, California and 11
other American states are planning to adopt pollution laws that would ban the sale of petrol from emissionsintensive sources. Shell and other big investors in the oil sands hope to meet such requirements by siphoning off
emissions from their mines and storing them underground—although the technology to do so is still in its infancy. The uncertainties surrounding the oil sands, in other words, are as big as the developments themselves.
Ressourcen
2.5
87
Ressourcen und Wachstum
2.5.1 Is oil wealth a blessing or a curse?12
THREE decades ago, the Organisation of Petroleum Exporting Countries (OPEC) sent oil prices
rocketing. By 1980, a barrel cost $30, ten times the price in 1970. Consumers suffered,
whereas oil producers reaped an enormous windfall. Many assumed then that oil was a gift of
God that would transform poor countries into flourishing economies within a generation. Yet
even during those heady early days there were doubts. Juan Pablo Pérez Alfonso, a founder of
OPEC, complained in 1975: “I call petroleum the devil's excrement. It brings trouble...Look at
this locura—waste, corruption, consumption, our public services falling apart. And debt, debt
we shall have for years.”
Several new publications argue that history has proved him right. A new book from the Open
Society Institute, a foundation financed by George Soros, points out that resource-poor countries grew two to three times faster than resource-rich countries between 1960 and 1990 (even
after adjusting for differences in population, initial income per head and other variables). Revealingly, the resource-rich countries began to lag only after the 1970s—in other words, only
after oil wealth started to pour in.
Two factors explain this. The main economic problem is known as Dutch Disease, after the
effects of the discovery of natural gas in the Netherlands in the 1960s. An oil bonanza causes
a sudden rush of foreign earnings; this drives up the value of the currency. That, in turn,
makes domestically produced goods less competitive at home and abroad. Over time, domestic manufacturing and agriculture fade and growth suffers.
Tricky as this problem is, oil economies such as Norway and Alaska have come up with a
clever (though still imperfect) solution: they hive off much of the oil income into “stabilisation” funds, disbursing “dividends” to citizens slowly—directly in Alaska, via social spending
in Norway—so that the economy does not overheat. Chile, one of the world's more successful
developing countries, has a similar fund for its copper revenues.
Contrast this cautious approach with the recklessness of the OPEC countries of the Middle
East, which expanded domestic spending by about 50% a year between 1974 and 1979. This
enriched the elite, but spawned white-elephant projects and fuelled inflation of more than
15% a year. Venezuela has earned over $600 billion in oil money since the 1970s, but the real
income per head of its citizens fell by 15% between 1973 and 1985. It is falling again today.
On top of these economic difficulties can come even worse political problems. Because oil
infrastructure can be controlled easily by a few, it often leads to a concentration of political
power. Michael Ross, of the University of California at Los Angeles, argues that oil worsens
poverty by stunting democratic development, among other things. It also tends to cause, or at
least aggravate, civil wars. A new report by Christian Aid, a charity, says that oil economies
are more likely than non-oil economies to maintain large armies, and generally do worse on
12
The Economist, May 24th, 2003, p78.
Ressourcen
88
literacy, life expectancy and other measures of human development. In addition, sudden oil
wealth affords ample opportunity for corrupting the politicians who award contracts to foreign
oil firms.
Wishful thinking?
These recent reports are troubling, but is there really any prospect of change? Surprisingly,
the answer may be yes. For some time now, Publish What You Pay—a collection of activist
groups—has been pestering Big Oil to reveal all the payments it makes to governments,
which usually insist that such details be kept secret. Now some big investors are getting in on
the act too. On May 19th, ten investment funds managing some $600 billion of assets declared their support for transparency: “This is a significant business risk, making companies
vulnerable to accusations of complicity in corrupt behaviour...and possibly compromising
their long-term commercial prospects.” Tony Blair has been promoting the Extractive Industries Transparency Initiative, a scheme that calls for voluntary disclosures. Britain now plans
to push for an international approach by raising the topic at the G8 summit in France next
weekend and at a ministerial meeting on June 17th.
A multilateral approach would certainly be more realistic than any national or unilateral steps.
That is what BP discovered when it recently voluntarily revealed the terms of its contracts in
Angola. No other oil company followed suit, and the local powers let it be known that they
were displeased. A multilateral approach could involve the World Bank and the International
Monetary Fund, which could push countries to publish the details of contracts and to set up
resource funds. Some countries howl that such initiatives violate their sovereignty, but that is
a smokescreen: rulers with nothing to hide would surely welcome transparency. Others, including Abu Dhabi and Kazakhstan, boast that they already have such funds—but these are
weakened by a lack of proper oversight. In contrast, the American proposal for dealing with
Iraqi oil revenues could result in the creation of a fund monitored by Kofi Annan.
But reform will not be easy. The World Bank recently demanded transparency in return for
backing a controversial pipeline running from Chad to Cameroon. After much hesitation, both
countries agreed to set up mechanisms that will allow outside monitoring of oil revenues and
vowed that the funds will be used only for development purposes. The ink had barely dried on
the accord when Chad's ruler was caught diverting oil money to military spending. Getting
firms to “publish what you pay is an essential first step,” observed George Soros at the launch
of the Open Society book, but the harder step is to get governments to “publish what you receive...and then be accountable for what you receive.”
Ressourcen
89
2.5.2 Can the world economy continue to shrug off high oil prices?
Economist Aug. 27th 2005, p57-58.
HAD you been told in late 2001—not long after that September's terrorist attacks, and when stockmarkets had
been tumbling for 18 months or so—that the price of crude oil would more than triple within four years, you
might well have predicted global economic meltdown. The price of a barrel of West Texas Intermediate has risen
from $18 in November 2001 to record levels: it hit yet another new high, above $67, this week. This is similar in
scale to the price jumps of 1973-74, 1978-80 and 1989-90, all of which were followed by worldwide recession
and rising inflation. Today, though, global GDP growth is well above trend, while inflation remains low. Why
has the world economy fared so comfortably this time?
There are several popular explanations. The simplest is that, although the latest price increase is about as big as
those in previous episodes, it has been more gradual. In 1979 the price of oil doubled in six months; this time it
took 18 months, giving households and firms more time to adjust and so doing less damage to their confidence
and finances and hence to economic activity. This is plausible, but unlikely to be the whole story: no matter what
the pace of the increase, it pains Americans to pay $3-plus for a gallon of petrol.
Another common line is that in real terms oil is not terribly expensive. True, adjusted for American consumerprice inflation, the price of a barrel of crude would have to be about $90 to beat the mark it set in 1980. But this
is small comfort: thus measured, the real price is already above its peaks of 1974 and 1990, which were high
enough to bring on recession.
Moreover, a calculation of real prices depends on the deflator used. Relative to American producer output prices,
the appropriate measure for businesses, real oil prices are already close to their 1980 peak. For an oil-importing
economy as a whole, however, the relevant deflator is arguably export prices, since the main way that dearer oil
causes pain is through the terms of trade. Relative to global export prices, oil prices are at an all-time high (see
chart).
A third argument used by the sanguine is that the modern economy now runs on brain power and microchips
rather than on oil. Developed countries use half as much oil per real dollar of GDP as in the mid-1970s, thanks to
improved energy efficiency, a switch to other sources of energy and the shift from manufacturing to services.
Ressourcen
90
This means that a given rise in oil prices makes a smaller dent in output. However, while rich countries have
greatly reduced the oil content of their GDP, many emerging economies are still big energy guzzlers. Some
Asian economies, such as India and South Korea, use more oil per dollar of GDP today than they did in the
1970s.
Furthermore, even if America consumes less oil relative to GDP than it did 30 years ago, it also produces less, so
its net oil imports are roughly the same as a percentage of GDP (just under 2%). And the impact of oil prices on
GDP depends on net imports not on consumption, because oil producers gain when prices rise.
Crude analysis
According to the IMF's model, an increase of $10 a barrel in oil prices should knock three-fifths of a percentage
point off the world's output in the following year. Thus the increase of $30 over the past year or so should have
reduced global growth by almost two percentage points. However, all such ready-reckoners are based on previous oil shocks, when the main cause of higher prices was a disruption to oil supplies: the OPEC oil embargo in
1973-74; the Iranian revolution in 1979; and Iraq's invasion of Kuwait in 1990.
The current episode, however, has its origin in increasing demand, notably in China, the rest of Asia and the
United States. Last year's increase in global oil consumption was the biggest for almost 30 years. The old rules
of thumb based on supply shocks do not work for price increases driven by rising demand. If oil prices rise because of a shortfall in supply, they will unambiguously cause GDP growth to fall. However, if higher oil prices
instead reflect strong demand, then they are the product of healthy global growth. They will therefore be less
damaging.
The downside is that, if prices are high because of strong demand rather than a supply shock, they are likely to
stay high for longer. In past oil shocks, a rise in price as a result of a temporary supply disruption caused oil
consumption to decline, so that when supply returned to normal prices promptly fell. But if oil prices are being
pushed higher largely by rising demand in China and other emerging economies, a sudden collapse is less likely.
This is not to deny the role of speculators, whose bets that prices have further to climb have given the market an
extra momentum—perhaps leaving it vulnerable to a future drop. Even so, with demand growing strongly and
supply unusually tight as a result of years of inadequate spending on exploration, development and refining capacity, any serious supply disruption would push prices yet higher. The basic fact is that the equilibrium price of
oil has risen: analysts at Goldman Sachs expect oil to fetch an average of $68 a barrel next year and $60 for the
next five years. In the long run, such high prices will encourage exploration and bring forth increased supply that
will eventually dampen prices, but this will take time.
The inflation novelty
The relatively gradual rise in prices, the lower oil-intensity of many economies and the role of strong demand
rather than a fall in supply all go some way to explaining why this time the effects of higher oil prices on world
GDP have so far been muted. However, perhaps the biggest difference between today's high oil prices and earlier
bouts lies in the response of inflation and interest rates. In the past, rising oil prices pushed inflation up sharply;
sooner or later, central banks raised interest rates. And this time? Figures out last week showed that the headline
rate of inflation in America leapt to 3.2% in July from 2.5% in June, largely because of higher oil prices, yet the
core rate of inflation only edged up from 2% to 2.1%. Indeed, inflation worldwide is unusually low, thanks partly to global competitive pressures from China and elsewhere. Subdued inflation, and the expectation that it will
stay that way, have allowed central banks to hold interest rates lower than in the past.
As a result of low interest rates, America and some other economies have enjoyed a boom in house prices, accompanied by a surge in household borrowing and a falling saving rate. Higher oil prices have acted like a tax on
consumers, leaving them less money to spend on other goods. But in America this has been fully offset by borrowing against soaring home prices. This explains why higher oil prices appear to have depressed domestic de-
Ressourcen
91
mand by more in Europe than in America: in most euro-area economies there has been little or no cushion from
increased borrowing against property.
The fact that America's economy has been able to shrug off higher oil prices mainly as a result of a housing and
mortgage bubble is hardly a comforting thought. What happens when house prices flatten, or even fall? Consumers will then feel the full force of dearer oil. Come to think of it, a further spike in oil prices could even be what
pops the housing bubble, if it unsettles consumers enough. So far, the rising oil price has done little harm; but
worse may well be on the way.
Ressourcen
92
3 Energiemärkte und Politik
Die jüngsten politischen Ereignisse, die Umstrukturierung und die damit verbundenen Krisen
in der Sowjetunion und Saddam Husseins temporäre Annexion von Kuwait und der darauffolgende Krieg haben einen substantiellen Einfluss auf die zukünftigen Energiemärkte.
Diese Arbeit konzentriert sich auf die Konsequenzen aus dem Golfkrieg. Die Implikationen
der reinen ökonomischen Theorie, d. h. von Effizienz- und Profitbetrachtungen, besagen, dass
die Politik vermutlich nur einen geringen Einfluss hat. So zeigt Wirl (1992), dass Iraks gewaltsame Annexion von Kuwait nur einen vernachlässigbaren, dauerhaften Einfluss auf die
Weltölpreise gehabt hätte. Diese optimistische Hypothese wird durch politisch-ökonomische
Betrachtungen kontrastiert, wobei weitere Krisen wahrscheinlich scheinen (d. h. kompatibel
mit dem rationalen Kalkül der Herrscher). Diese Drohung führt dazu, dass (rationale) Konsumenten nicht alle Vorteile niedriger Energiepreise realisieren und daher sowohl die Konsumenten als auch die Produzenten ansehnliche Summen verlieren. Der einzige Weg für die
Produzenten, diese Marktsituation zu verbessern, sind Verpflichtungen, deren Glaubwürdigkeit jedoch fraglich bleibt. Eine Möglichkeit dafür wäre eine (partielle) Rückkehr zur
vertikalen Integration, insbesondere dadurch, dass den internationalen Ölgesellschaften wiederum mehr Verantwortung übertragen wird.
3.1
Ökonomische und polito-ökonomische Gründe für temporäre Beschränkungen
Die Quintessenz der theoretischen Ökonomie scheint, dass politische Veränderungen nur einen geringen Einfluss auf die realen Prozesse haben. Insbesondere ist Handel immer vorteilhaft für beide, Produzenten und Konsumenten, so dass Embargos auch den Produzenten weh
tun und daher unwahrscheinlich sind. Adelman (1990) entwickelt nun ein "ökonomisches"
Argument für Outputbeschränkungen. Adelman betrachtet die OPEC Regierungen als brutales
Monopol, weit brutaler als jedes private Unternehmen in der industrialisierten Welt. Er argumentiert, dass jede starke Ausbeutung von Konsumenten durch private Monopole derartig
mächtige Lobbys kreiert, die kurzen Prozess mit einem solchen Monopol machen, im
schlimmsten Fall durch Verstaatlichung. Die OPEC erhöht im Zeitraum 1973 - 1981 den realen Ölpreis um etwa 1500 %. Kein privates Monopol hätte sich eine solche Strategie erlauben
können, sondern und nur souveräne Staaten, wo das Produzenteninteresse dominiert. Diese
plausible Beschreibung von Adelman ist jedoch nach wie vor ungenügend, um absichtliche
Outputbeschränkungen zu erklären, so dass andere Eigenschaften notwendig sind, als die einer brutalen OPEC. Zuerst muss noch vorausgesetzt werden, dass Konsumenten sehr inflexibel hinsichtlich ihrer kurzfristigen Optionen sind, so dass eine temporäre Beschränkung des
Outputs die Einnahmen für die Produzenten erhöht. Jedoch intertemporale Betrachtungen
(Berücksichtigung zukünftiger Marketingmöglichkeiten) und das Verlangen nach einer guten
Reputation, um den Goodwill der Konsumenten zu erhalten, genügt gewöhnlich, um diese
kurzfristigen Ausbeutungstendenzen zu eleminieren, zumindest in konventionellen Gütermärkten.
Daher ist auch diese modifizierte Theorie von Adelman noch ungenügend, um böswillige Angebotsbeschränkungen zu erklären, und so offeriert Adelman folgende zusätzliche Erklärung:
"Not as Arabs or Muslims or some other irrelevancy, but as rational economic actors, the
OPEC countries must take the money and run." Das kann dahingehend interpretiert werden,
Ressourcen
93
dass jede potentiell bedrohte Regierung eines Entwicklungslandes jede kurzfristige Profitopportunität realisieren muss, irrespektive der langfristigen ökonomischen Kosten. Trotz all dieser Modifikationen ist Adelmans Argument nicht durchhaltbar auf rein ökonomischer Basis,
sondern erfordert zusätzliche politisch-ökonomische Rahmenbedingungen, da ansonsten das
myopische Verhalten der OPEC-Entscheidungsträger unplausibel bleibt. Wirl (1991a,b) entwickelt ein rein ökonomisches Argument, um gelegentliche Preisspitzen, d. h. die andere Seite der Medaille von Outputbeschränkungen zu erklären. So zeigt Wirl, dass gelegentliche oder
sogar immer wiederkehrende Preisspitzen optimal sein können für weitsichtige Produzenten
und sogar für rationale Konsumenten, nämlich dann, wenn die Nachfrage konvex und dynamisch ist. Beide Argumente, die von Wirl (1990, 1991) und die von Adelman (1990), verwenden explizit oder implizit die Eigenschaft, dass der Erdölmarkt sehr träge ist. In der Tat,
diese Eigenschaft ist auch essentiell für die folgende politisch-ökonomische Betrachtungsweise.
Politiker (überall und nicht nur im Golf) kümmern sich weniger um Profite als Geschäftsleute.
Der Grund dafür ist, dass politische Märkte (zumindest kurzfristig, das heißt bis zur nächsten
Wahl) manchmal Entscheidungen belohnen, die der Wirtschaft schaden. Daher reduziert sich
die Ökonomie zu einer Beschränkung für politische Entscheidungsfindung, wenn auch einer
wichtigen. Jedoch ist die Ökonomie nicht das alles überschreibende Prinzip. Tatsächlich haben die Planwirtschaften Osteuropas bewiesen, dass grundlegende ökonomische Kräfte über
einen relativ langen Zeit ignoriert werden können. In diesem Sinne ist nicht der Zusammenbruch von Planwirtschaften das Überraschende, sondern die Tatsache, dass solche absurden
Ökonomien einen so langen Zeitraum überdauern konnten.
Die grundlegende Hypothese für den Öl- und Energiemarkt ist nun, dass politische Ambitionen oder möglicherweise sogar kurzsichtige ökonomische Betrachtungen das zukünftige Ölangebot bedrohen. Daher sind politische, nicht-ökonomische Betrachtungen wie die Fiktion
einer islamischen Welt, der Mythos einer arabischen Einheit etc. wichtig für Analysen des
Weltölmarktes. Der Grund ist, dass rationale Politiker diese Gefühle zu ihrem Nutzen ausbeuten. Angenommen, dass diese Gefühle für einige Zeit vorherrschen, dann muss man mit
wohlgezielten Outputbeschränkungen rechnen, und zwar je mehr der Westen abhängig vom
arabischen Öl ist, desto höher sind die Möglichkeiten der Erniedrigung des Westens und daher der potentielle Gewinn für arabische Führer. Deshalb werden Politiker, die die entsprechenden populistischen Unterstützungen benötigen, versucht sein, diese Waffe gelegentlich einzusetzen. Die Wahrscheinlichkeit solcher Strategien wird noch dadurch bestärkt, dass
wohlgezielte Outputbeschränkungen bedingt durch höhere Einnahmen sich wegen der bereits
oben erwähnten Trägheit der Märkte auch kurzfristig finanziell bezahlt machen. Dies unterstreicht die Bedeutung dieser Eigenschaft, Trägheit der Energiemärkte, die wichtig ist, um
diese politischen und ökonomischen Benefizien zu lukrieren.
Die Quintessenz der obigen Argumente - ökonomisch und polito-ökonomisch - ist, dass hohe
Nachfrage den arabischen Führern für eine Beschränkung des Outputs zwei Dinge offeriert:
hohe kurzfristige Einnahmen (aber langfristige Verluste); Unterstützung bei der breiten Masse
wegen der arabischen bzw. islamischen Ressentiments gegenüber dem "Westen". Diese ökonomischen und politischen Effekte sind umso stärker, je höher die momentane Nachfrage ist,
wegen mangelnder Alternativen. Daher setzt hohe Nachfrage die Konsumenten dem Risiko
aus, einigen Ölproduzenten als Beute für ökonomische oder politische Zielsetzungen zu die-
Ressourcen
94
nen. Dieses Szenario - der Konsument als mögliche Geisel der Produzenten - impliziert, dass
durchaus für präventive Maßnahmen zur Erhöhung der Versorgungssicherheit argumentiert
werden kann, konträr zu konventioneller ökonomischer Anschauung.
3.2
Effiziente Verwendung von Öl - ein Dilemma?
Erdöl und insbesondere die Reservoirs im Nahen Osten stellen eine sehr billige Energiequelle
mit hohem Nutzen dar. Daher, ist es angebracht, diese Ressourcen effizient zu verwenden,
denn Missmanagement oder gar Nichtverwendung wären gleichbedeutend mit dem Verzicht
auf Unsummen von Milliarden von Dollars für beide, Produzenten und Konsumenten. Deshalb haben Konsumenten und Produzenten ein Interesse an diesen Ölressourcen, wenn auch
gelegentlich Streitigkeiten über die Aufteilung des Überschusses, das heißt Debatten über den
"richtigen" Preis von Öl entstehen. Abgesehen von dieser Propaganda favorisieren beide
Gruppen ein freundliches und kommerzielles Klima wegen rein ökonomischer Gründe. Es ist
jedoch so, dass nicht immer die reine Ökonomie die Welt regiert. Dies führt zu Unsicherheit
in den Energiemärkten und deshalb zu einem Dilemma für die Konsumenten, die heute investieren müssen, was ihren zukünftigen Bedarf bestimmt. Im Extremfall kann man sich vorstellen, dass der Ölbedarf in der Periode t (wenn die Zeitintervalle genügend klein gewählt werden) komplett durch historische Entscheidungen bestimmt ist. Unter solchen Umständen kann
der Produzent den Konsumenten als Geisel nehmen und diese Situation für seine (politischen)
Zwecke missbrauchen. Prinzipiell kann auch ein ökonomisch denkender Produzent zu einer
solchen Strategie verführt werden. Diese Strategie - die Produzenten nützen den ex-post Opportunismus aus, der hier aufgrund der Zeitinkonsistenz optimaler Pläne resultiert - bedroht
die Konsumenten dahingehend, ihren heutigen Bedarf auszuweiten. Als eine Konsequenz
dieser Gefahr sparen sie zu viel. Daher ist folgendes Szenario denkbar: Die politischen Instabilitäten im Nahen Osten (vier Krisen in den letzten zwanzig Jahren) haben - im Gegensatz zu
allen ökonomischen Argumenten - gezeigt, dass das Ölangebot unsicher ist und dazu dient,
gelegentlichen politischen (oder auch ökonomischen) ex-post Opportunismus auf der Produzentenseite zu befriedigen. Und die Kosten, die mit einer solchen Strategie verbunden sind,
können enorm werden, sowohl in monetären Ausdrücken als auch hinsichtlich von Menschenleben, wie drei Kriege deutlich dokumentierten. Deshalb
werden die Konsumenten vermeiden, dass sie wieder in eine solche geiselähnliche Situation
kommen, und investieren daher in verschiedene Maßnahmen, um den Ölkonsum zu reduzieren. In anderen Worten; Energiesparen wird zu einer Versicherung, die notwendig wird wegen der unsicheren Erdölversorgung aus politischen Motiven.
Ab diesem Punkt wird das Konsumentendilemma auch ein Produzentendilemma, weil diese
potentielle Gefahr sowohl den heutigen als auch zukünftigen Ölmarkt schädigt. In dieser Situation würden die Produzenten gerne eine Verpflichtung eingehen, um diese negativen Auswirkungen der Unsicherheit auf dem Erdölmarkt zu beseitigen. Jedoch werden die Konsumenten solchen Verpflichtungen kaum trauen. Der Grund ist, dass ein nachfolgender Diktator
mit den Ambitionen eines Saddam Hussein's kaum zögern wird, diese eingegangenen Verpflichtungen zu brechen. Diese Vorsicht rationaler Konsumenten führt zu niedrigem Ölkonsum, irrespektive wie niedrig heutige Erdölpreise sein werden, so dass diese Instabilitäten
durch politische Märkte Milliarden und Milliarden Dollar vernichten, sowohl für die OPEC
als auch für die Konsumenten.
Ressourcen
3.3
95
Verpflichtungen
Eine Möglichkeit für die OPEC, diesen Schaden zu begrenzen und die Chancen der Ölvermarktung zu verbessern, ist, durch eingegangene Verpflichtungen die Gefahr von zukünftigen
Preissprünge, Knappheiten und Krisen zu mildern. Dies ist jedoch keine leichte Aufgabe, und
verbale Versprechungen werden in den folgenden Jahren nicht genügen. Der wichtige Punkt
dabei ist, dass den Konsumenten sehr wohl jetzt bewusst ist, dass sie wiederum die Subjekte
sind, die eventuell einem ex-post Opportunismus ausgeliefert sind. Unter solchen Umständen,
so argumentiert Williamson (1981, 1983), ist vertikale Integration eine Möglichkeit, diese
Transaktionskosten, die durch Marktoperationen zwischen Produzenten, Ölgesellschaften und
Konsumenten entstehen, zu begrenzen. In Prinzip sind hier zwei Wege denkbar.
Die OPEC-Mitglieder investieren in Downstream-Aktivitäten, Marketing, ja sogar in Verkaufsnetze in den Konsumentenmärkten. Das heißt, sie versuchen, eine Rolle ähnlich den internationalen Ölgesellschaften zu übernehmen. Tatsächlich hat Kuwait ein relativ großes Distributionsnetz - die Q8 Stationen - erworben. Diese Strategie kann die Glaubwürdigkeit zukünftiger Lieferverpflichtungen unabhängig von der Struktur des zukünftigen Regimes erhöhen, aber sieht sich gravierenden Hürden, wie Konkurrenz mit den internationalen Ölgesellschaften, fehlendes Know-How und fehlenden Goodwill der Konsumenten gegenüber.
Weiterhin haben diese neuen, vertikal integrierten Gesellschaften das Risiko feindlicher Regierungen in den Konsumentenländern, die möglicherweise ihre eigenen Ölgesellschaften
unterstützen.
Daher scheint mir für die OPEC der folgende Weg sinnvoller zu sein, um den Konsumenten
zu signalisieren, dass die Verpflichtungen hinsichtlich zukünftiger Erdöllieferungen ernst genommen werden, nämlich die internationalen Ölgesellschaften wiederum einzuladen, in der
Produktion aktiv zu werden. Der Vorteil dieser Strategie ist, dass diese Gesellschaften das
entsprechende technische Know-How haben, sowohl auf der Produktionsseite als auch in der
Raffinierung, in der Verteilung und im Marketing raffinierter Produkte. Darüber hinaus erfreuen sich diese Gesellschaften eines substantiellen Goodwills der Konsumenten, der für
neue Ölgesellschaften in der Hand von OPEC-Ländern schwierig zu akquirieren wäre. Diese
Strategie ist jedoch nicht billig für OPEC, insbesondere hinsichtlich seiner politischen Dimensionen. Denn um diese Verpflichtungen zu unterstreichen, werden die Ölgesellschaften eine
Machtfülle erhalten müssen, die in etwa jener gleicht, die vor 1973 den Ölmarkt bestimmt hat.
Tatsächlich sind bereits erste Anzeichen in diese Richtung erkennbar, The Economist (1991).
3.4
Zusammenfassung
Eine rein ökonomische Betrachtung zeigt, dass politische Instabilitäten ja sogar eine Re-allokation der Erdölreserven durch brutale Gewalt (irakischer Imperialismus) nur einen geringen Effekt auf internationale Erdölpreise hätte. Der Grund ist, dass wer immer - Diktator, König oder Parlament - Irak, Saudi Arabien, die UdSSR oder ein anderes ölexportierendes Land
regiert, er wird ein hohes Interesse daran haben, Öl langfristig profitabel zu vermarkten. Dieser Optimismus ist jedoch nicht notwendigerweise gerechtfertigt, wenn politische Interventionen mit Geschäftsinteressen konfliktieren und wenn gleichzeitig der Markt träge ist. Dies
wurde ausreichend durch vier Krisen in den letzten zwanzig Jahren bestätigt und exemplarisch im Falle Kuwaits aufgezeigt. Präziser, es mag sich für einen rationalen Politiker auszah-
Ressourcen
96
len, die öffentlichen Gefühle - den Hass gegen den Westen im allgemeinen und gegenüber
Israel im besonderen, die Gefühle für arabische Einheit und die islamische Religion - auszunützen, selbst wenn das bedeutet, dass finanzielle Einnahmen verloren gehen. Um den Westen
zu demütigen und zu erniedrigen, könnten die arabischen oder die islamischen Länder oder
irgend eine andere Koalition von Ländern den Output reduzieren. Aufgrund der Besonderheiten des Erdölmarktes, nämlich seiner Trägheit, mag sich diese politisch motivierte Strategie
sogar kurzfristig finanziell positiv auswirken, zumindest wenn nicht genügend andere Kapazitäten zur Verfügung stehen. Und solche Situationen, dass die Produzenten die Konsumenten
als Geiseln nehmen, können nicht dadurch ausgeschlossen werden, dass man auf die intertemporalen ökonomischen Kosten einer solchen Strategie hinweist. In der Tat, sind solche
strategischen Reduktionen des Outputs oder sogar Embargos bei weitem harmloser als etwa
die absurde Handelspolitik der vormaligen Comecon-Länder, die grundlegende ökonomische
Kräfte für mehr als 40 Jahre negierte.
Ironischerweise ist dieser Schluss - Erdölangebot bleibt potentiell unsicher - zu einem Zeitpunkt zu ziehen, als die OPEC-Mitglieder (alle anderen außer Irak und Kuwait) sehr wohl
ihrer Verpflichtung nachkamen und den Output erhöhten, um die ausgefallene Produktion zu
kompensieren. Der Hauptgrund für diese Skepsis der Konsumenten ist, dass sich die Konsumenten sehr wohl bewusst sind, dass die nächste Krise wahrscheinlich nicht in einer solch
günstigen Situation wie zuletzt passieren wird, als die Angebotskapazitäten die Nachfrage bei
weitem überstiegen. Diese Unsicherheit hinsichtlich der zukünftigen Versorgung senkt die
momentane Ölnachfrage, weil die heutigen Ankäufe an dauerhaften Investitionsgütern (Autos,
Häuser, Wohnungen usw.) den zukünftigen Bedarf mitbestimmen. Daraus ergibt sich, dass
Milliarden und Milliarden von Dollar verschwendet werden, bei beiden, Produzenten und
Konsumenten. Die Konsumenten verlieren, weil sie auf Möglichkeiten verzichten, die bei den
niedrigen Ölpreisen lukrierbar wären. Die Produzenten verlieren, weil sie sich einer niedrigeren Nachfrage gegenüber sehen, ohne den Vorteil zu haben, höhere Preise dafür zu verlangen, denn die Einsparungen heute sind die Antwort auf potentielle zukünftige Drohungen.
Eine Möglichkeit, wie die OPEC den heutigen Bedarf erhöhen kann, ist es, Verpflichtungen
hinsichtlich zukünftiger Lieferungen einzugehen. Vertikale Integration, wie sie Williamson
vorgeschlagen hat, kann solche Verpflichtungen glaubwürdig erscheinen lassen. Tatsächlich
repräsentiert dieser Vorschlag alte OPEC Ideen, Konsumenten- und Produzenteninteresse zu
integrieren und kooperativ zu lösen. Die leichteste und wahrscheinlich effizienteste Art und
Weise, diesen Effekt zu erzielen, ist es, die internationalen Ölgesellschaften einzuladen, zurückzukommen und ihnen eine ähnliche Rolle zu geben wie vor 1973. Die andere Möglichkeit
- die Produzentenländer integrieren Raffinerien und Distributionsnetze in ihr Netzwerk - ist
jedoch weniger glaubwürdig, weil die Unsicherheit des Angebots wegen politischer Märkte,
z. B. der Notwendigkeit, dem islamischen Fundamentalismus nachzugeben, bestehen bleibt,
wenn auch die Kosten einer solchen Strategie steigen. Tatsächlich haben sich überall die politischen Märkte als weniger vorhersehbar und stabil als die ökonomischen Märkte herausgestellt, weil Firmen ihr eigenes Geld investieren und versenken und daher glaubwürdiger sind
als Politiker, die das Geld anderer ausgeben.
Ressourcen
3.5
97
Die ökonomischen Konsequenzen eines "Groß-Irak"
Der Zweck dieses Kapitels ist zu demonstrieren, dass Iraks gewaltsame Annexion von Kuwait
nur einen vernachlässigbaren, dauerhaften Einfluss auf die Weltölpreise gehabt hätte. Diese
Untersuchung basiert auf Wirl (1992) und ist hier stark komprimiert. Diese Arbeit betrachtet
ein Differentialspiel unter den OPEC-Mitgliedern, wo jetzt 12 (Irak und Kuwait sind jetzt
vereinigt), anstatt der 13 Länder in Konkurrenz stehen. Jedes Mitglied wählt ein Extraktionsprofil und das Ausbeutungsdatum so, dass der Barwert an zukünftigen Profiten maximiert
wird. Der Weltmarktpreis für Erdöl resultiert dann aus einer inversen Nachfragefunktion, die
vom aggregierten Angebot an OPEC-Erdöl abhängt. Diese Funktion statuiert, dass OPEC eine
Erhöhung des Outputs nur durch Preissenkung durchsetzen kann und umgekehrt Produktionseinschränkungen (etwa mittels Quoten) Preiserhöhungen zur Folge haben. Die Produzenten haben bei der Förderung konstante Kosten und diskontieren unterschiedlich die zukünftigen Einnahmen. Dieses Optimierungskalkül hat zwei Randbedingungen: 1. Nicht negative Produktion; d. h. wir exkludieren Spekulation der Produzenten. 2. Die Erdölreserven sind
beschränkt. Sowohl die Erdölreserven als auch die Produktionskosten und die Nachfrage nach
OPEC-Öl sind allen Spielern bekannt. Tabelle 1 dokumentiert die Annahmen hinsichtlich Reserven, Produktionskosten und Diskontraten. Letztere variieren auf der Basis von Ressourceper-capita-Quotienten, was in etwa die absorbtive Kapazität eines Landes bestimmt; vergleiche dazu Hnyilicza and Pindyck (1976).
Tabelle 1: Annahmen Reserven, Produktionskosten, Diskontraten & Bevölkerung
Algerien
Ecuador
Gabon
Indonesien
Iran
Iraq
Kuwait
Libyen
Nigeria
Qatar
Saudi Arabien
V. Arab. Em.
Venezuela
bewiesene
Reserven je
Reserven Kosten 80- Diskontraten Bevölkerung Bevölkerung
10^9 Fass
$/b
jährlich
(Mio.)
b/cap.
8,40
3,00
0,15
24,60
342,00
1,40
3,00
0,15
10,50
133,00
0,50
3,00
0,15
1,10
446,00
8,30
3,00
0,15
178,20
47,00
92,90
2,00
0,10
54,00
1.722,00
100,00
2,00
0,10
17,80
5.632,00
91,90
2,00
0,05
2,10
44.829,00
22,00
2,00
0,05
4,40
5.023,00
16,60
3,00
0,15
128,30
125,00
3,20
2,00
0,05
0,30
9.697,00
170,00
2,00
0,05
14,40
11.781,00
96,20
2,00
0,05
1,60
62.065,00
58,10
3,00
0,10
19,30
3.018,00
OPEC
676,10
2,50
0,10
456,40
1.481,00
Kuwait + Irak
Arab. Golf(a)
191,90
461,30
2,00
2,00
0,10
0,08
19,90
36,20
9.643,00
12.743,00
Quellen: BP (1989), OPEC (1990), a Iraq, Kuwait, Qatar, UAE & Saudi Arabien.
Ressourcen
98
Die Annahmen werden komplettiert durch eine empirische Spezifikation einer inversen Nachfragefunktion für OPEC-Öl:
P(q,t) = 39.4 - 1.93qt + 0.38t
wobei der Index t die jährlichen Mengen bestimmt. Diese Gleichung bestimmt die möglichen
Kombinationen an Preis (P) und Mengen (q), aus denen die OPEC wählen kann. Präziser,
diese Beziehung bestimmt für vorgegebene OPEC Produktion den entsprechenden Preis und
repräsentiert den stationären Zustand einer geschätzten dynamischen Nachfragefunktion für
OPEC-Öl; für Details, siehe Wirl (1992). Dieses Differentialspiel wird nun für verschiedene
Mengen an Spielern gelöst. Das Ergebnis ist in der Abbildung 1 verglichen. Diese Abbildung
vergleicht folgende Szenarien: die 13 Mitgliedsländer aus Tabelle 1; Irak und Kuwait vereinigt
und als Extremszenario ein Vereinigter Arabischer Golf. Das überraschendste Ergebnis dabei
ist, dass all diese nicht-kooperativen Strategien sehr eng beisammen liegen, insbesondere für
den realistischen Zeitraum der nächsten 20 Jahre. Tatsächlich hätte Iraks Annexion von Kuwait höchstens einen vernachlässigbaren Einfluss (10 Cents pro Fass, zu Preisen und Wechselkursen von 1980). Dieser Schluss gilt für die ganze Preistrajektorie. Ja sogar die Gründung
eines Vereinigten Arabischen Golfproduzenten hat einen vergleichsweise geringen Einfluss
auf die Preise, wenn man bedenkt, dass dieser Produzent mehr als 2/3 der gesamten OPECÖlreserven besitzt. Daher kann gesagt werden, dass die Unterstellung (etwa von der europäischen Friedensbewegung), dass der Krieg gegen den Irak wegen Erdöl ausgetragen wurde, in
einer rein ökonomischen Welt nicht verteidigbar ist. In anderen Worten, es würde nicht nur
zynisch, sondern ausgesprochen dumm sein, diesen Krieg durch Verweis auf niedrigere Ölpreise zu verteidigen, selbst wenn man mit dem Detail dieser Untersuchung nicht übereinstimmt.
Diese Quantifizierungen in Abbildung 3.1 beschränkten sich auf den "persistenten" Effekt. So
könnte eine Analyse, die die Trägheit der Energienachfrage berücksichtigt, auch den vorübergehenden Einfluss herausfinden, d. h. den wahrscheinlich starken Anstieg des Ausgangspreises, der für ein Löschen des Marktes notwendig ist, wenn selbst nur wenige Fässer
vom Markt genommen werden. In der Tat sind die Erdölpreise in Folge des irakischen Überfalles beträchtlich gestiegen (die Nordseesorte Brent auf über $30/b), wenn auch bedeutend
geringer als von manchen erwartet.
Um diesen Verlust klarzulegen, nehmen wir an, dass ein Fass Erdöl den Wert von 60 Dollar
für den Konsumenten repräsentiert. Zur Vereinfachung nehmen wir an, dass dieses Fass Erdöl
kostenlos produziert wird. Weiter unterstellen wir beispielhaft, dass die Produzenten, das
heißt hier die OPEC, in einer Situation ohne politische Unsicherheiten 35 Dollar pro Fass verlangen könnte und damit mehr als die Hälfte dieses inhärenten Wertes lukrieren könnte; wichtig in diesem Szenario ist, dass der Wert von 60 Dollar voll ausgeschöpft wird. Nun führt aber
die Unsicherheit hinsichtlich zukünftiger OPEC-Versorgung etwa zu der Situation, dass die
OPEC nur 20 Dollar je Fass Erdöl verlangt. Jedoch die verängstigten Konsumenten wählen
eine Nachfrage, die einem hypothetischen Preis von 40 Dollar pro Fass entspricht, indem sie
extensive Energiesparmaßnahmen substituieren. Daraus ergibt sich, dass 20 Dollar des inhä-
Ressourcen
99
renten Wertes eines Fasses Erdöl verschwendet werden, aufgrund der befürchteten Instabilität.
Oil Prices and Competition within OPEC
70.0
60.0
1980-US$/barrel
50.0
Iraq + Kuwait
40.0
30.0
Monopoly
20.0
United Arab
10.0
OPEC (13)
0.0
0
10
20
30
40
50
60
70
time (t = 0 corresponds to 1990)
Oil Prices under different hypothesis of competition within OPEC
30.0
1980-US$/barrel
25.0
Monopoly
20.0
United Arab
15.0
Iraq + Kuwait
OPEC (13)
10.0
5.0
0.0
0
2
4
6
8
10
12
14
16
18
20
time (t = 0 corresponds to 1990)
Abbildung 3.1: Vergleich an OPEC Preisstrategien
Zusammenfassend: Die jüngste Golfkrise hat großen Schaden am zukünftigen Marketing von
Erdöl angerichtet. Als Folge daraus werden sowohl Konsumenten als auch Produzenten Milliarden und Milliarden Dollar verlieren. Eine Möglichkeit, die Skepsis der Konsumenten zu
mildern und dadurch die Ölnachfrage anzukurbeln, scheint es, die Rolle der internationalen
Ölgesellschaften neu zu überdenken und ihnen wieder mehr Verantwortung zu übertragen.
Die politische Situation in der vormaligen Sowjetunion verstärkt diese Unsicherheiten. Wiederum gilt streng ökonomisch und rational, dass jede zukünftige Konstellation sowohl ökonomisch als auch territorial/national am zu erwartenden Energieangebot wenig ändert. Im
Gegenteil, Liberalisierungen und marktwirtschaftliche Öffnung mögen sogar helfen, das Angebot zu erhöhen (etwa bei der fallenden Ölproduktion in Russland). Jedoch eine politischökonomische Betrachtung lässt auch hier auf temporäre Probleme schließen, etwa in dem
Moment, wo die Erdölarbeiter realisieren, dass sie eine der wenigen sind, die noch "reales
Ressourcen
100
Geld" (d. h. konvertierbare Währung) produzieren, aber nur in "Papiergeld" (d. h. Rubel) bezahlt werden. Streiks scheinen in einer solchen Situation unausweichlich.
3.5.1 The economics of war Calculating the consequences13
Recent studies suggest that even a successful military campaign in Iraq could carry a hefty price tag
“IT SEEMS likely that Americans are underestimating the economic commitments involved in a war with Iraq,”
says William Nordhaus, an economics professor at Yale University. Given all the imponderables surrounding
such a war, it is surprising how many experts (like Mr Nordhaus) are trying to work out how much it might cost.
After all, it is not clear whether Saddam Hussein's grip will crumble or if he might use weapons of mass destruction. And it is anybody's guess whether OPEC countries will replace any lost Iraqi production—or might
slash output in a general Arab boycott.
The findings of the most ambitious effort to date, undertaken by the Centre for Strategic and International
Studies, an American think-tank, were unveiled this week in New York. Over the course of the past few months,
CSIS has tapped experts from various fields to try and quantify the likely impacts of war. First, the group's
military and geopolitical gurus defined four likely military outcomes: no war; a benign war that lasts four to six
weeks; a thornier intermediate option that lasts up to three months; and a “worse” case that drags on for as
long as six months. The group intentionally set aside still
worse possibilities, such as the use of nuclear weapons.
For each of these options, oil-market analysts convened by
CSIS speculated over the likely path of oil prices. Their
predictions were then fed into macroeconomic models that
took into account the positive inputs, such as higher government spending, as well as the negative ones, such as
higher inflation. They also factored in the role of market
psychology, recalling the experience of the 1970s when oil
shocks were accompanied by hoarding and panicky behaviour.
The group reached some striking conclusions. For a start,
the no-war scenario is not necessarily the best for the
economy. That is because lingering uncertainty about a
possible war will continue to depress markets and add a
risk premium that boosts oil prices and acts as a drag on
growth. At the other extreme, if things turn ugly, the team
predicts that oil prices could spike up to $80 a barrel and,
more damaging in economic terms, stay at around $40 for
many months thereafter (see chart).
In the end, though, the group's assessment of the cumulative cost of war to the end of 2004 is not overly alarming:
about $55 billion in the benign scenario, and around $120
billion in the worse-case scenario. (The higher numbers in
the table below are for a whole decade.) The Congressional
Budget Office and a committee of the House of Representatives have also done some sums, and both came up with
estimates of $50 billion-60 billion for a shortish war. The
Gulf war cost about $80 billion in today's money, although
much of that was recouped by contributions from Saudi
Arabia and other allies, which are not likely to be repeated
this time. Even so, America can afford all the scenarios.
Some even suggest that the war could be an economic boon. Most wars in America's history have—thanks to
massive government spending on defence—tended to stimulate the economy. A notable exception to that, however, was the Gulf war, which was followed by recession. Even so, say some extreme imperialists, if Saddam
13
The Economist, Nov. 28th, 2002.
Ressourcen
101
Hussein is ousted, then America will be able to turn Iraq into its own private pumping-station. Private or not,
higher Iraqi output would mean that oil prices would drop for a while and America's economy (along with other
oil-consumers') would benefit.
Larry Lindsey, a top economic adviser to President George Bush, made precisely this argument recently: “When
there is a regime change in Iraq, you could add 3m-5m barrels of production to world supply...successful prosecution of the war would be good for the economy.” The snag in this rosy plan is the dilapidated state of Iraq's
petroleum infrastructure: oilmen say it would take 5-10 years for Iraqi output to reach such unprecedented
levels (even assuming a post-Saddam Iraq would actually want to flood the world market with oil). Mr Lindsey
offered an even more cheerful forecast: he estimated that even a prolonged war would not cost more than
$100 billion-200 billion, or about 1-2% of America's GDP.
What's the worry, then?
Hang on a minute, says Mr Nordhaus, who argues in the latest New York Review of Books that none of the
recent analyses of war goes far enough. In general terms, he agrees with their estimates for the direct military
costs for the various scenarios. But he insists they underestimate the long-term costs to America from an Iraqi
war.
He points to the high costs likely to be incurred after a military victory is secured: eg, in peacekeeping, reconstruction and nation-building. Mr Bush has openly committed America to rebuilding Iraq after ousting Mr Hussein. By examining international experience in post-war Kosovo, East Timor, Haiti and other recent cases, Mr
Nordhaus estimates that such non-military costs could reach $600 billion if a liberated Iraq turns out to be
more like the West Bank than Kosovo.
He also worries that an Arab boycott or some other political factor could keep a significant share of OPEC oil off
the market for many months. And that, of course, would mean higher oil prices, higher inflation, lost economic
output, and so on. All told, Mr Nordhaus thinks that even an Iraqi invasion that went well would probably cost
about $120 billion in today's money over the next decade—and one that went horribly wrong could end up
costing a whopping $1.6 trillion.
The estimators differ in the purpose, methodology and sophistication of their analysis. But, taken together,
recent prognoses point to one conclusion: even a short war will prove fairly costly, while a messy one could
deal the economy a severe blow. Mr Bush has often stressed the possible price—in terms of national security—
of not going to war against Saddam Hussein. These studies suggest that he should start preparing Americans
for the economic costs of going to war as well.
4 Energy price volatility (based on IEA)
There is an increasing concern about price volatility in energy markets, particularly oil markets, and this paper is to address the following key questions relevant to policy makers:
- How is volatility of energy prices measured and how has it been evolved?
- What are the underlying reasons for the current pronounced levels of volatility?
- What are the possible economic impacts of volatility, notably with respect to the industry’s
investment and economic activity?
- What are the mid-term prospects for price volatility?
One of the most common indicator of price volatility is to measure dispersion of daily price
changes over a certain period. The analysis of daily Brent price in this paper indicates that oil
prices have been more volatile during the last several years. This change in oil price movement can be attributed to a change in OPEC’s production policy. However, a number of other
Ressourcen
102
factors such as the decline in spare crude oil production capacity in the oil producing countries, and lower level of desired inventories and rapid decline in surplus capacity in the global
refining industry also enhanced this transformation to a period of more volatility. The resulting tightly balanced market has become more sensitive to actual or threatened supply disruptions, and swings in demand are increasingly met by price changes rather than delivery from
storage. Liberalization of trading markets and development of transaction tools such as derivatives and information technology seem to intensify volatility.
Increasing volatility is not specific to oil markets. Natural gas and electricity markets also
show the increasing trend in volatility over the last two years, which, like the oil market, can
be attributed to the decline in spare capacity. While the progress of market reforms improved
the quality of service and efficiency of the industry, subsequent mounting competition might
have reduced return on capital and discouraged incentives of the industry to invest on supply
and transport capacity.
Since changes in prices affect market variable such as production and inventories, sharp and
unpredictable swings in energy prices complicate economic management and lead to ineffective policy and inefficient allocation of capital. The level of prices is the key determinant of
investments, although the degree of price volatility has a significant impact. Our regression
analysis implies that an increase in oil price volatility is associated with a decline in investments by the oil industry, and that there is a positive correlation between investment and price
changes, confirming the intuitive hypothesis that investment rises with price levels. Similarly,
in the current competitive electricity markets, price volatility can hinder decisions of market
participants to build, buy, sell, or retire power plants and transmission facilities.
Whatever the adverse effects of oil price volatility, it seems that oil prices will remain highly
volatile in the foreseeable future, given the growing dependence on oil imports from Middle
East OPEC producers. Unless significant amount of surplus capacity in crude oil production
and refining emerges, markets will remain sensitive to actual or feared disruptions. Similarly,
electricity and gas prices will remain volatile, unless market reforms under progress are more
carefully redesigned.
Price stability does not mean fixed prices. A certain price variation is inevitable. However,
increasingly volatile energy markets can distort the mid- and long-term development path of
the industry and even countries’ economy as a whole. The “mutually reinforcing volatility
effects,” where reduced investment is partly responsible for the current volatile price regime
and at the same time, is partly the result of volatility, highlight the energy security in today’s
context.
4.1
Introduction
1. Oil prices have been more volatile during the last several years than at any time in this century, and concerns about the increase in price volatility rest on an unarguable fact, as was cited at IEA’s Ministerial Meeting of May, 2001: “We recognize the need for less volatility in
oil prices in the interest of global economic growth.” Until the oil price collapse in the mid1980’s, the major movements of oil prices were increases in the price level. Since then, a pat-
Ressourcen
103
tern of large price increases and decreases is reflected in a substantial rise in the volatility of
oil prices. This change in oil price movement can be attributed partly to the fact that OPEC
changed from setting the price and letting production fluctuate to setting production quotas
and letting the price fluctuate. However, a number of other changes also enhanced this transformation to a period of more volatility. In addition, volatility is not specific to oil markets,
and it is increasingly recognized by Ministers that volatility is becoming phenomenon in gas
and electricity markets.
2. The volatility of energy prices introduces additional costs for supply and presents many
challenges for producers, consumers, and companies in the industry, and policymakers everywhere. Sharp, unpredictable swings in oil prices complicate economic management and lead
to ineffective policy and inefficient allocation of capital.
3. Given this context, this paper is to address the following key questions with respect to price
volatility of energy markets, particularly the oil market:
How is volatility of energy prices measured and how has it been evolved?
What are the underlying reasons for the current pronounced levels of volatility?
What are the possible economic impacts of volatility, notably with respect to the
industry’s investment and economic activity?
What are the mid-term prospects for price volatility?
4.2
Is Volatility Increasing ?
4.2.1 Measuring Volatility
4. Volatility is a measurement of change in price over a given period. Markets are never free
from the concept of volatility. In fact, price changes are an integral part of an open market
economy, and market participants are advised that volatility is their friend. However, it is no
wonder that many market participants have troubles to understand what volatility really
means and how it affect their behavior. Thus, the first thing that one thinks about when trying
to evaluate volatility is that the standard concept should be used.
5. The standard definition for volatility is the standard deviation of return/price.14
The volatility of return of a mutual fund might be estimated from the fund’s returns over the
last100 trading days. Standard deviation of a stock price measures how closing prices of the
stock are dispersed from its average. 20 days, which represents about a month, is a popular
14 The standard deviation measures how widely actual values are dispersed from the average. The larger the
difference between the actual value from the average value, the higher the standard deviation will be and
thehigher volatility.
Ressourcen
104
number of periods to use. Instead of the simple average, an n-period simple moving average
or n-period exponential moving average can also be used to derive the standard deviation.
Since standard deviation of prices/returns is a statistical term that provides a good indication
of volatility, this method is widely used in the financial market.
6. If a person is looking for a very simple way to measure volatility, the standard deviation of
the closing prices will work well enough. However, use of the standard deviation assumes that
there is a normal distribution. If prices were normally distributed, the implication would be
that there could be negative prices. This we know is impossible. Therefore, we can take the
standard deviation of the logarithmic price changes (the percentage changes in prices) measured at regular intervals of time. An easy way to calculate volatility is simply to take the
standard deviation of LOG (Pt/Pt-1) over certain periods, where “P” is the price and “t” is the
time.
7. Based on conversation with experts and some literatures on price volatility, this paper takes
as volatility the standard deviation of the logarithmic changes in the daily prices of oil and
other energy products.
4.2.2 Evolution of Oil Price Volatility
8. The oil is currently experiencing two kinds of volatility: major price movements over prolonged periods such as from one month or one year to the next (medium and long-term volatility) and fluctuations in prices over shorter periods such as one week or one day (shortterm
volatility).
Ressourcen
105
9. Figure 1 above, which shows the evolution of the monthly average price of daily Brent for
the last twelve years, illustrates how prices have tended to become more volatile over the medium and long-term since the mid-1990s. With the exception of a period of a few months
when the Brent price spiked at over $35/b in the run-up to the Gulf War in 1991, crude prices
fluctuated between a historically narrow range of $13-22/b between 1987 and 1995. Since
1996, prices have tended to fluctuate much more on a monthly and annual basis.
Between October 1997 and February 1999, oil prices fell from 23 $/b to as low as 10 $/b.
Prices started to increase in March 1999, reaching 30$/b at the beginning of 2000. The main
reasons for the price slump were an OPEC decision (in October 1997) to increase its production quotas, the Asian financial crisis and warm winters in 1997 and 1998. OPEC production
cutbacks in March 1999, together with economic recovery in Asia and strong economic activity elsewhere in the world, led to sharply higher prices in 1999 and 2000. In 2001, as the
US economy slows down, there has been downward pressure on the price.
Although the terrorist attack on September 11 temporarily increased the price level, the price
declined below the lower end of OPEC’s target range under the uncertainty surrounding subsequent tension around the globe and its impact on the world economy.
10. Analysis of short-term price movements shows that oil prices have become more volatile
on a daily and weekly basis since the Gulf War and particularly 1998. In order to measure
trends in the volatility of daily Brent prices, we looked at the standard deviation of daily price
changes in each month.15 Figure 2 displays the results of this exercise. Daily price fluctuations
reached record levels in 1998 and have remained at historically pronounced level since. A
large swing of prices immediately after the terrorist attack was observed, and there is an increasing concern of more volatility arising from the consequences of military actions taken by
the United States and its allies in the South/Central Asia. An analysis of weekly price movements yielded very similar results.
11. It is sometimes confused that the higher volatility is always associated with the higher
price level. However, volatility can be high even during the low price period and vice versa.
For example, in mid- to late 1998 when its price level was as low as 10$/b, volatility of dated
Brent prices reached the historical highs. On the other hand, in early to mid-2000 when the
price has been in the range of 27 to 30$/b level, volatility was relatively low, compared to the
trend after the Gulf war.
15 It should be noted that, for simplicity, nominal prices were used and that no adjustments (seasonal adjustment, annualization, etc.) were made. Annualization, if implemented, would yield the similar results. Also, terms
of trade (spot trading vs. long-term contract) are not considered. In case of long-term contract, volatility may
increase as the expiration date approaches.
Ressourcen
106
12. How then does oil price volatility compare with those of other energy products as well as
non-energy commodities? Is increasing volatility specific to oil prices?
13. As Figure 3 and 4 show, daily spot gas prices at the Henry Hub and the Victoria Electricity Market over the last two years also show the increasing trend of volatility. Although we
need to be aware that volatility in these sport markets could be generally higher than in forward markets (such as dated Brent), it should be underlined that, among three energy markets,
volatility is highest in the electricity market, followed by gas, and lowest in the oil market,
which is also confirmed by another study. Why we see this order of volatility is closely related to factors contributing to the increasing volatility, and will be discussed later.
Ressourcen
107
14. When compared with other non-oil commodities (aluminum, copper, lead, nickel, tin,
zinc, gold, silver, and wheat), it was found that prices of crude oils (WTI and Brent) are in the
upper range of volatility over the 1985-1994 period, though they are not outside of the bounds
Ressourcen
108
set by other commodities.16 (This study did NOT discuss if volatility of those commodity
prices is increasing or not.)
15. The financial markets have also been experiencing the increasing volatility, as are observed in S&P and NASDAQ indices (see Figure 5 and 6).17
16 A. Plourde and G.C. Watkins, “Crude Oil Prices between 1985 and 1994: How Volatile in Relation to Other
Commodities,” Resource and Energy Economics 20 (1998). The study looked at three dimensions of volatility
including the dispersion of monthly rate of price changes.
17 In the financial markets, traders often look at the Bollinger Band of concerned stocks and bonds. The “band”
is calculated by taking the moving average of prices for a given period and adding to or subtracting from this
average the specified number of standard deviations for the same period. This band is useful for determining if
current prices are behaving normally or breaking out in a new direction.
Ressourcen
4.3
109
Roots of Volatility
4.3.1 General Discussions
16. It is widely perceived that, in general, liberalization of trading markets and development
of transaction tools such as derivatives and IT intensify volatility. There are more and more
people intervening markets at the same time, and reforms of financial and commodity markets
and development of IT enable those increasing number of markets’ participants to make
transactions not only across commodities/stocks within the concerned market, but also across
several markets, with greater mobility. The subsequent increasing transactions in turn cause
additional volatility. Thus, price fluctuation and volatility are an integral part of open and
market-based economies.
17. Prices change in response to news which influences market participants’ views on if it is
the time to buy or sell. The development of IT increases the accessibility to the relevant information, on one hand, and intensifies the reaction of the markets’ participants to such news,
on the other. However, whether the quality of news is improved due to the development of IT
is not certain. The exact state of the supply-demand balance which drives price changes is
generally unknown, anyway.
18. In the tight markets, price needs to swing more than in normal markets in order to balance
demand and supply. Figure 7 illustrates this price effect of inelastic supply and demand. In
California, it is suspected that constraints on electricity transportation generated very inelastic
markets and led to increases in both price level and volatility. Power companies were forced
Ressourcen
110
to be heavily dependent on the very volatile spot market because of insufficient capacity and
because of restriction on long-term contracts imposed by the authority, and after all, they
failed to manage volatility.
19. The dynamics of future markets is also behind volatility. When the term price structure is
in contango and if the positive price differentials between successive contract months is sufficiently large, there is an economic incentive to build up stocks. Since piling up stocks is usually considered to indicate that products are overproduced, there is a vicious circle where lower prices encourage further stock build which lead to a further price fall. Similarly, when the
price structure is in backwardation, the incentive is to draw from stocks, sending a signal of
underproduction which pushes up prices.18
20. In fact, many roots of volatility can be listed: economic factors such as production/consumption balance and transportation costs; political factors such as market regulation,
cartels, taxes, and environmental regulation; geographical factors such as shipping availability, weather, and seasonality; and comparative factors such as quality of commodities, market
preference and existence of alternative commodities.
4.3.2 Factors Contributing to Increasing Oil Price Volatility
21. Among those factors, we can identify several factors specific to the recent increase in volatility of the oil prices. The principal cause of price volatility in the mid- and long-term is the
production policies of OPEC. The uneven distribution of world oil resources and inelastic
18 R. Mabro, “Does Oil Price Volatility Matter?” Oxford Institute for Energy Studies Monthly Comment (June
2001)
Ressourcen
111
demand gives a small number of states the potential to influence oil prices. Speculation over
future OPEC production policies has also added to the volatility of prices in the short term.
OPEC has used production quotas since 1983 as a way of managing the market, but has not
always been successful in defending targeted price levels because of lack of discipline by
some member states in abiding by quota and due to miscalculations by OPEC over the call on
its production. In the early half of the 1990s, OPEC was reasonably successful in adjusting
production to match shifts in demand (taking account of non-OPEC production trends). The
cartel was much less successful in defending prices in 1997-1998 for the reasons cited above,
but was eventually able to drive prices sharply higher in 1999 and 2000 through production
cutbacks amid rising global oil demand. The extent of the initial collapse in prices gave a
strong incentive to producers to defend rigorously higher prices in 2000 to compensate for the
earlier loss of revenues.
22. Short (and long)-term oil price volatility has tended to increase for a number of other reasons. The decline in spare crude oil production capacity in the oil producing countries is a key
factor. In particular after the Gulf War (1990/1991), the size of OPEC surplus capacity (which
has always been largely concentrated in Saudi Arabia and a small number of other Gulf countries) has declined significantly (see Figure 8). Historically, virtually all non-OPEC producers
produce at near capacity. As increasing demand has eroded excess production capacity, the
resulting tightly balanced market has become more sensitive to actual or threatened supply
disruptions. Downstream companies have been exposed to a fierce competition and they
committed to reducing operating costs and investment. Subsequent lower level of desired inventories, rapid decline in surplus capacity in the global refining industry as well as limited
surplus in tanker utilization rates are adding to increasing volatility (see Figure 9 for increasing capacity utilization rate of refinery industry of OECD countries).
Ressourcen
112
23. As a result, swings in demand, even predictable seasonal swings, are increasingly met by
price changes rather than delivery from storage in the increasingly inelastic markets.19 This
19
M. Lynch, “Oil Prices Enter New Era,” Oil and Gas Journal (February 12, 2001)
Ressourcen
113
means that prices are likely to be downwardly volatile as well as upwardly. Uncertainty over
the availability of Iraqi crude oil production in recent years has exacerbated the perceived
tightening of crude oil supplies.
24. Crude oils can not be used in most applications until it is converted into oil products, and
refineries must match the heterogeneous mix of crude qualities with a variable slate of oil
products needed in a particular region at a particular time. Given this fragmented nature of oil
products, the recent increase in the stringency of environmental regulations and product quality requirement has contributed to increasing short-term price volatility. New environmental
standards, such as RFG II in the United States and new diesel specifications in Europe, have
tended to result in more highly fragmented oil product markets and a greater potential for localized, short-lived supply problems.
25. Also, insufficient data on oil supply and demand plays an important role in increasing
market uncertainty and, therefore, price volatility. In particular, inaccurate data on oil supply,
partly the result of the OPEC production quota system, as well as increasing time-lags in the
release of demand data in many countries, have reduced the integrity of the data essential for
the proper functioning of the oil market, despite the development of IT.
26. The success of OPEC in achieving and maintaining higher prices in early 2001 may also
be contributing to increased short-term price volatility through the effects on stocking behavior. Futures and forward crude oil and products markets have in recent months been in backwardation: prices are higher for prompt supply than for oil supplied later. This encourages
refiners to minimize their crude oil inventories, and discourages crude processing since they
are punished for hedging forward. This in turn makes markets even more vulnerable to unexpected events and increases short-term price volatility. The opposite effect, the contango vertex dominated in 1998 and added significantly to the price decline.
4.3.3 Volatility in Gas and Electricity Markets
27. By nature, most electricity systems lack storage for all practical purposes, and the electricity markets experiences pronounced volatility due to the need for continuous balancing of
demand and supply. Volatility in the electricity market is rooted in hourly, daily, and seasonal
uncertainty associated with fundamental market drivers and the physics of generation and
delivery of electricity.
28. Like the oil market, increasing volatility electricity markets can be attributed partly to the
decline in spare capacity (see Figure 10). While the progress of market reforms improved the
quality of service and efficiency of the industry, the increasing number of market participants
and subsequent mounting competition might have reduced return on capital, thereby discouraging incentives of the industry to invest on supply and transport capacity for the future. In
other words, as a side effect of market reforms, suppliers tended to seek immediate return on
investments and reduced their supply cushion. Stricter environmental regulations make it
more difficult and costly to build power stations and transmission lines.
This limited capacity of supply and distribution of electricity can help not only push up their
peak prices but also increase price volatility.
Ressourcen
114
Source: IEA Secretariat
29. Certainly the tightened supply-demand balance has contributed the increasing volatility as
well as price hikes in the US natural gas markets, too. The booming economy in the past decade has helped boost energy demand and natural gas became the first choice for environmental and economic reasons, especially in the power sector, but there has been the lack of supply
cushions and limited pipeline capacity.20 It is also pointed out that speculative transactions
might have led to overreaction of natural gas prices to this limited supply flexibility, as is in
the oil market.
30. Why are natural gas and electricity more volatile than oil? One reason is lack of supply
cushions that can absorb fluctuations in supply demand balance. In the oil markets, a wide
range of options are still available from oil stocks held by private firms, strategic oil stocks,
and petroleum products imports, although the availability of such options has been decreasing
as we discussed above. Natural gas has more limited storage than oil, and electricity, by its
nature, can not be stored. Therefore, demand of both natural gas and electricity is immediately
affected by temperature, and can swing largely even in every second, while oil demand, which
is also responding to the weather condition, is fairly constant in a relative term. Natural gas
and electricity have strong grid constraints, and routes/methods of transportation is more limited. As a result, imbalances of supply and demand come immediately for electricity, rapidly
for natural gas, and quite slowly for oil, and this explains the order of price volatility among
three energy markets.
20 Ken Koyama, “Recent Price Spikes and Volatility in the US Energy Market,” Institute of Energy Economics,
Japan (2001)
Ressourcen
115
4.3.4 Does Price Volatility Really Matter ?
31. Price change is the mechanism to adjust imbalance between supply and demand, and volatility is the nature of market. In turn, changes in prices, namely volatility, can affect market
variable such as production, inventories, and even prices. The economic theory states that
markets send signals about the allocation of resources through the price mechanism. However, conditions of those “rational” markets, such as perfect information and rapid adjustment in
supply and demand, do not hold in reality. The commodity traded is not only physical oil but
also claims on future oil or simple price differentials.
32. Adjustment process to new market equilibrium is always accompanied by some costs, and
continuous volatility can exemplify those adjustment costs. Volatility of oil and other energy
prices introduces additional costs for supply and presents many challenges for producers, consumers, and companies in the industry, and policymakers everywhere. In addition, sharp, unpredictable swings in energy prices complicate economic management and lead to ineffective
policy and inefficient allocation of capital. It is the uncertainty and risk generated by volatility
that matters to market participants, given that most of them is basically risk averse.
4.3.5 Volatility: a Barrier to Investments
33. Volatility of oil prices, in addition to the absolute level of prices, plays a noticeable role in
the level of oil industry investment. In theory, since the current level of oil prices contains
little information about future oil prices during periods of high volatility, rational agents will
be more reluctant to invest since the uncertainty associated with future returns is higher. This
increasing uncertainty can push up risk premiums, and discourage oil companies investment.
Thus, high volatility would be expected to create a barrier to investment in the oil industry.
34. In order to test this empirically, we carried out a regression analysis using standard econometric techniques, with the annual change in the amount of investment in global oil exploration and production expressed as a function of both changes in the annual aggregates of daily
oil price volatility and annual changes in price levels.21 To take into account the full impact of
price changes on investment decisions, we lagged the volatility and price changes by one
year.
35. The results suggest that this is a robust model.22 The level of prices is the key determinant
of exploration and production investments, although the degree of price volatility has a significant impact. It points to a strong inverse relationship between the investment changes and
volatility, implying that an increase in volatility results in a decline in investments and viceversa, and that there is a positive correlation between investment and price changes, confirm-
21Time-series for the investment in global oil exploration and production are based on the “ The E&P Spending
Survey” of Schroder-Salomon-Smith-Barney (2001).
22Diagnostic tests yielded satisfactory evidence that the results are statistically significant at a confidence level
of more than 95%, that the model provides a good fit with the data and that there is no serious autocorrelation
(suggesting that the relationships are not spurious). When the model was modified such that changes in investment were regressed solely against price changes and volatility, respectively, the results were not statistically
significant.
Ressourcen
116
ing the intuitive hypothesis that investment rises with price levels and vice-versa. The elasticity of investment change with respect to changes in volatility is -0.11, while it is 0.44 against
price change. In other words, one percent increase in price level is associated with 0.44 percent increase in investment, and one percent increase in volatility is associated with 0.11 percent decline in investment, when other things such as interest rates are kept constant. Adam
Sieminski, Oil Strategist of Deutsche Bank Alex. Brown, pointed out in the Wall Street Journal dated November 19, 2001, that “volatility leads to lower capital investment, because you
can’t plan…volatile energy prices the past few years have deterred many companies from
investing in longer-term prospects that would ultimately yield more oil and natural gas.”
36. Similarly, in the current competitive electricity markets of some countries, price volatility
hinders decisions of market participants to build, buy, sell, or retire power plants and transmission facilities. Although investment decision usually depends on the net cash flows, forward markets are often lacking in the power sector and price volatility, which is higher than in
oil markets, makes it much harder to estimate risk premiums needed to derive the net cash
flows, thereby increasing uncertainty of investment.
37. While reduced investments, which has led to a tighter balance between oil demand and
installed production capacity, is partly responsible for the current volatile price regime, it is at
the same time partly the result of volatility. Bearing in mind the very capital-intensive nature
of the energy industry, the mutually reinforcing volatility effects may have a significantly
adverse impact on oil supply due to the increase in the rate of return demanded by the source
of capital. World Energy Outlook 2000 and World Energy Outlook 2001 Insights: Assessing
Today’s Supplies to Fuel Tomorrow’s Growth highlight the need for very large investments in
the expansion of capacity in oil and non-oil energy markets as a major challenge for the global energy industry over the next two decades. Attracting future capital flows for this expansion will cost more in a volatile price environment. The higher cost of capital will tend to
choke off investment, thus contributing to increased volatility.
4.3.6 Prospects for Energy Price Volatility
38. Whatever the adverse effects of oil price volatility, it seems likely that oil prices will remain highly volatile in the foreseeable future. The growing dependence on oil imports from
Middle East OPEC producers and their increased market power suggests that oil prices will
continue to fluctuate in the mid- and long-term according to changes in OPEC production
policies, quota discipline and market perceptions and expectations.23 Unless significant
amount of surplus capacity in crude oil production and refining emerges, markets will also
remain sensitive to actual or feared disruptions in supply whether of a political or technical
nature, which will most likely keep prices highly volatile in the short-term. A failure to improve oil market transparency through more reliable, timely and accurate data may exacerbate
this situation.
23 World Energy Outlook 2000 projects that current 26% market share of OPEC Middle East countries in
worldoil supply will increase to 32% by 2010 and 41% by 2020.
Ressourcen
117
39. It seems that electricity and gas prices will also remain volatile under the progress of reforms in electricity and gas markets, unless those reforms are more carefully redesigned.
Both markets have much less experience of spot trading than oil market. The increasing competition and declining capacity margins, together with premature spot markets where trade
volume is small and risk premiums are difficult to identify, may keep the markets less flexible
to adjust imbalances between supply and demand through the quantity adjustment mechanism
and prices more volatile.
40. Sharply fluctuating oil prices could have severe effects on the energy investments in developing countries and therefore, their future economic growth. The share of energy investment in total investment in developing countries is in general much higher than in OECD
countries. For example, energy accounts for 26% of total investment in China and 19% in
India, compared to only 10% in Japan and in the United Kingdom, respectively.24
Much of this energy investment is in oil refining and distribution, and power generation.
World Energy Outlook 2000 estimates that the required future annual investment only for the
power generation sector over the next twenty years is $26 billion for China and $10 billion for
India, compared to $12 billion for OECD North America. This illustrates a huge magnitude of
the task, and increasing volatility of energy prices would not only make it difficult to attract
the investment but would also make it more costly.
4.4
Conclusions
41. Oil markets are unstable by nature and the instability derives both from internal and external factors to the oil market, such as weather, economic events unrelated to the oil market per
se and non-oil geopolitics. Late and incomplete data and the inherent conflict between maintaining both market share and revenues are chronic features of the oil market.
Some degree of price volatility is inevitable and must be accepted, since some external factors
simply cannot be controlled. Producers and consumers need to recognize this fundamental
volatility and to work to encourage a flexible and efficient response rather than impose rigid
rules such as ban of futures trading and setting up an international organization to manage
prices, volumes and buffer stocks of oils. The similar discussion is applicable to natural gas
and electricity markets.
42. Although producers, consumers, and policymakers need to differentiate the impacts of
volatility (short-term volatility) from those of change in price level (long-term volatility), it is
not an easy and straightforward task to identify and quantify the economic impacts of increasing energy price volatility. However, our brief analysis implies that it has negative impacts on
investment by the industry and on economic management of oil importing developing countries. Political impacts of price changes could be sometimes high enough to undermine eco-
24 Data is derived mainly from National Account Statistics of the countries: China Statistical Yearbook 1998,
India’s National Income Statistics 1998, Japan Statistical Yearbook 1998, and United Kingdom National Accounts 2000.
Ressourcen
118
nomic growth, especially in developing countries. The volatile energy markets can distort the
mid- and long-term development path of the industry and even countries’ economy as a
whole. The above-stated “mutually reinforcing volatility effects,” where reduced investment
is partly responsible for the current volatile price regime and at the same time, is partly the
result of volatility, raises a concern about the energy security as a real issue.
4.4.1 Oil
43. Better stock provision and the availability of alternative energy supplies can soften the
impacts of price volatility, as have been pursued by IEA and our member countries. We can
certainly work to improve market data, and better data contribute to quicker responses to
evolving market conditions. The crucial question is thus how to encourage investment in the
expansion of global oil production capacity, given such an uncertain pricing environment.
Our analysis suggests that with increasing short-term price volatility, higher price levels than
in the past may be needed to call forth the necessary investment in oil production capacity and
energy infrastructure generally. This implies higher energy costs for consuming countries and
adverse macroeconomic effects, especially for developing countries.
44. On the supply side, OPEC’s basket price is not transparent. Although it is a simple arithmetic average, several of the seven component crudes in the basket are not traded in open spot
market. Others are sold at different prices to different regions, and nobody knows what the
market prices could be. As Mr. Sehikh Ahmed Zaki Yamani, Chairman for Global Energy
Studies, pointed out at IEA’s Millennium Conference on Oil Security Strategy in March 2001,
25$/b, the minimum target price within the basket by a major OPEC country, is a price set by
budgetary requirements and does not reflect fundamental economic costs.25 For both producers and consumers to have regular demand growth, they need stable oil prices, and incorporating costs of debt unrelated to the oil production into oil prices seems to undermine stability of
prices.
4.4.2 Gas and Electricity
45. Again, how to encourage investment on supply and transport facilities is crucial to electricity and gas markets. We can certainly work to design better and more careful energy markets reform to secure enough supply margins. The fact that volatility is a nature of markets
means that the estimation of volatility can play an important role. There must be some balance
among futures, spot, and long-term markets, as was indicated by the California’s experience.
Volatility is a new concept, especially to power markets, and developing price forecasts
equivalent to financial markets could help policymaker design those market reforms as well as
power companies commit to more investment.
46. The increasing energy price volatility highlights the energy security in today’s context,
and measures for stable energy prices in the global market are the urgent issues to be dis-
25 WEO2001 Insights: Assessing Today’s Supplies to Fuel Tomorrow’s Growth provides an analysis of cost of
supply for oil that is around 4$/b in many Middle East OPEC countries.
Ressourcen
119
cussed. Price stability does not mean fixed prices. A certain price variation is inevitable and
even welcomed in some cases. What is required is a market that reflects correctly the state of
the current and future balance of supply and demand and that does not discourage capitalintensive and long lead-time investment for supply. Along with further development of liberalized markets, the sanctity of contracts freely entered into, the fairness and transparency of
pricing, and the breaking down of barriers to trade such as distorting tariffs, taxes and subsidies would also be desirable. This requires cooperation of all major players (IEA’s member
and non-member countries with one dimension, and policymakers, producers and consumers
with another dimension). In order to support this, EAD/LTO is planning to look at the priceinvestment nexus in the World Energy Outlook 2003 Insights: Global Energy Investment Outlook, starting late 2002, by analyzing impacts of energy policy and markets development on
investment.
5 OPEC Policies and Oil Price Volatility
Conventional economic paradigms and applied modelling from 1974 on all suggested a
smooth and mostly monotonically increasing evolution of future oil prices. The several polls
of Manne/Schrattenholzer show a pattern considered as typical to resource price evolutions,
although the level of price forecasts itself has been lowered over time. Nonmonotonic (three
out of ten) projections have been derived by the Energy Modelling Forum26 in a surveyed and
comparison of ten different models of the world oil market. But none of these and other investigations predicted the likelihood and the magnitude of the price collapse observed at the beginning of 1986.
This chapter attempts to reconcile price volatility within rational economic models and within
a political framework. Both approaches to describe the world oil market -economics and "Realpolitik"- lead to similar conclusions. The dynamic, more precisely the sluggish, nature of the
energy markets is the clue to all these findings. The lack of recognition of this difference between the short-run rigidity and the long-run flexibility has led to numerous mistakes in the
energy policy of some industrialized countries, and, on the other side to overambitious development plans by some of the oil exporting countries.
5.1
Opec as a pure economic cartel
We start with the traditional model of resource depletion. Assume that a monopoly, or a cartel
within the resource extracting industry, attempts to maximize the present value of profits (using the discount rate r):
T
max
e-rt(p(t) - k)x(t)dt
{p(t), T}, 0
(1)
The depletion date T and the price strategy {p(t)} are the decision variables of the monopolist. To concentrate on the implications of consumer dynamics and consumer expectations assume that the marginal production costs k are constant. Adelman (1989) argues that sovereign
26Energy
Modelling Forum, World Oil: Summary Report, EMF Report #6, Stanford, California, (1982).
Ressourcen
120
states are much closer to the economic view of cartels than any private group could ever be.
The reason is that for private companies, say the large oil companies, no price policy comparable to OPEC's policy 1974 or 1980 would have been possible.
The objective (1) must be maximized subject to the laws of demand and subject to the isoperimetric constraint:
.
X(t) = x(t), X(0) = 0, X(T) = R
(2)
i.e. cumulative production X(t) must equal the reserves R at the date of depletion.
The evolution of demand {x(t)} results from intertemporal decisions of the consumers. The
Eisner - Strotz model (1966), is here applied to describe the consumer's intertemporal choices.
The consumers will solve the following control problem:
T
min e-rt {[f(p(t),t) - x(t)]2 + ßu2(t)} dv
u 0
.
x(t) = u(t), x(0) = x0, x(T) = 0
(3)
(4)
if they have rational expectations, i.e. they know with certainty (perfect foresight within a
deterministic model) both the future oil price evolution {p(t),t[0,T]} and the depletion date
T. The boundary condition x(T) = 0 arises from the supposition of a market equilibrium once
the resources are depleted and rational consumers will take that into account.
The function f(p,t) denotes the downward sloping (fp < 0) equilibrium demand and x(t) denotes the current demand. The objective (1) supposes that a consumer faces two quadratic
costs for adjustment (u) and for deviations from the equilibrium demand;  and ß are positive
coefficients. This penalty approach of the Eisner - Strotz model looks ad hoc. However, this
description approximates a conventional problem: maximize consumer's utility minus energy
expenses and minus adjustment costs.
A similar model may be defined for NONOPEC supply, except that a long run supply function replaces the demand relation. In fact, the original Eisner - Strotz model addresses supply
aspects. To simplify the matter suppose that the control problem (3) and (4) describes the difference between global demand minus competitive fringe supply. Furthermore, x(t) will be
called demand, or intertemporal consumer behaviour, even if we actually mean excess demand for OPEC oil.
Ressourcen
121
Define the (current value) Hamiltonian (H), using y = y(t) to denote costate variable27:
H = (f - x)2 + ßu2 + yu
(5)
Differentiate H with respect to control:
Hu = 2ßu + y = 0
(6)
The costate (y) must evolve according to:
.
y = ry + 2(f - x)
(7)
Now differentiate (6), i.e. the maximum principle, with respect to time and substitute the costate dynamics (7) to derive the following rule for optimal adjustment:
.
u = ru - (f - x)/ß
(8)
The differential equation (8) and the state dynamics (4) plus the two boundary conditions of
consumption define a two point boundary value problem. The corresponding solution, substituting the correct price trajectory {p(t)}, describes the optimal consumption path for consumers with rational expectations.
A myopic consumer substitutes at any instant of time the current price p(t) into the above optimization calculus and supposes that this price prevails forever. In particular, the myopic
consumer does not foresee resource scarcity, i.e. T = . The optimal consumer policy of this
control problem can be written as a linear feedback law:
u(t) = [f(p(t)) - x(t)]/
(9)
________
 ... time constant,  = 1/{ -r/2 + r2/4 + /ß}
More precisely, the consumers recalculate the optimal control problem (3) subject to (4) at
any instant in time to determine their current adjustment. However, only the current decision
u(t) is binding and all adjustments planned for a later date, e.g. for t + h, may be continuously
modified up to the date t + h.
The time constant () of the linear differential equation (9) depends on the interest rate r and
the cost parameters , ß. A higher rate of discount and/or larger adjustment costs (i.e. an increase of ß) increase the time constant, i.e. the adjustment towards the equilibrium slows
27The
time argument but also other arguments are suppressed to abbreviate the notation. Subscript letters denote
partial derivatives, e.g. Hu = H/u. Thess conventions apply also in the sequel. For economic treatises of mathematical optimal control theory see Kamien-Schwartz (1981) and Feichtinger-Hartl (1986).
Ressourcen
122
down. A stronger penalization of the deviations from ideal consumption (i.e. an increase of )
reduces the time constant, i.e. accelerates the motion to the equilibrium.
A Stackelberg differential game describes the intertemporal interactions between the monopolistic supplier and competitive consumers. Hence, the leader, i.e. the resource cartel, adjoins
the consumer behaviour as additional constraints to his profit maximization calculus.
The supposition of myopic behaviour leads then to the following optimal control problem:
T
max
e - rt (p(t) - k)x(t) dt
{p(t),T} 0
.
x(t) = [f(p,t) - x(t)]/, x(0) = x0
.
X(t) = x(t), X(0) = 0, X(T) = R
(1)
(9)
(2)
The model of Pindyck (1978) implies a reduced form relation of type (9) for residual demand
for OPEC oil. Hence, myopic expectations are implicitly assumed. The only essential difference of (1) - (9) - (2) compared with Pindyck (1978) is that he assumes the costs to be reciprocal to reserves. Hence, "user costs", i.e. the increase of future extraction costs due to a reduction of the reserves through the additional extraction of one barrel today, rather than scarcity determines the resource shadow price. Furthermore, Pindyck (1978) does not attempt to
solve the problem analytically but relies instead on numerical calculations.
Perfect foresight of the consumers implies the following control problem in order to compute
the profit maximizing policy:
T
max
e-rt (p(t) - k)x(t) dt
{p(t), T}, 0
.
x(t) = u(t), x(0) = x0, x(T) = 0,
.
u(t) = ru(t) – [f(p,t) - x(t)]/ß
.
X(t) = x(t), X(0) = 0, X(T) = R
(1)
(4)
(8)
(2)
In order to expedite an empirical application assume further that the equilibrium demand is
linear but for realism nonautonomous:
f(p,t) = a + bp + ct
(10)
which implies for the (equilibrium) backstop price:
_
_
_
p(t): f(p, t) = 0 = > p(t) = - (a + ct)/b
(11)
Ressourcen
123
This provides a framework applicable to empirical problems, e.g. to model OPEC's price decisions. Pindyck (1978) chooses also a linear equilibrium demand relation but considers an
exponential time trend.
Additionally, suppose that the set of admissable price strategies is exogenously28 constrained,
p(t)[pmin(t), pmax(t)]. Examples for such restrictions are numerous and easy to envisage.
For example too high prices pose the threat of public regulation, price controls or nationalization, or may induce the loss of political goodwill in the case of an international cartel. The
requirement to earn a minimum cash flow in any period is an example to determine pmin.
However, the quantification of these constraints for a certain commodity market and for a
particular point of time is extremely difficult.
Wirl (1989) provides a general and theoretical discussion of the above two nonlinear control
problems. The basic result is that a modified Hotelling rule and hence a "smooth" policy applies if equilibrium demand is concave. However, a convex (equilibrium) demand implies that
the optimal cartel policy is to alternate discontinuously between "high" and "low" prices. This
result applies even to the case of rational expectations.
This last proposition is surprising because the apparent innocuous modification from instant
demand behaviour to a dynamic, albeit presumably very fast, adjustment completely changes
the quality of the optimal policy. Indeed, some authors are not aware of these consequences,
e.g. Pindyck (1978) mentions and Marshalla - Nesbitt (1986) report the results from constant
elasticity relation of demand. This relation, however, is convex such that according to the
above proposition no optimal policy exists, let alone the smooth policy shown in Marshalla Nesbitt (1986).
In the end, the basic economic reason for this result is simple because the convexity of f implies: a one dollar decrease in price stimulates demand more than a one dollar price increase
lowers demand. Therefore it pays off to first lower the price to raise demand and skim off the
profits immediately afterwards.
5.2
A temporary and politico-economical cartel
Section 2 investigated OPEC decision making under pure and extreme economic assumptions
- monopoly and oligopoly - and indicated, that dynamic demand behaviour could provide an
incentive for OPEC to apply a volatile price strategy. The pure economic description of Opec
is in this section replaced by the following two assumptions:
Assumption 1: Suppose, that Opec is not a cartel in the narrow economic sense, but a loose
arrangement of also politically motivated members. More precisely, assume, that cartel arrangements, i.e. production quotas among the OPEC member countries to support a price increase of crude oil, are only sustainable if the demand for OPEC oil remains so high, that the
28Actually, the constraints could be endogenized without affecting the major conclusions. For example, the monopolist may choose the limit price pmax in order to maximize expected profits. The risk of price control increases with an excessively predatory pricing strategy pmax.
Ressourcen
124
swing suppliers - particularly Saudi-Arabia - accept a reduction of their residual demand. If
Saudi Arabian output falls below a certain treshhold cooperation will cease.
Assumption 2: OPEC is differentiated into flexible and inflexible producers, and suppose,
that the Iran/Iraq conflict is resolved in the near future and that these two countries are not
willing to swing with total OPEC output due to their urgent need for foreign exchange.
The above description of Opec behaviour is not limited to the conditions of Realpolitik; but
the so called "Realpolitik" may itself be explained by the recent economic theory of transaction costs developed and advocated by Williamson29. The gains from cooperation are small if
applied to an equilibrium relation and may not pay the costs associated with such an agreement. Hence, cooperation becomes unlikely along such an equilibrium path. However, the (ex
ante) gains from cartelization, i.e. from an agreement about production quotas (to support a
price increase), are substantial if current demand is not in equilibrium but 'high' and sluggish.
The associated monopoly strategy requires a high price. Hence, the arrangement of cooperation will lead to a (presumably large) price increase over the price level prevailing during the
previous regime of oligopolistic behaviour. However, as aggregate Opec demand and individual quotas decrease, the gains from opportunism and deceit increase. And sooner or later the
contract will be breached by some members due to these ex post opportunities.
Some simplifying assumptions are now introduced to quantify the consequences of this description. First suppose, that the dynamic relation (2) describes the demand for Opec oil. This
empirical relation is by no means essential to the following arguments. Any model of the
world oil market with more complex but dynamic features would lead to similar qualitative
conclusions. Furthermore, assume, that Saudi Arabia will support a price increase if its output
has surpassed a critical threshold, say 10 mb/d but will dissolve any agreement if its output
falls below 5 mb/d. Again, the exact numbers are not important but only suggestive. This policy leads in both cases to an abrupt change in prices due to the low short run price elasticity.
The assumptions introduced in this section imply low oil prices and that no substantial real
price increase is possible until a sufficient level of demand is reached. Therefore, the prices
will fluctuate - probably substantially - responding to short term agreements or disagreements
among OPEC members and to political circumstances in the Middle East. Suppose, that a
moderate price level is maintained in real terms during the following years. Then, according
to (2) a substantial demand pressure will develop over time, which then only price hikes can
stop. Hence, the discrepancy between the short-run rigidity and the long-run flexibility of demand makes it impossible to generate a smooth price profile compatible with the assumptions
of this section.
Furthermore, the small short-run price elasticity offers enormous short-run profits and provides the economic basis for a successful cooperation of Opec members (possibly including
other important oil exporting countries) for another price hike. Again, these high prices will
affect, i.e. reduce, after some time global demand for Opec oil and subsequently require a
29Williamson Oliver E., "The Modern Corporation: Origin, Evolution, Attributes", Journal of Economic Literature, 19, 1537-1568, (1981), Williamson Oliver E., The Economics of Governance: Framework and Implications, Zeitschrift für gesamte Staatswissenschaften, 140, 195-223, (1984).
Ressourcen
125
reduction of the production quotas. These circumstances of high oil prices but low production
quotas increase the potential profits from ex post opportunism. As a consequence prices will
tumble - sooner or later - due to the continuous erosion of cartel discipline. Hence, the dynamic demand rationalizes the temporary collusion of OPEC members followed by oligopolistic
competition.
5.3
Multiple Equilibria and backward bending supply functions.
The issue of multiple equilibria is one that receives considerable attentio, recently in particular with respect to social interactions. In this case the major clue is a supply function that has
backward-bending parts. Fig. x shows a demand and supply diagram. Demand is downward
sloping, as usual, while supply is S-shaped with three intersections of which the upper (at
price pH) and the lower (at price pL) are stable and the intermediate is unstable.
price
pH
pL
demand
Quantity, x
Fig.5.1: Multiple equilibria
A better detailed and explicit analysis of such multiple equilibria and the possibility of cycling
is the following based explicitly on the consideration of dynamic demand. Suppose that demand for OPEC oil, x(t) is dynamic as in subsection 1 (t denotes again the time constant and f
the equilibrium demand):
.
x(t) = [f(p) - x(t)]/, x(0) = x0,
(9)
and two different kinds of OPEC behavior:
1. Competitive so that price p equals marginal costs (mc, mc’ > 0):
pc = mc(x)
Ressourcen
126
2. Monopolistic supply, m(x), price that maximazes intertemporaly the net present value
of profits, m’ > 0.
pm = m(x)
The actually charged prices is a weighted average of both extremes:
p(x) = m(x) + (1 – )mc(x),
(10)
and the weight is an increasing function of the revenues (px):
(px).
(11)
This implies (by the implicit function theorem) a supply function s(p) for OPEC:
x = s(p), s’ =
1   ' x m  mc 
m' 1   mc' ' p m  mc 
(12)
First of all, the monopoly price prevails more or less for large revenues and thus for high demands and the competitive price is approached for little revenues and thus weak demand. The
sign of the numerator is ambiguous andf if it is negative over some domain an S-shaped supply curve, as shown in the figure below, results.
price
Monopoly price, pm = m(x)
Competitive price
p = mc (marginal costs)
Demand
p = )mc
1–
m +(
p

~1986
2000
Figure 5.2 : price jumps and oscillations
Quantity, x
Now suppose initial demand is weak. Then the price is close to the competitive one. Since
demand is below the equilibrium relation, it will increase over time. Since the backward bending part is sub-optimal, the price jumps upward once the point of infinite slope of the supply
function is reached. The opposite holds for high initial demand that triggers a price close to
the monopolistic solution that albeit still is gradually lowered until a ‘catastrophe’ occurs and
the price falls to the lower and up-wrad sloping part of the supply function.
Ressourcen
5.4
127
Price reaction function
Many papers that investigate the world oil market empirically use the hypothesis that OPEC's
price policy is to respond to demand pressures relative to available capacity. More precisely,
this framework stipulates an increasing relation between oil price changes and capacity utilization in order to endogenize OPEC decision making:
.
p(t)/p(t) = g(x(t)), p(0) = p0.
(13)
The PRF g(.) may be an arbitrary, but sufficiently smooth and increasing function that abscissa. This formulation simplifies implicitly to a constant capacity so that demand pressure x(t)
determines the rate of a price change.
Gately-Kyle (1977) is, at least to my knowledge, the first work that offers this description of
OPEC decision making. The US Energy Information Administration's Oil Market Simulation
model, see Suranovic (1993), and models of the world oil market in Baldwin-Prosser (1988),
Hogan (1989) and US are recent examples that use the price reaction function (PRF in the
following). All these papers, however, omit a stability analysis although the calculations, already in Gately-Kyle (1977) and recently in Suranovic (1993), show a cyclical oil price evolution over time. Rauscher (1988a) proves the stability of the PRF for a particular class of
dynamic demand relations and offers this hypothesis.
0.8
0.6
80
0.4
change of real price (rel.)
79
0.2
81
0
85
76
87
84
82
83
77
75
78
-0.2
88
-0.4
86
-0.6
-0.8
0.40
0.50
0.60
0.70
0.80
0.90
1.00
1.10
capacity utilization
Fig. 5.3: Price reaction function
Fig. 5.3 shows empirical realizations of the price reaction function and two stylized representations of the PRF. All the above quoted works use a globally convex relation, similar to the
convex curve shown. The calculations here use the S-shaped description so that there exist
two regions where prices change dramatically. This S-shaped description provides presumably a better explanation of the 1986 collapse of crude oil prices.
Ressourcen
128
This system of the price reaction function can be combined with the demand framework of the
previous sections, either myopic:
.
x(t) = [f(p) - x(t)]/, x(0) = x0,
(9’)
yielding the result:
Proposition 1: The equilibrium of the two simultaneous differential equations (9) and (13),
which describes the intertemporal adjustment of myopic consumers, is stable. However, complex eigenvalues e12,
e12  
1
1
pg ' f '


2
2
4

are possible. Therefore, prices may oscillate transiently. A similar result holds for rational
expectations of consumers, which, however, dampens oscillations and speed up convergence,
as highlighted in an example in the figure below.
35
30
myopic
expectations
25
20
$/b
rational
15
86
10
87
88
5
0
0
10
20
30
40
50
60
Time
Fig. 5.4: Effects of expectations on convergence within a price reaction framework
(Wirl (1993))
5.5
Summing up
This section introduced different approaches to model Opec decision making to project and to
analyze the evolution of crude oil prices. The comparison of an oligopolistic and monopolistic
Organization of Petroleum Exporting Countries indicated that the current market situation
tends to reflect an oligopolistic market. The prices prevailing during the first half of the eighties were roughly in line with an optimal cartel strategy. But the difference in profits calculated
from a standard static framework are too small to explain the successful cooperation of Opec
in the recent past. The sluggish nature of the energy demand relations offers - at least temporarily - large profits and suggests a volatile oil price strategy. Such a dynamic relation may
lead to an optimal cartel policy which alternates between 'high' and 'low' oil prices or equiva-
Ressourcen
129
lently between a penetration and a skimming policy. Since only high prices require a formal
cooperation, Opec as an economic cartel may be a reoccurring but probably shortlived phenomenon. The same conclusion is derived within the political framework that cartel arrangements are only sustainable if the demand for Opec oil, in particular if the production level of
the swing or residual suppliers is sufficiently high. A scheme of low production quotas but
high prices is not sustainable because the potential gains from opportunistic behaviour are
large. world oil prices are expected to remain low for some time until the nineties when a sufficient demand momentum will be triggered and another discontinuous adjustment is expected. But opportunism of Opec members will limit the duration of cooperation and the high
prices will weaken subsequently.
The above conclusions are valid only with certain caveats. Some energy experts argue that
past empirical energy price elasticities are not suitable for projection making. More precisely,
it is arguable, that demand will not respond to the reduction in energy costs, because past
R&D and more efficient equipment will continue to determine energy demand patterns. Actually, this point is not essential to the quality of the argument, but only for the quantitative assessment of the date of another oil price hike. More precisely, the hypothesis of lesser price
sensitivity during the periods of low energy prices will reduce the growth of energy demand
and will hence delay the date of the next oil price hike, for example to the mid of the nineties
or even later. This implies a somehow inverse Robinson-Amoroso relation: the smaller the
(absolute) price elasticity the longer the duration of the low oil price regime. More important
is the fact, that the analysis did not include the actions on behalf of governments and traders.
Appropriate policies of both may reduce future price volatility. However, the experience, in
particular the handling of strategic oil inventories, shows that the past energy policy of consuming countries has probably increased rather than reduced the volatility of world oil prices.
6 Erneuerbare Ressourcen
Die nichterneuerbaren Ressourcen sind charakterisiert durch die dynamische Beziehung für
das Reservoir:
Rt = Rt-1 - qt
oder in kontinuierlicher Zeit
dR .
 R(t )   q(t )
dt
Jedoch für biologische Ressourcen: Fisch, Wald etc. gibt es eine (Netto) Wachstumsfunktion
h, die von der Population (R) abhängt: h (R). Damit ergeben sich folgende Modifikationen der
obigen dynamischen Beziehungen:
Rt = h(Rt-1) - qt
oder in kontinuierlicher Zeit
Ressourcen
130
.
R (t) = h(R(t)) - q(t)
Für geringere Populationen R < R0 stirbt die Biomasse aufgrund zu geringer Dichte für Vermehrung aus. Jenseits von R0 ist ein starkes Wachstum aufgrund eines Futterüberschusses
feststellbar. Jedoch jenseits von Rmax fällt dieses Wachstum wiederum, etwa aufgrund von
Futtermangel oder anderen Auswirkungen einer Übervölkerung.
Abb. 6.1: Biologische Wachstumsfunktion h(R)
Die minimale Population zur Vermehrung (und damit zur Erhaltung) R0 wird oft mit treshhold bezeichnet. Unter dieser Dichte ist die Wahrscheinlichkeit einer Paarung zu gering, um
die natürliche Todesrate zu kompensieren. Die Population Rmax beschreibt jene Population,
wo das maximale Nettowachstum erreicht wird. Dieser Populationsstand ermöglicht langfristig die größten Ernten q = Rmax, da bei dieser Ernte (Fangrate) die Population unverändert
bleibt.
Genauer: die langfristig maximal haltbare Fangrate errechnet man aus dem stationären Zustand:
.
R = -q + h(R) = 0
daher
q = h(R)
und das Maximum über q erhält man aus
h'(R) = 0
Ressourcen
131
so dass:
qmax = h(Rmax)
Diese statische Überlegung gilt jedoch nicht für eine intertemporale Optimierung. Dabei wird
das langfristige q optimalerweise so gewählt, dass h' = r. Aus dieser "Ungeduld" resultiert
eine geringere stationäre Population R* und daher eine auch geringere Fangrate als ideal bei
statischer Betrachtung erscheint.
Im Gegensatz zu den Realitäten der Förderung der fossilen Energieträger oder von Metall,
fehlt im Falle der Hochseefischerei das entsprechende Eigentumsrecht, so dass im Falle einer
positiven Rente neue Fischereiunternehmen angezogen werden und es zu einem "Überfischen" kommen kann. Dies wurde als "common pool problem" bereits bei nicht erneuerbaren
Ressourcen angedeutet.
Umwelt
132
7 Umwelt
7.1
Ein einfaches Modell zu externen Effekten
Wir betrachten eine Ökonomie, die entlang eines Flußlaufes zwei Industrien installiert hat; am
Fluß-Oberlauf eine Stahlfabrik und am Fluß-Unterlauf eine Fischerei. Der Output der Stahlfabrik ist abhängig vom Input an Arbeitskräften und beschrieben durch eine Produktionsfunktion
s = f(ls)
s ... Output an Stahl
ls .. Input an Arbeit in der Stahlfabrik
f ... Produktionsfunktion: f'>0, f'' ≤ 0.
Jedoch involviert die Produktion von Stahl eine Verschmutzung:
h(s)
h' > 0, h'' > 0
die in den Fluß abgeleitet wird.
Am Fluß-Unterlauf produziert die Fischereiindustrie den Output c - abhängig von Input Arbeitskräfte lc und vom Grad der Wasserverschmutzung:
c = g(lc,h)
Weiter seien die Preise
p ... der Stahlpreis
q ... der Fischpreis
w ... die Lohnrate
vorgegeben, d. h. die bekannten Firmen sind klein - verglichen zur gesamten Marktgröße.
Ohne institutionelle Vereinbarungen versucht jede Branche ihren Profit zu maximieren, also
Stahlfabrik:
pf(ls) - wls ... ->. max.
Fischerei:
qg(lc, h) - wlc .-> max.
Das führt zu den bekannten Bedingungen, daß das Grenzprodukt gleich den Kosten bzw. die
Grenzkosten der Erzeugung gleich dem Preis sind:
pf' = w oder p = w/f'
Umwelt
133
g(lc,h (s*))
q -------------- = w
lc
wobei s* der optimale Output der Stahlfabrik ist.
Es ist offensichtlich, daß diese Situation sozial nicht effizient ist. Der Output der Stahlfabrik
hat einen negativen Effekt auf die Fischerei, jedoch dieser Effekt wird von den Stahlerzeugern
ignoriert. Als Ergebnis erhält man, daß zuviel Stahl produziert wird.
Berechnen wir das soziale Optimum für die gesamte Ökonomie:
max pf (ls) + qg(lc, h (f(ls)) - w(ls + lc)
Die Bedingungen erster Ordnung liefern:
g h
p f' + q ---- f`- w = 0
h s
g
q ── - w = 0
lc
Die Bedingung für die Stahlfabrik kann umgeschrieben werden in

g 
 p + q -- │ f' = w

s 
so daß der negative Effekt der Stahlfabrik vom Stahlpreis abgezogen werden muß.
Dieses Beispiel zeigt, daß Profitmaximieren individuell preisnehmender Firmen nicht notwendiger Weise zu einer effizienten Allokation der Ressourcen führt. Wie kann dieses Fehlverhalten des Marktes korrigiert werden?
a) Steuern und Subventionen: Die Idee dabei ist, daß die Stahlfabrik nur den falschen Preis
für ihr Produkt erlöst; denn der sozial gerechtfertigte Preis ist nicht p, sondern der Preis in der
Klammer. Dies könnte durch eine Steuer im Ausmaß
g (lc*, h (s*))
 = q ---------------s
erzielt werden.
Umwelt
134
Die Schwierigkeit dabei ist das Festlegen des Steuersatzes , da die öffentlichen Behörden
zur Berechnung von  technologische Informationen hinsichtlich der Stahlerzeugung als auch
der Fischzucht im großen Detail zur Verfügung stellen muß.
b) Fehlende Märkte: Der obige Fehler individueller Ressource-allokation resultiert daraus,
daß es keinen Markt für Verschmutzung gibt. Erweitern wir die Analyse dahingehend, daß die
Stahlfabrik eigentlich 2 Outputs hat: Stahl und Verschmutzung, wäre ein entsprechender Preis
für die Verschmutzung gegeben. Dann würde die Stahlfabrik automatisch den richtigen Output produzieren.
Was wäre nun dieser Gleichgewichtspreis für die Verschmutzung? Klarerweise wäre die Fischerei für eine kleine Verringerung der Verschmutzung maximal soviel bereit zu zahlen als
der Profit dadurch verbessert werden kann.
Vom Standpunkt der Fischerei ist die Verschmutzung exogen vorgegeben. Betrachten wir nun
die Variation in den Nettoerträgen der Fischerei abhängig von der Verschmutzung
 [q g (lc, h) - w lc]

h
dann erhalten wir aufgrund des Envelopentheorems
g
r: = q -h
so daß r der Preis für die Verschmutzung (r < 0) ist. Angenommen, die Stahlfabrik müßte
dafür aufkommen, also versucht
p f (ls) + r h (f (ls)) - w ls
zu maximieren, dann führt dies nach einsetzen von r auf das soziale Optimum.
c) Integration: die Stahlfabrik soll die Fischerei, oder umgekehrt, aufkaufen.
7.2
Energy taxes – some critical remarks
The purpose of this paper is to draw attention to certain fallacies to which proponents of energy and environmental taxes seem to be prone. The paper does not attempt to weigh the pros
and cons but is restricted to a critique because the pros are covered in wide body of the literature; von Weizsäcker (1990), Robertson (1990), Pearce and Turner (1990) and Pearce (1991)
are recent summaries of these well known arguments. This often uncritical and enthusiastic
support of energy taxes (based on Pigouvian motives) provokes this critique. However, this
does not imply that the author opposes any kind of a pollution tax, rather the contrary: I agree
by and large with the normative arguments, in particular that taxes are superior to standards,
but politics and strategic behavior require proper constraints.
Umwelt
135
Taxation of commodities may serve two quite different purposes:
1. To raise revenues to finance public goods, e.g. lighthouses, national defense, security.
2. To internalize external factors and thereby to alter the behavior of firms and individuals.
The traditional purpose of a tax system is to raise revenues in order to finance public goods
and other tasks performed by the state. These necessary revenues may be raised via income
taxes (the dominant procedure in industrialized countries), or commodity taxes or a combination of both; developing countries focus on a specific variant of commodity taxes, namely,
import tariffs. The classical treatment of commodity taxes is Ramsey (1927); Auerbach
(1985), Mirrlees (1986) and Stiglitz (1987) are some recent surveys on taxation. The second
objective of taxes is to influence the behavior of people and not to raise revenues. This second
justification of taxation dates back to Pigou's (1920) seminal treatise of welfare economics.
Pigou argues that external 'goods' or 'bads', have to be internalized in final goods' prices in
order to achieve an efficient allocation. Therefore, externalities justify government intervention within a market economy in addition to the provision of public goods. These propositions
of Pigou provide the foundation for the economists' proposals concerning environmental policy making; this literature favours by and large taxes over other instruments (like standards).
However, Pigou's propositions are not uncontested. In particular, Coase (1960) and Buchanan
and Tullock (1962) argue that a rearrangement of property rights (bargaining) leads to efficiency, which can be achieved by voluntary actions because internalization results in net
gains. Therefore, state intervention is not justified in general, but only if the transaction costs
prevent bargaining. Moreover, Pigou's proposals to 'internalize the external costs' may be inefficient even if bargaining is impossible (because they are one-sided) and anyway naive, because of the presumption that 'benevolent' dictators levy the tax.
Politicians relied until recently on non-market, command oriented instruments, like pollution
standards, despite the economists' criticism of standards (except for some special cases, see
Baumol-Oates (1975)) and their support of pollution taxes. However today, many politicians
seem to give in and argue along the lines of Pigou and the later following environmental economics literature in order to justify these new taxes as efficient instruments to combat pollution. This support seems independent of ideology, e.g. the Conservative parties in Austria and
in the U.K., the Republicans in the U.S., the Greens almost everywhere, the Social Democrats
in the F.R.G. and Sweden support pollution taxes. It is interesting to observe that the real
threat of pollutants (like sulphur dioxide, nitrogen oxide, particulates etc.) could not move the
discussion towards taxation while the much more conjectural and elusive threat due to global
warming triggered an international round of tax proposals culminating in an EC proposal
about tax harmonization. The EC considered to introduce a tax of 10$ per barrel of crude oil
equivalent (by 2000, starting with 3$ in 1993) that consists of an energy and of a carbon component, each accounting for 50%. These plans were suspended around the Earth Summit in
Rio de Janeiro, June 1993, when the other industrialized regions refused to introduce similar
taxes, so that European ministers feared for their energy intensive industries.
The taxation of fossil energy carriers is the cornerstone in these otherwise (across countries)
differing policy proposals. The taxation of energy seems justified by the vast externalities that
Umwelt
136
are associated with the burning of fossil fuels. Energy consumption is almost entirely responsible for acid rain and contributes largely to the greenhouse effect through the emissions of
CO2 and methane (from natural gas and coal production). Furthermore, an energy tax is easy
to administer and the low price elasticities, see e.g. EMF (1981), guarantee stable and sizable
revenues.
This paper provides a non-formal discussion; however, most of the findings can be made rigorous. First, we show that the 'polluter pays principle' may lead to inefficiency. This draws
heavily on the widely quoted paper of Coase (1960). Unfortunately, these quotations are normally largely restricted to the Coase Theorem - private and social costs coincide in a world of
negligible transaction irrespective of the initial property rights - but omit the point that Pigou's
proposal may be inefficient even if large transaction costs exclude the bargaining solution.
Then we explore the prospects for pollution taxes to substitute for income taxes. This discussion falls into three groups: OPEC may retaliate; rent seeking activities and Leviathan governments exploit sentiments of Pigouvian taxes to collect revenues; the potential volatility of
taxes that should raise a fixed amount of revenues. Finally, we argue that the conservation
impact from energy taxes remains small, in particular, if these taxes are set at the actually
proposed rates, i.e., if final energy prices remain too low. A summary completes the paper.
7.2.1 Possible inefficiency of the 'polluter pays principle'
In this section, we criticize the new dogma - the polluter pays principle (abbreviated PPP) that underlies almost all actual environmental policies and proposals, in particular, pollution
and energy taxes, the possibility to litigate for any damage due to pollution, etc. The following argument follows Coase (1960) that starts "This paper is concerned with those actions of
business firms which have harmful effects on others. The standard example is that of a factory, the smoke from which has harmful effects on those occupying neighboring properties."
and then summarizes the above argument " ... economists have largely followed the treatment
of Pigou in The Economics of Welfare. The conclusions to which this kind of analysis seems
to have led most economists is that it would be desirable to make the owner of the factory
liable for the damage caused to those injured by the smoke; or to place a tax on the factory
owner varying with the amount of smoke produced equivalent in money terms to the damage
it would cause.."
Therefore, consider the usual justification of PPP along the above example. Suppose that a
competitive industry (or a factory) emits smoke in the course of production when bargaining
is impossible. These emissions impose external costs on a residential neighborhood. It is easy
to see why decentralized decisions and in particular unilateral profit maximization of the firm
is inefficient. Profit maximization implies that smoke is used as an 'input' up to the point
where its contribution to output vanishes. Thus, the emission of the last unit of smoke provides only an infinitesimal benefit to the firm so that the reduction of pollution by one unit is
actually free. On the other hand, the emission of this unit of smoke imposes positive external
costs on the residential neighborhood. Therefore, social surplus can be increased by withholding this unit of smoke because the reduction is free and the external costs are reduced by a
positive amount. This re-allocation improves the social surplus so that decentralized profit
maximization is not efficient.
Umwelt
137
Now, PPP makes the firm liable for this damage so that the residentials may litigate for compensation for any costs incurred due to smoke emissions. However, this policy is inefficient
too, because (in the words of Coase): "The question is commonly thought of as one in which
A inflicts harm on B and what has to be decided is, How should we restrain A. But this is
wrong. We are dealing with a problem of reciprocal nature. To avoid the harm to B would be
to inflict harm to A. The real question that has to be decided is, Should A be allowed to harm
B or should B be allowed to harm A?"30
Therefore, one must consider the actions the residential can take in order protect themselves
from damages. That is to say that an efficient outcome has to account for the firms' and the residentials' possibilities to lower these external costs. In the setting of Coase (1960), with no
transaction costs, bargaining establishes this efficient outcome irrespective of the assignment
of who is liable for the damage (Coase Theorem). However, legal rules that single out a particular participant as the 'polluter' irrespective of the costs may be inefficient, if transaction
costs are significant and impede bargaining. In other words, the 'victim pays principle' may be
efficient!
The inefficiencies of PPP are not just a theoretical construct but of substantial policy relevance. In fact, many real world examples highlight this deficiency: people who acquire first
cheap land close to freeways then chose to litigate for compensation; weekend homes built in
a farming area (again characterized by cheap land) followed by the sueing of the farmers for
all the noise they make, are just two recent Austrian examples. It is not difficult to imagine
that this movement will swell and will lead to substantial economic inefficiencies if PPP is
upheld in courts. Therefore, the possibility of litigation seems the most threatening consequence of PPP. The other Pigouvian instrument, pollution taxes, results in less inefficiency
than complete liability of the polluter because it does not deter actions (other than litigation)
by the 'victim'. Nevertheless, inefficiency may result if the tax is unilaterally based on the
firms' input decisions but neglects the residentials' potential for protection; for a proof see
Wirl (1992a). In other words, energy taxation that fully reflects the 'polluter pays principle'
may in principle lower social welfare compared with laissez-faire (and associated market failure).
7.2.2 Revenues from energy taxes
The prime concern of many advocates of energy taxes is the protection of the environment.
For example, von Weizsäcker (1990) advocates an 'ecological tax reform' where energy taxes
should substitute income taxes (at least partially). This section analyzes some crucial aspects
about the scope and use of the revenues resulting from energy taxes. This discussion is organized under three different aspects: A. retaliation or preemption by producers; B. either a Leviathan or a pressure group uses green arguments as a figleaf to appropriate tax revenues; C.
energy taxes as a means to raise revenues for the provision of public goods may be volatile in
a realistic setting
30For a better understanding, consider Coase's example of two neighboring farmers, one plants crops and the
other raises cattle so that fencing may become necessary. Who inflicts now the externality on whom?
Umwelt
138
7.2.3 Retaliation and preemption by producers
Von Weizsäcker (1990) and many others (including politicians) argue that Pigouvian energy
taxes do not harm consumers' purchasing power, if these revenues are returned to the people.
Technically speaking this is not totally correct because commodity taxation results in a loss to
consumers (in technical terms, a 'triangle loss' in consumer surplus) even if the tax revenues
are entirely transferred to them. Fig. 7.1 outlines this argument showing a demand curve.
Considering the untaxed price p, the consumers' surplus is equal to the triangle under the demand curve right off p, i.e., this triangle measures the savings of all those consumers who are
willing to pay a price higher than p. Adding a tax  reduces the consumers' surplus to the
much smaller triangle right off p + . The tax revenues are no loss to this society (and to the
consumers if the money is returned to them in one form or another) so that only the triangle,
often called the deadweight loss, counts as a welfare loss. However, this triangle loss is not
the point here, but rather how far it is possible to compensate consumers for higher energy
prices, i.e., how much from the rectangle in Fig. 7.1, the Pigouvian tax revenues, may be lost.
tax
deadweight
loss
tax
revenues
transfer
demand
(inverse)
energy
Fig. 7.1: Deadweight loss from energy taxes
This comparatively small loss in consumers' surplus must be weighed against improved environmental conditions, so that quite large taxes may pass such a cost-benefit test. However,
this argument assumes implicitly that taxation does not affect the producers' strategy, the price
p in Fig. 7.1, which seems unlikely. Indeed, von Weizsäcker's' claim can be strengthened in
some cases because energy taxes lower demand and thereby the associated monopoly price.
That is, p falls and the deadweight loss triangle in Fig. 7.1 overestimates the costs to consumers because energy taxes reap some parts of the monopoly rent; Wirl (1992b) proves this possibility for a static Nash game between consumers and producers. However, more aggressive
producers may retaliate by raising the price at front in order to reap at least some parts of the
intended tax revenues. For example, energy taxation raises the monopoly's price in a von
Stackelberg game (for convex demand and with OPEC leading) and moreover encourages
cartelization; see Wirl (1992b). Indeed there is a well known analogy from political econom-
Umwelt
139
ics and real world politics, namely, voluntary export restraints, which avoid import duties at
the expense of the consumers of the importing country who have to pay the higher market
clearing price without any revenues compensating (compare Baldwin (1989)).
The following example provides another and very simple argument for producers preempting
an energy or carbon tax; preemptive moves can also be demonstrated in a dynamic framework, see Wirl (1993). To simplify the exposition, assume a purely monopolistic energy supplier, call it OPEC or whatever you like. This assumption is the opposite from the competitive
environment that is implicitly supposed in Weizsäcker (1990) and in the recent literature on
global warming. This monopoly faces a single consumer, say the OECD that plans to introduce energy taxes in order to reduce associated external costs. Of course, the energy suppliers
will not passively accept this tax but will change their price policy. Assume (quite realistically) that low externalities do not justify taxation due to the associated social costs, in particular
transaction costs (setting up a bureaucracy that raises, collects and distributes the revenues),
and presumably penalties to politicians (since new taxes are never popular, irrespective of the
magnitude). As a consequence, a high producers' price p, p > p0 in Fig. 7.2, remains untaxed.
The reason is that a high price p ensures a low energy demand and thereby low externalities,
which in turn implies a small Pigouvian tax that is insufficient to cover fixed costs. Since such
a tax results in a net loss to the consumers, no tax is optimal. However, the government will
add a Pigouvian tax once the import price p falls below a certain treshhold,
p < p0. This tax strategy starts with a positive level (to cover the above addressed fixed
costs31) and increases as the producers lower the price p. Hence, this Pigouvian tax declines
with respect to p, because higher world market prices p lower demand and thereby the (marginal) external costs. Put briefly, the optimal tax strategy declines with respect to the producers' price p, exhibits a discontinuity p = p0 and is zero for p > p0. This in turn leads to a discontinuous demand curve that the producers face with respect to their instrument, the price p.
Fig. 7.2 shows the demand side with respect to the suppliers' energy price p: tax and demand
(taxed and untaxed).
The impact of taxation on the producers' profits are shown in Fig. 7.3 This set up corresponds
to a Stackelberg equilibrium, where the oil cartel has the first move, i.e., it adjoins the consumers' government's optimal reaction, tax = tax(p), into its calculation. Therefore, the producers face the discontinuous demand, the bold line in Fig. 7.2, and choose that price p that
maximizes their profits. Fig. 7.3 shows the profits of the energy supply cartel with respect to
their instrument p, again with and without energy taxes. In this example, the cartel's profits
are maximized at the price p = p*< p0 if no Pigouvian tax is levied. However, the environmental concern of the consumers' government leads to a tax, if the monopoly continues
to charge p*. This modifies the monopoly's profits to the lower curve with a discontinuity at
p = p0 and given the profit constellation shown in Fig.7.3, the corner solution p = p0 is optimal. The reason is that charging a sufficiently high price avoids the tax and thereby maximizes profits. In short, there is no scope for tax revenues (and associated transfer) in the OECD
region, because OPEC internalizes these external costs already at the wellhead.
31Clearly, tax collection requires large fixed but low marginal costs so that the collection of small taxes is always
inefficient.
Umwelt
140
untaxed
taxed
demand
tax
p*
p0
Fig.7.2: Pollution tax and demand, taxed and untaxed
untaxed
profit
taxed
p*
p0
Fig. 7.3: Profit to energy supplier (OPEC), with and without a tax
Of course, Fig.7.2 and Fig. 7.3 sketch the worst outcome and that appears constructed. However, the oil market situation of 1986 provides a precedence that fits the above argument: during 1986, Saudi Arabia intended to punish non-complying members of OPEC (and non-OPEC
oil producers) by letting the price fall even below $10/b; in Fig. 7.2, a price below p0. Yet, as
Umwelt
141
prices were falling, the threat of an import fee (strongly advocated by the oil industry in the
United States) increased. Facing this threat, Saudi Arabia quickly cut back production to raise
the price to a level (p0 in Fig. 7.2) that avoided the tax, because of the associated costs to the
American politicians if they raise the price of petrol too much; this is another interpretation of
fixed costs of taxes that politicians face. Moreover, the conclusion - strategic responses of energy suppliers weaken the potential tax revenues - applies in other instances as well as mentioned above. The basic reason is that the 'tax revenue' itself is up to a contest between consumers' governments and producers, if taxation follows purely Pigouvian prescriptions.
7.2.4 Positive explanations of energy taxes
The above argument is normative, i.e., it assumes that the sole motivation to tax is Pigouvian.
The assumption that politicians act like benevolent dictators seems unrealistic. Modern political economy (or Public Choice32) emphasizes the private motives of politicians about getting
re-elected, increasing discretionary power through an enlargement of government spending or
implementing their ideological platform; all these objectives have the common feature that
they require revenues.
Even retaining the hypothesis of benevolent politicians leads to the questions why did it take
seventy years until the politicians understand the analysis of Pigou? Of course, some normative arguments may explain this, e.g., the increase in public environmental concern; Pearce
and Turner (1990, p 96-98) offer some normative (but not really convincing) excuses - uncertainties about justice and damage and the natural force of a status quo. However, this is only a
part of the story, although an important one because the perception of environmental damages
and threats altered the cost-benefit balances for politicians and for political pressure groups. It
is easy to see that real world energy taxation is at least partially driven by politics with little
reference to environment and economic efficiency. For example, how can one reconcile a
theory of politicians following a normative Pigouvian framework when the most harmful energy carrier, coal, is (partly heavily) subsidized while other and much cleaner fuels, in particular natural gas, are taxed? Therefore actual policy making cannot pass the minimal normative
test that the relative taxes on fuels should be corrected before proceeding to tax increases. In
the following, two positive arguments are sketched why the introduction of green taxes, in
particular of energy taxes, is likely.
Becker (1983) presents a theory of pressure groups. Pressure groups spend economic resources to maximize subsidies and to minimize tax burdens. Considering a Nash equilibrium,
Becker shows that those proposals win that minimize deadweight loss, i.e., social costs over
and above the subsidy. Thus, proposals that tax public 'bads', cigarettes, alcohol and now pollution, will be more successful than those who argue for the taxation of public 'goods', like
schools and universities. Now combining this argument of Becker with the observations:
(a)
32For
energy consumption has a significant negative impact on the nowadays much higher
alued environment;
a good exposition see Mueller (1989).
Umwelt
(b)
142
substantial disincentive effects from an increase of the income tax when marginal
come tax is already 'high';33
may explain why today's politician are more receptive to a Pigouvian motivation for energy
taxes. Competition of pressure groups requires that any claim for subsidies must be accompanied by a proposal on how to finance this subsidy. First, due to condition (a) the deadweight
costs of energy taxes must be balanced against the gain in environmental conditions. Income
taxes distort only the decisions between labour and leisure while commodity taxes lead additionally to inefficient allocation so that income taxes induce less deadweight costs than commodity taxes as long the disincentive effects are small. However, disincentive effects that are
attributable to high marginal income taxes affect (or even change) this relative position of
taxes, so that, combined with (a) taxing those commodities that impose negative external
costs are preferable to financing subsidies. A topical example is the subsidization of 'poor'
East Germans through an increase of the tax on gasoline in the FRG, a country with high
marginal income taxes. On the other hand, in countries with low marginal tax rates, like the
United States, the opposition against energy taxes is much stronger and generally an increase
in income taxes is preferred to energy taxes.34
Therefore, politicians' recent approval of the economists' proposals of Pigouvian taxes may be
due to pressure group competition outlined above rather than to the usually given normative
reasons. Another positive explanation is that Pigouvian welfare economics provides an argument for new taxes that may be used to blow up public spending (the government as a Leviathan). Brennan-Buchanan (1980) outline a tax constitution for the Leviathan35, where a restricted tax base is advocated contrary to the usual efficiency arguments that favour a broad
tax base (to minimize deadweight loss). Therefore, the (constitutional) abolition of certain
taxes should be a prerequisite before introducing and supporting environmental taxes. Otherwise, our good intentions may simply feed the Leviathan.
Of course, the increased public awareness of environmental damages and potential harms may
(and are to some extent) responsible for the consideration of green taxes. Thus the critical test
is to explain why some countries consider green taxes as a revenue instrument while others
still rely on income taxes to raise additional revenues. I claim that recent events - some Scandinavian countries, the Netherlands and the FRG will and have already introduced new taxes
on energy and on particular fuels - seem to corroborate both the Leviathan-hypothesis and
Becker (1983) but contradict the efficiency hypothesis. These European finance ministers are
33In
fact, tax revenues may fall with rising taxes according to the well known Laffer curve phenomenon.
to a poll published in Time (1991), 71% of the Americans favour an increase of marginal income
taxes (for high incomes, of course) but only 33% consider the introduction of energy tax (and only 24% favour a
gasoline tax) as just to lower the budget deficit. However, recently the political prospects of a petrol tax seem to
have improved, The Economist, January 7th, 1993, Coming soon, to a station near you, p 48.
35This description is appropriate for honest politicians too, e.g., Sandmo (1990) defends this assumption: "Suppose that you are entering into a contract with a carpenter about repairs on your house. You may already have a
theory of the behavior of carpenters as being on average highly skilled, punctual, and honest. Would you write
the contract on the assumption that the theory applied also in this particular case? Probably not; the careful
homeowner would like to have a contract that protected him against the possibility of the carpenter having the
opposite characteristics."
34According
Umwelt
143
presumably aware of the disincentive effects from a further rise of income taxes due to the already very high marginal (and average) tax rates. In this sense, the deadweight costs associated with an expansion of government expenditures may be lower if these revenues come from
energy taxes compared with an increase of income taxes. On the other hand, the people of the
United States, who face a much lower marginal income tax, resist much stronger any proposal
to raise domestic energy prices, despite much lower energy prices at the outset. Considering
now (a) - environmental degradation is a public bad - and (b) - the significance of disincentive
effects at high marginal income tax rates - tilts the choice from an increase in income taxes
towards the introduction of energy or pollution taxes in those countries with already high income taxes.
Summarizing, the public environmental concern and goodwill for green objectives plus the
two positive hypotheses (Becker's competition of pressure groups, the government as Leviathan), may explain the presently favorable climate for energy taxes. The positive explanations
account for private objectives but require constraints on the tax base to keep a potential Leviathan (as well as potential rent seekers) in check. However, there is a positive aspect of the
Leviathan. While Pigouvian motives may encourage producers to preempt the tax, Leviathan
motives (to raise taxes) deters such a behavior because raising the price at front cannot avoid
taxation.
7.2.5 Stability of energy taxes as a revenue instrument
As indicated at the beginning of this section, some researchers (in particular, von Weizsäcker)
argue for a general tax reform such that taxation of resources and environmental goods (starting with energy) should substitute for income taxes; in other words, taxing scarce resource
inputs instead of labour. This raises the question of stability, because higher prices lower the
demand, which in turn requires higher taxes to raise the same amount of revenues and so on.
Thus in contrast to the so far expounded Pigouvian motivation for energy taxes, we consider
the pure revenue aspect of energy taxes. Therefore, we assume that the government wants to
raise a fixed share s of income (GDP, denoted y) via an energy tax rather than as before
through an income tax. For this purpose, consider the following simple adjustment model of
demand (d):
dt = (1 - )D(pt + t, yt) + dt-1
(1)
dtt = syt
(2)
D denotes the equilibrium demand for given consumer prices p + , p import price,  tax, and
income y;  denotes the adjustment lags, 0 <  < 1. Equation (1) captures the sluggishness
that is typical for energy demand relations. More technically, (1) describes the optimal dynamic adjustment of consumers using myopic expectations; most of the following findings
hold for rational expectations too. The government must choose its tax strategy { t} such
that the revenue constraint (2) is satisfied at all times t. Wirl (1991) proves the stability of (1)(2) if prices p are constant, income is constant and/or demand D exhibits unitary income elas-
Umwelt
144
ticity and energy demand is inelastic (stability holds even for moderately elastic demand; this
assumption is definitely met for aggregate energy demand). However, the tax must rise, if:
(i)
the long run energy-income elasticity, lnD/lny, is below unity,
(ii)
international energy prices pt increase over time, e.g., for a Hotelling type path.
For a formal proof see Wirl (1991).36 The above two points suggest that energy taxes are a
suboptimal choice for opportunistic politicians, because they have to increase the tax rate t
continuously; moreover, taxes must rise whenever OPEC price increases hurt already the consumers (=voters).
Fig. 7.4 shows some examples for the framework (1)-(2); the tax is normalized to 1 for the
initial period. The two stabilizing curves refer to unitary income elasticity and constant energy
prices. This proves that energy taxes will converge to a stationary tax level given the two conditions, unitary income elasticities, constant international energy prices pt = p for all t, and if
demand is not too elastic. However, a large time constant, e.g. k = 0.9, requires a fair amount
of time until the tax stabilizes (but rational expectations accelerate convergence). The fast
growing tax rate in Fig. 7.4 assumes an income elasticity of 0.5 and confirms the above proposition (i). The erratic curve assumes a volatile energy price trajectory where energy prices
increase every ten years by 50% but this increase lasts for three years only. This scenario
shows substantial tax increases whenever international energy prices increase. In other words,
the finance ministers have to increase energy taxes whenever OPEC ministers decide to increase crude oil prices. I doubt that politicians seeking popular support would opt for such a
strategy. Therefore, the motivation for energy taxation appears largely as a means to increase
the tax base rather than to replace other taxes.
36Wirl (1991) studies within a continuous time framework the stability properties of commodity taxes for myopic and rational consumers' price expectations.
Umwelt
145
Fig. 7.4: Energy taxes that raise a fixed share of GDP. Adjustment lag k = 0.5, unitary income
elasticities, both unless otherwise indicated; price elasticity equals -0.5. For further details
see Wirl (1991).
It is only fair to say that the advocates of energy taxes are quite aware of these problems and
therefore urge for some flexibility of the required revenues. However, this may be illusionary
considering the constraints imposed by 'Realpolitik'. More precisely, tight budgets do not
leave room for the desired flexibility and any occasional excess of revenues will attract pressure groups that want to tap this revenue. In short, political practice proves that such a flexibility exists only on paper.
7.2.6 Energy taxes and conservation
The major purpose of energy taxes is to lower consumption. After experiencing two oil price
shocks, it seems that economists have beaten the pessimists, the engineers, the lawyers and
the politicians, because demand and supply reacted substantially to the high energy prices
during 1974-1985 as predicted by many econometric investigations but contrary to engineering investigations that stressed rigidities. A common consensus, e.g. EMF (1981), seems that
an energy price elasticity is roughly -0.5, i.e. a 10% increase in final energy prices will lower
the long run demand for energy by 5%. This elasticity suggests substantial conservation even
for moderate tax rates.
Umwelt
146
However, such empirical elasticities may be inappropriate to quantify today the energy conservation impact from Pigouvian taxes. The reason is that this historical elasticity consists of
consumers' adjustments as well as improved technical efficiencies which depend on the level
of energy prices too, yet in an non-trivial, asymmetrical way. More precisely, the period of
'high' energy prices, from the end of 1973 to the end of 1985, did not only induce consumers
to cut energy consumption but triggered also substantial research and development efforts to
engineer more fuel efficient appliances. These research efforts led sometimes to dramatic reductions in fuel requirements for particular services. The reader is familiar with such examples, e.g., the increase in mileage across all different categories of cars, the substantial reduction in electricity consumption for television, computers, cleaning, lighting, etc. Fig. 7.5 documents this for a sample of European cars. This sample of cars is characterized by attributes
that are fairly consistent over time, in order to separate, as far as possible, efficiency improvements from other characteristics, such as power (speed and acceleration), comfort, safety etc., that inevitably change over time and in turn affect fuel efficiency. This figure highlights the delay between high energy prices and the availability of more efficient cars (and
even further lagged until these cars capture a major share on the road). Furthermore, these
improvements stopped towards the end of the eighties, because the low gasoline prices made
further research and improvements unprofitable. Finally, new cars retain the historically acquired efficiency (more or less), because this technological know how, if once acquired, is
free.
Fig. 7.5: Fuel requirements, liters per 100 km, ECE mix and DIN (adjusted), for a sample of
European cars. Source: Schweizer Automobilrevue.
Fig. 7.6 outlines the basic argument following Wirl (1988). The figure shows two conventional, static demand curves, i.e. we abstract from the details of an adjustment process over time.
The upper curve connecting AB corresponds to the initially prevailing state of technology.
Now, a price rise from the initial consumer price Ð1 to Ð2 would induce the consumers to
Umwelt
147
lower their energy requirement from A to B. But this price increase and the persistence of
high prices37 motivates research and development (R&D) to engineer more energy efficient
appliances. These technological breakthroughs allow the consumers to shift their demand
curve down to the line that connects CD. Hence, the consumers' demand moves to C rather
than to B. This description stylizes the demand adjustments covering the period 1973-1985.
The curve AC draws thus the long run demand curve, i.e. including price-induced technological improvements. However, knowledge is irreversible and a once acquired technology
persists even in a period of low prices. Therefore, the price decline that followed in 1986,
roughly back to Ð1, will not cause the demand to return to its original equilibrium A.
Fig. 7.6: Energy demand with and without R&D
However, this asymmetry of demand behavior is not the point here. What is important is that
energy taxes will have only a moderate impact on demand, unless dramatic taxes are imposed.38 Assume that by 1985 all research for efficiency improvements, which were economically justifiable for the price level Ð2, have been completed so that further R&D requires consumer prices greater than Ð2. Now consider the present price Ð1 and an energy tax so that the
final consumer price remains below the (real) price level Ð2; this assumption is met by all
proposals, in particular, by the EC $10/boe tax. This final price is insufficient to trigger further efficiency improvement, so that this tax will influence consumer behavior only. In geo-
37Or
expectation of further price increases, e.g. the IEA projected rising energy prices as late as in 1985, IEA
(1985).
38A similar conclusion holds for a small country, even if the energy tax is set sufficiently high, because it does
not pay to improve the technology (e.g., the mileage of cars) for small markets.
Umwelt
148
metrical terms, consumers move along their conventional demand curve CD so that demand,
starting from C, adjusts towards to E and not to F that would result from applying the long run
price elasticity derived from observations along AC. This reasoning implies that current energy demand, due to its history dependence, has a kink at C: the flatter curve CD applies for
prices below Ð2 and the steeper curve AC for high prices, Ð > Ð2. Therefore, even a large tax
so that the final price exceeds Ð2 will not induce conservation similar to the slope AC, because only the difference (Ð + tax - Ð2) triggers technological efficiency gains.
Now all considered and debated energy or carbon taxes are much too low to achieve further
significant improvements in technical efficiency so that the conservation effect will be presumably small. Therefore, these taxes would collect large sums, e.g. the EC proposal of
$10/boe on each primary energy carrier would raise annually 300 billion dollars if collected in
all OECD countries, but achieve little environmental gain, i.e., just food for the Leviathan.
And this is dangerous (from a green point of view), because the electorates' goodwill might be
wasted for coming, necessary environmental burdens.
7.2.7 Summary
This paper summarized some of the fallacies that proponents of Pigouvian taxes (and in particular supporters of an energy tax) make. One weakness is the overwhelming concern of this
literature with efficiency considerations, i.e. the preoccupation with normative questions.
Therefore, environmental economics might fall into the same trap as welfare economics,
which argued for state intervention for any perceived market failure without investigating the
motives of politicians and bureaucrats; i.e. it is assumed that the political realm functions perfectly. Buchanan-Vanberg (1988) is an interesting paper in the right direction because it
makes the proper institutional comparison: market failure, i.e., no internalization due to high
transaction costs, versus policy failures, i.e. politicians (opportunistic, vote maximizing, pork
barrel politics) and majority voting will lead to a biased internalization. Now considering political motives and constraints (pork barrel politics, Leviathan governments) a proper tax constitution is required before going ahead with the introduction of pollution taxes on a wide
scale, i.e. the definite abolition of other taxes, or better restrictions on the total tax base. Put
into a nutshell: green taxes raise, quite unintentionally, public revenues; this, for many a positive side effect, is at the core of the addressed problems because both Leviathan governments
and pressure groups will speak of the green issue but in fact mean the money; the biggest advantage of tradeable emission permits is, transaction costs aside, that politicians and pressure
groups cannot participate in the associated financial flows. Moreover, trade barriers removed
by GATT and other international agreements may re-emerge under a green heading (see The
Economist (1992)). Interestingly, Pearce's (1991) investigation of carbon taxes - in his own
words more 'political economy' than economics - is entirely normative and neglects any critique stemming from modern political economy (or Public Choice) such as in BrennanBuchanan (1981).
Furthermore, pollution taxes score poorly as a device for collecting revenues. First, the associated tax would be quite volatile in a realistic setting with considerable political costs, because tax rates must be raised whenever OPEC increases the price. Second, OPEC and other
energy suppliers may retaliate to the threat of energy taxes. The threat of consumers' govern-
Umwelt
149
ments to tax primary energy carriers in order to lower pollution will induce energy suppliers
to revise their price strategies. For example, if internalization (and nothing else) is the problem (i.e. a purely Pigouvian motive), all that is needed is that energy is priced appropriately;
this correct signal to consumers can be the result of a low wellhead price plus a high tax or, a
sufficiently high wellhead price with no tax at all. Given this situation, the energy suppliers
themselves might prefer to raise the price of energy rather than to leave these entire revenues
to foreign governments. For some extreme cases there is no scope at all for revenues from a
Pigouvian tax for the consumers' government because OPEC internalizes beforehand the entire external costs at the wellhead! Finally, observe that the above addressed constitutional
constraints (such as limiting the tax base, abolishing and restricting other taxes) that should
accompany the introduction of energy taxes increases the credibility of consumers' governments tax policy and may therefore deter strategic producers' preemption.
7.2.8 References:
Auerbach A. J., Excess Burden and Optimal Taxation, in Alan J. Auerbach and Martin Feldstein (Ed.), Handbook of Public Economics, I, 61-127, North Holland, (1985)
Baldwin Robert E., The Political Economy of Trade Policy, Journal of Economic Perspectives, 3, 119-135, (1989).
Baumol W. J., Oates Wallace E., The Theory of Environmental Policy; Externalities, Public
Outlays, and the Quality of Life, Prentice Hall, (1975).
Becker G. S., A Theory of Competition among Pressure Groups for Political Influence, Quarterly Journal of Economics, 98, 371-400, (1983).
Brennan G. and J. M. Buchanan, The Power to Tax: Analytical Foundations of a Fiscal Constitution, Cambridge: Cambridge University Press, (1980).
Buchanan J. M., Vanberg Viktor J., The Politicization of Market Failure, Public Choice, 57,
101-113, (1988)
Buchanan J. M., Tullock Gordon, The Calculus of Consent, Logical Foundations of Constitutional Democracy, University of Michigan, (1962).
Coase R. H., The Problem of Social Cost, Journal of Law and Economics, III, 1-44, (1960).
EMF#4 Working Group, Aggregate Elasticity of Energy Demand, The Energy Journal, Vol.
2, No.2, 37-75, (1981).
International Energy Agency (IEA), Electricity in IEA Countries, Issues and Outlook,
OECD/IEA, Paris, (1985).
Kraus M. and H. Mohring, The Role of Polluttee Taxes in Externality Problems, Economica
42, 171-176, (1975).
Umwelt
150
Mirrlees J. A., The Theory of Optimal Taxation, in Kenneth J. Arrow and Michael D. Intriligator (Ed.), Handbook of Mathematical Economics, Vol. III, 1197-1249, North Holland
(1986).
Mueller D. C., 1989, Public Choice II (Cambridge University Press, Cambridge).
Pearce David, The Role of Carbon Taxes in Adjusting to Global Warming, Economic Journal
101, 938-948, (1991).
Pearce David and R. Kerry Turner, Economics of Natural Resources and the Environment,
Harvester Wheatsheaf, Hertfordshire, (1990).
Pigou A. C., The Economics of Welfare, MacMillan, London, (1920).
Ramsey Frank P., A Contribution to the Theory of Taxation, Economic Journal, 37, 47-61,
(1927).
Robertson David, The Global Environment: Are International Treaties a Distraction, The
World Economy 13, 122-128, (1990).
Sandmo Agnar, Buchanan on Political Economy: A Review Article, Journal of Economic
Literature, XXVIII, 50-65, (1990).
Schweizer Automobilrevue, Jahresausgabe, Sondernummer anläßlich des Genfer Salons, Bern,
March, issues from 1970 on.
Stiglitz Joseph E., Pareto Efficient and Optimal Taxation and the New Welfare Economics,
Handbook of Public Economics, II, 991-1042, North Holland, (1987).
The Economist, Don't green GATT, p 15-16, December 26th, 1992.
Time, Ignore my Lips, 34-36, May 21 1991.
von Weizsäcker, Ernst U., Global Warming and Environmental Taxes, International Journal
of Global Energy Issues, 2, 14-19, (1990).
Wirl Franz, Asymmetrical Energy Demand Pattern: Some Theoretical Explanations, Opec Review, 12, 345-359, (1988).
Wirl F., Dynamics of Commodity Taxation - an Example of an Energy Tax, System Dynamics
Review 7, 145-158, (1991).
Wirl F., The Problem of Social Costs Revisited - The 'Efficiency' of Laissez Faire over
Pigouvian Intervention, to appear in International Review of Economics and Finance 1,
(1992a).
Wirl F., Energy Pricing when Externalities are Taxed, mimeo, (1992b).
Umwelt
151
Wirl F., Pigouvian Taxation of Energy for Stock and Flow Externalities and Strategic, NonCompetitive Pricing, Journal of Environmental Economics and Management, (1994).
Öffentliche Unternehmen
8
8.1
152
Normative Theorie öffentlicher Versorgungsunternehmen
Erklärungen für die Einrichtung öffentlicher Elektrizitätsversorgung
Das häufigste Argument zur Verteidigung des staatlichen oder (wie in den Vereinigten Staaten) öffentlichen Monopols ist die Hypothese, dass in diesen Branchen wachsende Skalenerträge (increasing returns to scale) vorliegen. Daher sei es günstiger, die gesamte Nachfrage von einer Firma - dem natürlichen Monopol - abzudecken, als durch mehrere sich
konkurrenzierende Unternehmen. Dieses (natürliche) Monopol würde sich ohnedies durch
einen Verdrängungswettbewerb einstellen. Da jedoch private Monopole einen überhöhten
Preis verrechnen, entsteht ein Verlust an allgemeiner Wohlfahrt (d. h. der erhöhte Profit des
Monopols kann den Verlust bei den Konsumenten aus den höheren Preisen nicht kompensieren; sogenannter deadweight loss). Zur Korrektur dieser Fehlallokation - oder auch Marktversagen genannt - kann die öffentliche Hand verstaatlichen oder mittels Reglementierungen
die Unternehmen (versuchen zu) zwingen, dass die korrekten Preise verrechnet werden. Dieser Argumentation beugte sich sogar Friedman39. Einzig Demsetz (1968) stellte die Implikation Monopol => Monopolpreise in Frage.
Öffentliche Güter, also Güter, wo Individuen vom Konsum nicht ausgeschlossen werden
können, z. B. Landesverteidigung, Straßenbeleuchtung, Leuchtturm, öffentliche Sicherheit,
Parks etc., werden - trotz ihrer Bedeutung für die allgemeine Wohlfahrt - in der Regel nicht
oder in zu geringem Ausmaße von privaten Unternehmungen bereitgestellt. Somit muss hier
der Staat einspringen und diese Dienstleistungen bereitstellen (Samuelson 1955). Diese Theorie hat jedoch einige Schwächen. So sind rein öffentliche Güter selten anzutreffen und einige
solcher öffentlichen Güter können und werden durchaus auch privat angeboten. So ist Fernsehen ein (nahezu) perfektes Beispiel für ein öffentliches Gut, weil niemand vom Konsum ausgeschlossen werden kann40. Trotzdem sind international zahlreiche private Fernsehanstalten
eingerichtet. Andere Güter verdienen diese Charakterisierung "öffentliche Güter" nur über
einen gewissen Nutzungsbereich, da bei erhöhtem Gebrauch Überfüllung (congestion) auftritt
und die Konsumenten eigentlich bereit wären, für eine Reduzierung der Überfüllung zu zahlen; Beispiele dafür sind öffentliche Parks, Naturdenkmäler und Straßen.
Als Brücke zwischen den reinen öffentlichen und den privaten Gütern führen Buchanan
(1965) und Olson (1965) die Klubtheorie ein, die versucht, freiwillige Vereinigungen wie
Klubs, Genossenschaften etc. bei "unreinen öffentlichen Gütern" zu erklären. Die folgende
Darstellung folgt Sandler-Tschirhart (1980) und Cornes-Sandler (1986). Die Klubtheorie ist
ein Versuch, soziale Vereinigungen vom individuell rationalen Standpunkt zu erklären. So
könnte über die Idee von Klubs das Problem fallender Durchschnittskosten und der daraus
entstehenden Defizite durch Grenzkostentarife beseitigt werden. Es wird ein Klub, etwa der
Strombezieher, gegründet mit einer Eintrittsgebühr und festen Preisen für die abgenommenen
39"There
is unfortunately no good solution for technical monopoly. There is only a choice among three evils:
private unregulated monopoly, private monopoly regulated by the state, and government operation".
40Falls das Signal nicht gestört wird und der Empfang kein entsprechendes Decodiergerät benötigt, ist Fernsehen
ein perfektes öffentliches Gut.
Öffentliche Unternehmen
153
Mengen. Die Eintrittsgebühren41 können dazu verwendet werden, die Fixkosten abzudecken.
Der Anreiz für diesen Klub ist es, fixe Kosten gemeinsam zu teilen und so zu niedrigeren
Durchschnittskosten zu gelangen.42
Manche der sogenannten gemeinwirtschaftlichen Unternehmungen können als ein Klub interpretiert werden. Wenn ein Klub einmal existiert, so tendiert er dazu, auch andere Aufgaben zu
übernehmen, bei denen kein separater Verband zustande käme. So übernahmen Arbeitervertretungen auch den Konsumentenschutz. Die Existenz solcher Klubs und Vereinigungen,
eventuell basierend auf rechtlichen oder anderen institutionellen Grundlagen, fördert öffentliche Eingriffe.43 Dies erklärt unter anderem das weite Spektrum von Aufgaben, die von den
Sozialpartnern in Österreich übernommen wurden.
Einige Beispiele für öffentliche Unternehmen und Einrichtungen fallen unter den Sammelbegriff Infrastruktur und soziales overhead Kapital. Da private Firmen diese Güter nicht - oder
nicht in ausreichendem Maße - zur Verfügung stellen, muss die öffentliche Hand einspringen.
Mehr sogar, die Proponenten einer expansiven öffentlichen Infrastrukturpolitik argumentieren, dass diese Investitionen das Wachstum des privaten Sektors erhöhen. Dieses Argument
ist sowohl merkantilistisch als auch paternalistisch44. Es gibt keine Hinweise darauf, was der
Staat tatsächlich tun sollte und was er wirklich tut. Dies führt zur Überbetonung und teilweise
ungenügender Begründung meritorischer Güter (merit wants) wie "Energiesparen", "Versorgungssicherheit" im Falle energiewirtschaftlicher Fragen; ein anderes Beispiel wäre "Bildung" (eines der Hauptargumente für das Rundfunkmonopol, kostenlose Schul- und Universitätsbildung).
Der Staat ist in der Regel ein schlechter und in den seltensten Fällen ein innovativer Unternehmer. Nahezu alle - heute öffentlichen - Unternehmen wie Bahn, Strom, Gas usw. gehen
auf private Initiativen zurück. Erst später wurden diese Unternehmungen von der öffentlichen
Hand übernommen. Zusammenfassend kann diese Hypothese fehlender Unternehmer kaum
als Erklärung für den heutigen öffentlichen Einfluss dienen. Jedoch spielen meritorische Güter eine gewisse Rolle für staatliche Unternehmungen im allgemeinen und im besonderen in
der Energiepolitik. Daraus werden unterschiedlichste Regulierungen und die phantasievollsten
41Die
Eintrittsgebühr kann im allgemeinen auch negativ sein, wenn zusätzlicher Benützer positive Externalitäten
verursacht, etwa in einem Kommunikationssystem.
42Dieser Gedanke ist eventuell für die öffentlichen Verkehrsunternehmen bedeutender als für die Elektrizitätswirtschaft. Ein Auto wird von den Individuen wegen der Summe der zur Verfügung gestellten Mobilität gekauft.
Bei der Evaluierung jeder spezifischen Fahrt, etwa ins Büro, Ausflug etc., werden jedoch korrekterweise nur die
Grenzkosten betrachtet. Die öffentlichen Unternehmen verrechnen jedoch Durchschnittskosten (wenn man von
den direkten und indirekten Subventionen absieht), was daher den Individualverkehr begünstigt.
43Diese möglicherweise marktfeindlichen Konsequenzen sind altbekannt wie aus dem folgenden und bekannten
Zitat von Adam Smith (1930) erkennbar ist: "People of the same trade seldom meet together, even for merriment
and diversion, but the conversation ends in a conspiracy against the public, or in some contrivance to raise prices. It is impossible indeed to prevent such meetings, by any law which could be either executed or would be
consistent with liberty and justice. But though the law cannot hinder people of the same trade form sometimes
assembling together, it ought to do nothing to facilitate such assemblies; much less to render them necessary."
44Immanuel Kant, Eine Regierung, die auf dem Prinzip des Wohlwollens gegen das Volk ... errichtet wäre, d.i.
eine väterliche Regierung (imperium paternale) ..., ist der größte denkbare Despotismus.
Öffentliche Unternehmen
154
und widersprüchlichsten Eingriffe abgeleitet, wie an den obigen Beispielen bereits angedeutet
wurde.
Weiter können öffentliche oder aber auch gemeinwirtschaftliche Unternehmen die Rolle
eines "Hechtes im Karpfenteich", Hesselbach (1966)45, eines ansonsten monopolistisch oder
oligopolistisch organisierten Marktes privater Güter übernehmen; Vogelsang (1982) versucht
eine analytische Betrachtung dieses Ziels. Die jüngere Erfahrung mit solchen Unternehmen,
etwa der Neuen Heimat (in Deutschland), Bauring (in Wien), zeigt, dass die Firmen entweder
wie die privaten Unternehmen agieren - also kein Hecht mehr sind (z. B. Konsum, Bawag, die
Versicherungen im öffentlichen Besitz nach der Freigabe der Kfz-Versicherung usw.) - oder
aber bankrott gehen bzw. direkte oder indirekte öffentliche Subventionen benötigen.
Thiemeyer (1983) und auch Nowotny (1987) versuchen den (deutschen) Begriff der "Gemeinwirtschaftslehre" zu verteidigen, ohne jedoch das fehlende theoretische Gerüst zu liefern. Insbesondere werden übliche ökonomische Kriterien wie Grenzkostenpreise, keine
Quersubventionen dem Ziel des "gemeinsamen Wohles" geopfert, nach dem Motto: "Wenn es
für das allgemeine Wohl ist, was ist dann daran schlecht?". Die Bedeutung dieser Theorie für
die Entwicklung öffentlicher Unternehmen im deutschen Sprachraum ist nicht zu unterschätzen. Jedoch das "allgemeine Wohl" ist operational ein kaum Fassbarer und möglicherweise sogar ein gefährlicher Begriff; Kaufer-Blankart (1983) und Smekal (1986) kritisieren
deshalb auch diese Theorie.
Ein weiteres gebräuchliches Argument für staatliche Intervention bezieht sich auf langsame
oder oszillierende Marktanpassungen, wenn die Marktpreise - etwa entlang eines Spinnweb
(oder bekannter cob-web) Anpassungsprozesses - stark schwanken. Aus schwankenden Preisen resultiert unter Umständen ein Wohlfahrtsverlust bedingt durch notwendige Anpassungskosten, so dass eine gewisse Regulierung gerechtfertigt sein mag. Zum Beispiel unterliegen
Taxitarife international einer Preisregelung.46
8.2
Ramsey-Preise
Vorteile der Großproduktion gegenüber kleineren Produktionseinheiten über den gesamten
bzw. für eine Volkswirtschaft relevanten Bereich führen zu natürlichen Monopolen. Dieser
Vorteil der Großproduktion wird häufig mit dem Begriff zunehmender Skalenerträge (increasing returns to scale) verbunden.47 Im Falle mehrerer sich konkurrenzierender Firmen kann
der Kostenvorteil der Großproduktion nicht komplett ausgenützt werden. Deshalb besteht für
die effizienteste Firma der Anreiz diese Monopolposition zu gewinnen. Dieser Kostenvorteil
rechtfertigt die Existenz einer einzigen Firma aus wohlfahrtstheoretischen Überlegungen. Dabei kann eine vom Monopol abweichende Marktform, etwa durch Verstaatlichung, das Prei-
45Hesselbach war Vorstandsdirektor der Bank für Gemeinwirtschaft, die dem deutschen Gewerkschaftsbund gehört.
46Eine neue und interessante Begründung für Staatsinterventionen bei zyklischen Prozessen (in einer perfekten
Welt mit rationalen Erwartungen) findet man in Grandmont (1985), während Benhabib-Nishimure (1979), Wirl
(1992), Feichtinger-Novak-Wirl (1993) zeigen, daß solche Oszillationen durchaus auch optimal sein können!
47Tatsächlich sind wachsende Skalenerträge weder notwendig noch hinreichend für ein natürliches Monopol
sondern die Subadditivität der Kosten.
Öffentliche Unternehmen
155
sen nach Monopolregeln und die damit verbundenen Effizienzverluste vermeiden helfen. Die
Verstaatlichung der natürlichen Monopole erfolgte, zumindest teilweise auch aus Gründen der
ökonomischen Effizienz, denn die Monopole setzen 'falsche' Preise.
Die übliche Lösung, Preis=Grenzkosten, wird von vielen als "erstbestes" Optimum verstanden; das anfallende Defizit solle durch Steuern, am besten Kopfsteuern (lump sum taxes) gedeckt werden. Dieser Vorschlag ist nicht so unrealistisch wie er im ersten Moment erscheinen
mag, da er tatsächlich und sogar häufig angewandt wird; z. B. ist das Überqueren von Brücken, das Benützen der Gehsteige, Parks etc. umsonst (weil bei öffentlichen Gütern die
Grenzkosten, d. h. die Kosten durch meine zusätzliche Benutzung verschwindend gering
sind). Die allgemeine Anwendung dieses Prinzips führt jedoch zu Problemen, etwa: Es kann
nicht entschieden werden, ob die Produktion dieses Gutes/Dienstleistung überhaupt sinnvoll
ist, weil bei geringen Grenzkosten und entsprechendem Preis immer eine Nachfrage anfällt,
aber der soziale Nutzen so gering sein kann, dass damit verbundene, eventuell hohe Fixkosten
nicht zu rechtfertigen sind. Oder, da Kopfsteuern kaum möglich sind, führt jede andere Steuer
selbst zu Verzerrungen und Fehlallokationen, und es ist a priori nicht klar, welche Alternative
- Abweichen von Grenzkostenpreisen zur Kostendeckung oder Einkommenssteuer - effizienter ist. Weiter fehlt, wenn das Defizit ohnedies abgedeckt wird, jeder Anreiz für das Management, zumindest Kostenminimierung zu betreiben (siehe ÖBB).
Aus all diesen Überlegungen kommt kostendeckenden Tarifen, oder auch Eigenwirtschaftlichkeitsregel genannt, eine besondere Bedeutung zu. In anderen Worten, die Preise
müssen simultan zwei unterschiedliche Funktionen erfüllen: sie sollen - so weit wie möglich eine effiziente Allokation gewährleisten, gleichzeitig jedoch genug Einnahmen liefern, um die
Kosten abzudecken. Diese zusätzliche Randbedingung der Kostendeckung führt dazu, dass
das eigentliche Optimum nicht mehr erreicht werden kann. Deshalb spricht man von "zweitbesten" (second best) Lösungen.
Aus der Bedingung nach Eigenwirtschaftlichkeit wird oft geschlossen, dass Durchschnittspreise verrechnet werden müssen. Dies folgt jedoch nicht aus dieser Annahme und
führt zu, vermutlich großen, (Wohlfahrts-) Verlusten, wie im folgenden an einfachen Beispielen illustriert wird. So ist die Verwendung von natürlichen Einheiten zur Aufteilung der
Gesamt- (oder bereits besser der Fix-) Kosten absolut willkürlich. Angenommen, die Bahn
will die Fixkosten entlang einer Linie auf drei unterschiedliche Speditionsaufträge für Diamanten, Federn und Granitsteine aufteilen. Jedoch jede scheinbar natürliche Einheit wie Gewicht, Volumen und Wert führt zu einer komplett unterschiedlichen Reihung der entsprechenden "Durchschnittskosten". Zur effizienten Aufteilung der Fixkosten, das sind die - wie
schon der Name sagt - der Produktion nicht zuordenbaren Kosten, betrachte folgendes Beispiel.
Beispiel (nach Baumol-Willig (1983)): Eine Eisenbahnlinie mit einer Länge von 10 Meilen
soll 1 Million Tonnen Kohle und 1 Million Tonnen Holz transportieren. Die Kosten für die
Erhaltung der Linie betragen $2 Millionen und die variablen Kosten belaufen sich auf 10
cents pro Tonne und pro Meile. Der Ertrag für den Spediteur beträgt bei Holz 16 cents und bei
Kohle 26 cents jeweils pro Tonne und Meile. Die Festlegung des Preises mit 20 cents pro
Tonne und Meile scheint fair, da beide Aufträge dieselben variablen Kosten haben und die
erwarteten Einnahmen von $4 Millionen genau die Kosten abdecken. Jedoch bei einem Tarif
Öffentliche Unternehmen
156
von 20 cents findet der Holztransport nicht statt, da dies einen Verlust für den Spediteur von
4 cents pro Tonne Holz und pro Meile Transport bedeutet. Durch den Ausfall des Holztransportes müßte nun der Kohletransport die gesamten Fixkosten plus die variablen Kosten abdecken. Bei dem entsprechenden Tarif von 40 cents kommt jedoch auch die Spedition der
Kohle nicht zu Stande. Betrachten wir jedoch die am Markt orientierten Preise von 25 und 15
cents je Tonne und Meile für Kohle und Holz. Bei diesen Preisen kommt der Transport zu
Stande, liefert der Eisenbahnlinie die notwendigen Einnahmen von $4 Millionen zur Kostendeckung, und die Spediteure selbst verdienen dabei jeweils $100000, verglichen mit dem
Bahndefizit von $2 Millionen bei 'fairen' Durchschnittspreisen.
Dieses Beispiel unterstreicht bereits alle wichtigen Elemente der
Ramseypreisregel:
1. Die relativen Aufschläge über den Grenzkosten (oder variablen Kosten) dürfen nicht
auf der Basis durchschnittlicher, historischer, buchhalterischer Aufwendungen basieren, sondern müssen proportional dem entsprechenden Wert (der marginalen Zahlungsbereitschaft) getroffen werden. Dieser Wert ist reziprok zur (absoluten) Preiselastizität der Dienstleistung oder des Gutes, so dass eine hohe (niedrige) Preiselastizität hohe (niedrige) Flexibilität und daher geringen (hohen) Verlust aus einer Preiserhöhung
signalisiert.
2. Die Aufschläge müssen in Summe so gewählt werden, dass Kostendeckung gewährleistet ist.
Arithmetisch stellt sich diese Preisregel für jede angebotene Dienstleistung i = 1,...,n, n Anzahl der angebotenen Dienstleistung (z. B. Strom differenziert nach Tag und Nacht, Sommer
und Winter und nach Konsumentegruppen, Industrie, Gewerbe, Haushalte) so dar:
Preis(i) - Grenzkosten(i)
----------------------------- = Konstante (Ramseyzahl) x reziproke Preiselastizität,
Preis(i)
so dass der relative Aufschlag über die Grenzkosten (linke) Seite proportional zur reziproken
Preiselastizität sein muss.
Die Bedingung verlangt zuallererst, dass die Preise über den (marginalen) Gestehungskosten
liegen müssen und dass jene Güter, die durch eine geringe Nachfrageelastizität charakterisiert
sind, mehr zur Abdeckung der Fixkosten beitragen sollen; also bei Gütern mit hoher Nachfrageelastizität wird der Preis relativ nahe an den Grenzkosten orientiert, während inelastische
Nachfragen einen hohen Aufschlag über den Grenzkosten bezahlen. Es gilt (approximativ),
dass in diesem second best Optimum alle Güter um denselben Faktor aus der ('erst besten')
Lösung, wo die Nachfrage durch Grenzkostenpreise bestimmt ist, verschoben sind.
Die Konstante - sie wird auch oft als Ramsey-Zahl bezeichnet - muss dabei so gewählt werden, dass die Kostendeckung gewährleistet ist. Die politischen Randbedingungen, dass einer
öffentliche Firma ein gewisses Defizit erlaubt wird (wie z. B. der Bahn) oder ein Min-
Öffentliche Unternehmen
157
destprofit erbracht werden muss, bestimmen somit das Preisniveau und die Ramsey-Preisregel
die Preisverhältnisse, d. h. die optimale Preisdifferenzierung.
Die Preiselastizität approximiert den Wert eines Gutes bzw. einer Dienstleistung. Dienstleistungen mit einem hohen Wert für den Konsumenten werden eine geringe Preiselastizität aufweisen (und umgekehrt). Denn, wenn im Falle einer Preiserhöhung nur mit geringer Nachfrageänderung reagiert wird, dann muss der Wert des entsprechenden Gutes für den Konsumenten hoch sein, d. h. weit über dem Preis liegen. Somit sollen jene Dienstleistungen mit hohem
Wert für die Konsumenten mehr zur Abdeckung der nicht zuordenbaren Kosten beitragen, anstatt einer an Durchschnitten, oder auf der Basis anderer ad hoc Verfahren, orientierten Aufteilung. Dieses Schema kann daher in gewissem Sinne als egalitär bezeichnet werden, weil
(approximativ) der Beitrag zur Fixkostenabdeckung proportional dem Wert der unterschiedlichen Dienstleistungen entspricht.
Die Konsequenz wohlfahrtsoptimaler Tarife besteht darin, dass inelastische Konsumentengruppen die Hauptlast der Fixkosten tragen. Dieser "asoziale" Aspekt - die geringe Preiselastizität korreliert oft mit wenig Wahlmöglichkeiten (z. B. Abhängigkeit vom öffentlichen
Verkehrssystem, wenn kein PKW vorhanden ist) - erklärt die Grenzen der direkten Anwendung dieses Konzeptes. Dieses Problem kann durch explizite Inkorporation egalitärer Ziele
berücksichtigt werden - die sogenannten Feldstein-Preise nach Feldstein (1972). Dieser Ansatz garantiert - zumindest im allgemeinen - nicht, dass "notwendige" Güter billiger werden,
obwohl die Inkorporation egalitärer Ziele notwendige Güter gegenüber Luxusgütern tendenziell favorisiert wird; vergleiche Bös (1986). Darüberhinaus provozieren Feldstein-Preise
durch exzessive Besteuerung der Luxusgüter die Konkurrenz privater Unternehmen, was
langfristig auch bei rigiden Abschottungen des öffentlichen Monopols die Einnahmebasis für
diese Quersubventionen eventuell gefährdet.
Dieses Thema korrekten Verhaltens öffentlicher und/oder natürlicher Monopole ist von besonderem aktuellen Interesse sowohl aus politischen Gründen (Reprivatisierungsdebatte, Reprivatisierung vieler öffentlicher, bisheriger Monopolunternehmen in England) als auch aus
theoretischen Überlegungen durch die neue Theorie anfechtbarer Märkte (contestable markets), Baumol-Panzar-Willig (1982, 1989). Letzere Theorie besagt, dass auch ein Monopol,
wenn der Markt offen gegenüber Eintritt und Verlassen ist, sozial korrekte (Ramsey-Preise)
und weder überzogene noch ineffiziente Preise verrechnet.
8.2.1
Ableitung der Ramsey-Preise
Wir betrachten ein öffentliches Multiprodukt Unternehmen, das die n-Produkte x = (x1,...,xn)t
herstellt48. Die Produktion erfolge unter zunehmenden Skalenerträgen, so dass das öffentliche
Unternehmen ein natürliches Monopol darstellt und Grenzkostenpreise zu Defiziten führen
würden. Dieses Unternehmen soll eine effiziente Preisstrategie anwenden unter der Randbedingung der Kostendeckung. Als Wohlfahrtskriterium W(.) wird für die folgende Argumentation auf die Konsumentenrente zurückgegriffen, wobei x = f(p) bzw. ausgeschrieben:
48
t steht für transponieren.
Öffentliche Unternehmen
xi = fi(p1,p2,...,pn) i = 1,..,n
158
(5.1)
die Nachfragefunktionen abhängig von den Preisen p = (p1,..., pn)t beschreibt. Diese Formulierung nimmt implizit an, dass die Einkommenseffekte durch öffentliche Preisgestaltung gering sind. Zur weiteren Vereinfachung unterstellen wir, dass die einzelnen Nachfragen unabhängig sind49, so dass:
xi = fi(pi), fi' < 0.
(5.1')
Die Konsumentenrente, die definiert ist als das Kurvenintegral, ist dann unabhängig vom Integrationspfad und durch:

 n
n
W(p)=   fi dui = 
i =1
pi i =1


 fidui
pi
(5.2)
gegeben50. Die Ertragsfunktion des Unternehmens, (p), ergibt sich als die Differenz der Einnahmen weniger den Aufwendungen an Produktionskosten (C(x)):
n
(p) =  fi(p)pi - C(f1(p),...,fn(p))
(5.3)
i=1
wobei die Nachfragebeziehungen sowohl zur Umsatz- als auch zur Kostenbestimmung herangezogen werden. Unter diesen Annahmen müssen wohlfahrtsoptimale, gleichzeitig aber kostendeckende Preise so gewählt werden, dass sie die Konsumentenrente (5.2) unter Beschränkung keiner Verluste maximieren:
max W(p) so dass (p) = 0
p
(5.4)
Die Analyse dieses Problems von Lagrange liefert, nach Definition der Lagrange-Funktion L:
L = W + µ
(5.5)
mit dem Lagrange Multiplikator µ die folgenden notwendigen Optimalitätsbedingungen:
49Diese
Ableitung kann auf Kreuzpreiseffekte verallgemeinert werden mit demselben Ergebnis, wenn man eine
entsprechende 'Superelastizität' anstatt der Preiselastizität einsetzt, Baumol-Bradford (1970).
50Die Nachfragefunktionen sind so angenommen, daß für alle Preiskombinationen die Nachfrage nichtnegativ
wird. Dies bedeutet, daß die Konsumenten nicht selbst mit den Gütern zu handeln beginnen.
Öffentliche Unternehmen
159
-xi + µ(fi'pi + xi - Cifi') = 0, i = 1,...,n
(5.6)
=0,µ0
(5.7)
wobei die Funktionsargumente unterdrückt wurden. Ci:=C/xi beschreibt die Grenzkosten
der Erzeugung des i-ten Gutes. Herausheben von fi' aus der Klammer von (5.6) und Division
durch fi' liefert:
-(1 - µ)(xi/fi') + µ(pi - Ci) = 0
(5.8)
Umformen, Verwendung von:
fi pi
i:=-  -pi zi
(5.9)
von i für die Bezeichnung der (absoluten) Preiselastizität51 des i-ten Gutes und Vereinfachung aufgrund der Annahme (5.1') liefert für die optimale Preisregel:
pi-Ci
1 (1-a)
 = -- 
pi
i a
(5.10)
bzw. für das Preisverhältnis zwischen den Gütern i, j:
(pi-Ci)/pi j
 = -(pj-Cj)/pj i
(5.11)
Die sozial-optimale Preisregel (5.10) hat, mit Ausnahme des Proportionalitätsfaktors und der
Profite, dieselbe Struktur wie die eines privaten Monopols. Der private Monopolist maximiert
direkt seinen Profit , Gleichung (5.3), indem er die Grenzeinnahmen mit Grenzkosten ausgleicht.
Grenzeinnahmen (MRi) = pi + xi/fi' = Ci =Grenzkosten
(5.11)
Diese Beziehung (5.11) des optimalen Monopolpreises lautet in der Form der inversen Elastizitätsregel:
51Die
Elastizität _i gibt die prozentuelle Nachfragereduktion bei einer 1 % Preiserhöhung an.
Öffentliche Unternehmen
pi-Ci 1
 = -pi
i
160
(5.12)
Die Monopolpreise übersteigen die sozial optimalen Preise, da öffentliche Firmen gegenüber
den Monopolpreisen den proportionalen Abschlag von [(1-µ)/µ] in (5.10) gegenüber der Monopolregel (5.12) gewähren; oder umgekehrt: die öffentliche Firma benimmt sich wie ein
Monopolist, aber inflationiert zuerst die Preiselastizitäten mit dem Faktor [µ/(1-µ)].
Der Monopolist ist der eine Grenzfall einer öffentlichen Firma, wenn die Ramsey-Zahl genau
1 wird und nur Profitmaximieren die Kosten abdeckt. Der andere Grenzfall, der Aufschlag
über die Grenzkosten verschwindet (oder µ = -1), ergibt sich, wenn die Grenzkostenpreise
kostendeckend seien. Falls Grenzkostenpreise zu finanziellen Überschüssen führen, würde µ
weiter steigen und Ramsey-Preise einen Abschlag gegenüber den Grenzkosten bedeuten.
Letztere Anwendung ist unökonomisch, da erstbeste, Grenzkostenpreise, möglich wären.
8.3
Spitzenlastpreisbildung
Der zweite wichtige Ansatz der öffentlichen Tarifierung geht von linearer Produktionstechnologie aus. Dabei wird vorausgesetzt, dass die Nachfrage in unterschiedlichen Perioden unterschiedliches Niveau hat und dass das produzierte Gut nicht gelagert werden kann.
Die zu installierende Kapazität steht aber dann in allen Perioden - quasi als freies Gut - zur
Verfügung. Das zentrale Problem ist die Aufteilung dieser Kapazitätskosten auf die verschiedenen Perioden. Dieser Ansatz geht zurück auf Steiner (1964). Das Buch von Crew-Kleindorfer (1979) gibt eine exzellente Darstellung dieser Theorie. Die lineare Produktionstechnologie ist charakterisiert durch variable Kosten b und Kapazitätskosten ß je installierte Einheit Kapazität.
Im Gegensatz zu den Annahmen in den vorherigen Ansätzen gibt es keine zunehmenden Skalenerträge (daher auch und keine Fixkosten), sondern eine Technologie mit zwei Kostenkomponenten für Produktion und Kapazität. Die Analyse optimaler Preisbildung bei unterschiedlichem Bedarf über die Zeit und unter der Annahme hoher Investitionskosten in die
notwendigen Kapazitäten spielt eine zentrale Rolle in der Diskussion über öffentliche Tarife.
Diese Bedeutung wird für die Elektrizitätswirtschaft noch verstärkt durch die Tatsache, dass
die Variationen der Nachfrage gekoppelt sind mit der Unmöglichkeit Strom, wie viele andere
Produkte (etwa Heizöl), zu lagern. Dementsprechend groß ist die Literatur zu diesem Thema
mit einem eigenen Schwergewicht für Elektrizität.
Die lineare Produktionstechnologie garantiert Kostendeckung bei Anwendung des Prinzips
von Grenzkostenpreisen. Dies gilt jedoch nur für deterministische Ansätze. Stochastische
Überlegungen der Spitzenlasttariffierung zeigen, dass die finanzielle Tragfähigkeit nicht gegeben sein muss, Brown-Johnson (1969), Crew-Kleindorfer (1979). In diesen Fällen entsteht
ein Subventionsbedarf, oder aber es müssen zweit-beste Tarife - also Modifikationen der
Grenzkostentarife ähnlich zu Ramsey-Preisen - angewandt werden.
Das Prinzip der Spitzenlasttariffierung kann an Hand des folgenden einfachen Falles dargelegt
werden. Ein öffentliches Versorgungsunternehmen produziert und vertreibt ein Gut unter den
Öffentliche Unternehmen
161
folgenden Voraussetzungen. Die Nachfrage teilt sich in 2 gleich lange Abschnitte (etwa
Sommer- und Winterhalbjahr, oder Tag und Nacht), wobei sich die Spitzenlastproblematik
daraus ergibt, dass in der Periode 2 bei gleichen Preisen eine höhere Nachfrage resultiert. Wie
schon angedeutet sind die Produktionskosten linear: die (variablen) Erzeugungskosten belaufen sich je Einheit auf b; die Kapazitätskosten je Produktionseinheit pro Periode, belaufen
sich auf ß, so dass die gesamten Kapazitätskosten sich ergeben aus dem Produkt ß mal der zu
installierenden Kapazität (q). Diese Kapazität ist identisch mit dem Maximum der Nachfrage,
weil Rationierung ausgeschlossen wird.
Die Preise p1 und p2 sollen so gewählt werden, dass die gesellschaftliche Wohlfahrt (Konsumenten- plus Produzentenrente) maximal wird. Die Lösung dieses Spitzenlastproblems ist im
folgenden graphisch dargestellt. In der folgenden Analyse und in den Abbildungen muss zwischen zwei Varianten unterschieden werden:
(i) die strenge Spitzenbelastung,
(ii) wandernde Spitze.
Im Falle (i) - der strengen Spitze, so dass nach wie vor in der Periode 2 die Spitzenbelastung
anfällt - sind die optimalen Preise durch:
p1=variablen Kosten=b
p2=Kapazitätskosten plus variable Kosten ß + b
gegeben, d. h., die Kapazitätskosten werden alleine durch den Bedarf in der Spitzenlastperiode abgedeckt, während außerhalb der Spitze nur die laufenden (Grenz-) Kosten
verrechnet werden. Dieses Ergebnis ist eine unmittelbare Konsequenz der Aussage, dass
Grenzkostenpreise optimal sind, da eine Produktionstechnologie mit konstanten Skalenerträgen vorausgesetzt wurde. Die Abb. 8.1 gibt eine graphische Darstellung der Lösung
im Falle einer festbleibenden Spitze.
Die polare Preisregel ist jedoch nur solange optimal als bei den obigen Preisen, keine Verschiebung der Spitzenebelastung (von der Periode 2 in die Periode 152), wegen der möglicherweise stark unterschiedlichen Preise stattfindet.
52Ein Beispiel dafür war der sogenannte "Mondscheintarif", der das Telefonieren in der Bundesrepublik und den
Abend- und Nachtstunden verbilligte. Diese Maßnahme, die gedacht war die Spitzenbelastung des Telefonnetzes
untertags zu entlasten, führte dann zu neuerlichen und unerträglichen Spitzen in den Abendstunden, so dass
dieser Tarif wieder aufgelassen werden mußte.
Öffentliche Unternehmen
162
ÖS
Nachfrage
D1
p2
b+ß
p1
b
D2
q1
q2
Menge
kWh
Abb.8.1: Optimale Tarife bei festbleibender Spitzenbelastung
Führt aber diese Preisregel zu einer Verschiebung, spricht man von einer wandernden Spitzenbelastung - Fall (ii). In diesem Falle können jedoch die obigen Preise nicht mehr optimal
sein, da sie auch keine Grenzkostenpreise mehr sind. Die optimalen Preise müssen nun so
gewählt werden, dass der gesamte Erlös die gesamten Kosten abdeckt. Die Aufteilung auf die
einzelnen Perioden erfolgt durch jene Preise, die bei Produktion an der Kapazitätsgrenze (in
beiden Perioden 1 und 2 wird jetzt gleich viel produziert) den Markt räumen. Daraus folgt,
dass beide Nachfragesegmente einen Beitrag zur Abdeckung der Kapazitätskosten leisten, dass jedoch die Nachfrage während der Spitzenperiode einen höheren Anteil an den
Fixkosten abdecken muss, weil p2 > p1 > b. Dieses Ergebnis rechtfertigt z. B. eine Diskriminierung zwischen Winter- und Sommerstrom, Tag- und Nachtstrom. Mehr sogar, diese
Diskriminierung ist auch gerechtfertigt, wenn die daraus resultierende Nachfrage etwa in der
Nacht das Niveau der Nachfrage am Tag erreicht. Die einzige dafür notwendige und realistische Bedingung ist, dass bei gleichen Preisen die Nachfrage untertags höher wäre.
Eine Darstellung der Aufteilung der Kapazitätskosten bei wandernder Spitzenbelastung ist in
der Abb.8.2 unten gegeben. Zuerst werden die beiden Nachfragefunktionen zur gesamten
Nachfrage aufaddiert. Wo die aggregierte Nachfrage die gesamten Kosten 2b + ß schneidet,
liegt die optimale zu installierende Kapazität. Die Kapazität wird in beiden Perioden ausgelastet, d. h. x1 = x2 = q. Die entsprechenden markträumenden Preise ergeben sich aus dem
Schnittpunkt der vertikalen Angebotskurve mit den einzelnen Nachfragekurven.
Öffentliche Unternehmen
163
ÖS
D1 + D2
2b + ß
D2
D1
b+ß
p2
p1
b
q1
q2
q1 = q2 = x
Menge
kWh
Abb. 8.2: Optimale Tarife bei wandernder Spitzenbelastung
Das wichtigste und auch robuste Ergebnis dieser Analyse besteht darin, dass der Bedarf,
der ursprünglich die Spitzenbelastung (bei konstanten Preisen) verursacht, einen höheren Beitrag zu Kapazitätskosten liefern soll, als die Nachfrage außerhalb der Spitze; bei
ausgeprägter Spitzenbelastung und/oder niedrigen Kapazitätskosten sollte diese Periode
allein die Kapazitätskosten tragen.
8.3.1
Anwendung: Zeitvariable Tarife
Die beiden normativen Theorien, die der Ramsey-Preise und die der Preisbildung bei Spitzenlastproblemenen, liefern die Grundlage für neue, zeitlich differenzierte Tarifsysteme, sogenannte Time-of-Use Tariffs oder kurz TOU Tarife. Neben zahlreichen akademischen Ar-
Öffentliche Unternehmen
164
beiten zu diesem Thema, wurden auch bereits mehrere Experimente (in den USA) unternommen. Unter Berücksichtigung der Erhöhung der Messkosten ist die Abwägung zwischen dem
Nutzen dieser Tarife und den (Mess-) Kosten gemischt; siehe Aigner (1986).
Tabelle 1.1 Fasst einige Arbeiten zu diesem Thema zusammen; Quellen: Hirschberg-Aigner
(1983), Berg-Sullivan (1983), Lillard-Aigner (1984), Howrey-Varian (1984), GallantKoenker (1984), Parks-Weitzel (1984), Hausmann-Trimble (1984), Aigner-Leamer (1984),
Rolla-Acton (1984), Woo (1985), Mountain-Hsiao (1986). Die Quintessenz dieser zahlreichen Untersuchungen scheint zu sein, dass die Nachfrage signifikant auf die Preise reagiert, aber die Elastizität insbesondere in der Spitzenperiode oft gering ist und dass die
Wohlfahrtsgewinne - wenn überhaupt - klein ausfallen und überdies starker Preisdifferenzierung bedürfen.
Diese Schlussfolgerungen aus den Experimenten scheinen zu pessimistisch. Mein Argument gegen diese Abschätzungen ist, dass den Teilnehmern keine entsprechend adaptierten Anwendungsgeräte zur Verfügung standen. Daher ist auch die beobachtete geringe Flexibilität der Konsumenten - mit wenigen Ausnahmen - nicht überraschend.
Denn die Entwicklung von entsprechenden Anwendungsgeräten unterblieb natürlich für
diese vereinzelten Experimente, während hingegen bei einer allgemeinen Einführung
zeitabhängiger Tarife - zumindest langfristig - entsprechende Geräte angeboten werden.
Solch flexiblere Anwendungsgeräte werden die Konsumentenreagibilität vermutlich
substantiell erhöhen und dadurch die Kosten-Nutzenbilanz verbessern. Diese Tendenz
wird durch den technischen Fortschritt in Mikroelektronik beschleunigt, der die Messkosten
reduzieren wird. Ähnliches gilt für Firmen. So analysieren Tishler (1984) und Bosworth-Pugh
(1985) darüber hinaus den Einfluss zeitvariabler Tarife auf die Wahl von Arbeitsschichten in
der Industrie. Daher scheinen weitere isolierte Experimente nicht unbedingt notwendig; innerhalb der Vereinigten Staaten sind die bisherigen Ergebnisse - mit der obigen Einschränkung nach Caves-Christensen-Herriges (1986) ohnedies übertragbar.
Dazu kommt noch, dass Experimentteilnehmer unangenehme individuelle Anpassungen für
ein Experiment unterlassen, die sie bei einem lang anhaltenden zeitlich differenzierten Tarif
durchführen würden. Alleine der zweite Aspekt der Konsumentenanpassung zeigt sich deutlich in Filippini (1995), der auf der Basis von Querschnittsdaten für die Schweiz, wo zeitlich
differenzierte Tarife eine lange Tradition haben, ungleich höhere Preiselastizitäten (mit 2 ungefähr einen Faktor 10 über den amerikanischen) ermittelt. Dieser Unterschied an höherer
Flexibilität der Konsumenten hat natürlich signifikant positive Auswirkungen auf eine entsprechende Kosten-Nutzenanalyse.
Öffentliche Unternehmen
165
Tabelle 1.1: Analyse zeitvariabler Tarife-Literaturübersicht
Autoren
Methode
Sektor-Region
Ergebnis
───────────────────────────────────────────────────────────────
Hirschbergtranslog
Southern Cal.
signifikante
Aigner
Edison
Preiselastizitäten
ActonMitchell
Los-Angeles
W>0
BergSullivan
ökonomischtechnisch
kalibriert
W0, Y<0
LillardAigner
CES-Funktion
Southern
California Ed.
W0
Caves
et al.
verallg.
Leontief
Haushalte
Illinois
W<0
ParksWeitzel
translog
v. Leontief
Wisconsin
Haushalte
signifikante Elastiz.
W0
HowreyVarian
CES-Funktion,
Arizona
Haushalte
W0
GallantKoenker
DY>0
Trimble
kont. Zeit
v. Leontief
N. Carolina
Haushalte
W0 Experim.
W>0 optimal
KohlerMitchell
"hybride"
Nachfrage
Querschnitt
Haushalte
CavesChristensen
CES-Funktion
Querschnitt
Haushalte
AignerLeamer
CES
vert. Koeff.
Querschnitt
Haushalte
ParkActon
linear
Querschnitt
Industrie
W>0
Woo
v. Leontief
translog
California
Kleinverb.
keine Haush.
Leontief Spez. ist
robuster, geringe
Effekte auf Spitze
Anwendungen
Ergebnisse können
auf andere Gebiete
übertragen werden
Mountaintranslog, CES
Ontario
substantielle
Cheng
Leontief
Industrie
Substitutionselas.
───────────────────────────────────────────────────────────────
W = gesamter Wohlfahrtsgewinn=Verbesserungen der Konsumentenrente,
Y = reduzierten Kosten - zusätzlichem Meßaufwand.
Öffentliche Unternehmen
8.4
8.4.1
166
Zweigliedrige Tarife
Einleitung
Ein zweigliedriger Tarif, Grundpreis und Arbeitspreis, stellt eine Alternative zu den Ramsey-Preis bedingten Aufschlägen über den Grenzkosten dar, um eventuell auftretende Fixkosten abzudecken und die Abweichung von Grenzkostentarifen zu minimieren. Dieser Vorschlag wird in Coase (1946) als Alternative zur dogmatischen Grenzkostentariffierung (Hotelling, 1938) gemacht. Darüberhinaus wird dieser Tarif traditionell, zumindest in der Elektrizitätswirtschaft, verwendet.
Jedoch erst spätere Arbeiten - insbesondere Schmalensee (1981), aber vgl. auch Oi (1971),
Ng-Weisser (1974) - setzen sich formal genauer mit diesem Vorschlag auseinander und
kommen aber im allgemeinen zu komplizierten, wenn auch zu wohlfahrtsverbessernden, Tarifen, wo der Arbeitspreis trotzdem von den Grenzkosten abweichen kann. Präziser, im Spezialfall identischen Nachfrageverhaltens (respektive dem Arbeitspreis) oder der Möglichkeit individuell differenzierter Grundpreise gilt die Coase'sche Vermutung: Arbeitspreis=Grenzkosten. Hingegen impliziert unterschiedliches Nachfrageverhalten, dass Grenzkostentarife nicht notwendigerweise die optimale Wahl in einem zweigliedrigen Tarif für den
Arbeitspreis darstellen. Der Grund ist, dass unter Umständen ein zu hoher Grundpreis als Reflexion der Fixkosten potentielle Kunden mit niedrigem Bedarf abschreckt, die ungeachtet
dessen kostendeckend durch einen niedrigeren Grundpreis, aber einen höheren Arbeitspreis
bedient werden können und damit die Wohlfahrt erhöhen. Die Komplexität des entsprechenden Tarifs resultiert aus dem notwendigen Ausgleich des Nutzengewinns 'marginaler' Konsumenten (also jene Kunden, die erst durch eine Absenkung des Grundpreises gewonnen werden können) mit dem Verlust 'intramarginaler' Konsumenten (also von "Stammkunden"); letztere erleiden einen Verlust, weil jetzt der Arbeitspreis die Grenzkosten übersteigt und sie daher ihren Bedarf etwas einschränken.53
Da diese Abweichung von der Anschlusselastizizät abhängt, d. h. von der Sensitivität mit
der Kunden das Stromnetz verlassen, und diese Elastizität vernachlässigbar scheint (von
wenigen Wochendhaushalten abgesehen), wäre approximativ zumindest die einfache
Coase'sche Vermutung optimal: der Arbeitspreis entspricht den Grenzkosten, und der
Grundpreis den dadurch nicht gedeckten Fixkosten. Gleichzeitig würde ein zweigliedriger Tarif helfen, andere Probleme (Wochendwohnungen, insbesondere von Ausländern
decken über ihren relativ geringen Bedarf nicht die Fixkosten) zu lösen.
Es ist vielleicht auch noch erwähnenswert, dass zweigliedrige Tarife nur dann sozial optimal
sind, wenn tatsächliche Fixkosten auftreten, dass jedoch ein privater Monopolist mittels zweigliedriger Tarife Konsumentenrente in Gewinn überführen kann, wenn die Produktionstechnologie linear ist (also keine Fixkosten aufweist). Weitere Details und eine stringente Analyse
zweigliedriger Tarife sind im Anhang C zusammengestellt.
53Diese Komplexität der Tarife kann dadurch umgangen werden, indem eine RamseyPreisformel den Grundpreis
festlegt, während sich der Arbeitspreis, wie in Coase (1946), strikt an den Grenzkosten orientiert. Siehe dazu
Wirl (1990), wo auch gezeigt wird, daß eine solche Differenzierung der Fixkostenaufteilung allen Konsumentegruppen nützen kann (am Beispiel des Fernwärmeausbaus).
Öffentliche Unternehmen
8.4.2
167
Ableitung zweigliedriger Tarife
Elektrizitätstarife und auch viele andere öffentliche Dienstleistungen sind durch zweigliedrige
Tarife charakterisiert. Das Recht auf Bezug dieser Dienstleistung wird mittels eines Grundpreises (G) erstanden, während der Arbeitspreis (p) den Preis je konsumierter Einheit bestimmt. Dieser Tarif (G,p) ist ein Beispiel allgemeiner, nichtlinearer Tarife. Die klassische
Arbeit zu diesem Thema ist von Oi im Zusammenhang der Eintrittstarife für Disneyland, der
auch bereits erkannte, dass vermutlich ein Monopol notwendig ist, um diese Tarife zu implementieren. Andernfalls, könnte ein Konkurrent durch lineare Tarife (über den Grenzkosten)
alle jene Konsumenten an sich ziehen, die nur einen geringen Verbrauch haben.
Die Analyse beginnt mit der Vereinfachung, dass die Konsumenten, nachdem sie sich an das
Netzwerk angeschlossen haben, ein identisches Konsumverhalten aufweisen. Die Konsumenten differieren jedoch hinsichtlich ihrer Bereitschaft sich anzuschließen. Unter dieser
Voraussetzung gilt die Vermutung von Ronald Coase (1964)54, dass der Arbeitspreis den
Grenzkosten entspricht. Dies gilt sowohl für Wohlfahrtsüberlegungen als auch für Monopolisten! In der Folge wird dieser Ansatz erweitert auf unterschiedliches Verbraucherverhalten.
Dies führt dann zu komplizierten Tarifen.
Identischer Verbrauch, unterschiedliche Konsumenten
Die aggregierte Nachfrage (X) ist das Produkt der angeschlossenen Konsumenten (n) mal der
Nachfrage des typischen Konsumenten (x), X = xn. Die Nachfrage jedes einzelnen Konsumenten ist unabhängig vom Grundpreis G und hängt nur vom Arbeitspreis p ab. Hingegen
hängt die Anzahl jener Konsumenten, die sich an das Netzwerk anschließen, von den Gesamtkosten, das heißt von beiden Tarifen ab n = n(G,p). Daher folgt X = X(G,p) = x(p)n(G,p).
Die Grundannahme in diesem Kapitel dieses Anhangs ist, dass die Konsumenten ähnlich,
präziser identisch in der Wahl der Dienstleistung sind, falls sie sich an das Netzwerk anschließen. In anderen Worten, der repräsentative Konsument wählt folgendes Nutzenmaximierungskalkül:
v(G,p):=max u(x) – px - G
x
(1)
wobei u eine konventionelle wachsende und konkave Nutzenfunktion beschreibt; v definiert
wie üblich die indirekte Nutzenfunktion. Diese Formulierung abstrahiert implizit von Einkommenseffekten. Das Optimierungsproblem (1) impliziert unmittelbar, dass die Wahl von x
unabhängig vom Grundpreis G ist, d. h. x = x(p) und x' = (1/u'') < 0. Das Envelopentheorem
impliziert:
vG = -1
(2)
und
54Coase attackiert scharf die Befürworter von Grenzkostentarifen falls dies zu Defiziten führt und schlägt anstatt
dessen zweigliedrige Tarife vor.
Öffentliche Unternehmen
vp = -x.
168
(3)
Tiefgestellte Indizes stehen, wie üblich, für partielle Ableitungen, z. B. vG = v/G.
Die Nutzenfunktion u - bzw. v - ist zwar gleich für alle Konsumenten, trotzdem differieren die
Konsumenten hinsichtlich ihres Reservationsnutzens vr, der durch Zurückgreifen auf Alternativen erreicht werden kann. Zum Beispiel im Falle eines Fernwärmeanbieters kann der
Konsument andere Brennstoffe als Öl, Gas, Strom, Holz, Kohle usw. verwenden, um seine
Nachfrage nach thermischem Komfort zu befriedigen. Diese Alternativen liefern einen Nutzen vr. Ein Konsument wird die Dienstleistung x (hier im Beispiel die Fernwärme) nur dann
beanspruchen, falls dadurch der Nutzen erhöht werden kann: v(G,p) > vr. Angenommen, dieser Reservationsnutzen vr ist stetig verteilt (über die Menge der Haushalte) mit einer stetigen
Dichtefunktion f(.). Daher ergibt sich die Anzahl der sich anschließenden Konsumenten aus:
v

n(v)= f(x)dx
0
(4)
und n' = f(v) wegen der Leibniz'schen Regel.
Die Produktionskosten setzen sich zusammen aus nicht zuzuordnenden Fixkosten k0, variablen Produktionskosten c = c(xn) und Kosten, die abhängen von der Anzahl der Konsumenten.
Beispiele für Fixkosten, die je Konsument anfallen, sind wohl bekannt, z. B. die Kosten einen
Konsumenten an ein existierendes Netzwerk anzuschließen. Zur Vereinfachung unterstellen
wir, dass diese "Anschlusskosten" konstant pro Konsument und gleich k sind.
Unter Verwendung des üblichen Wohlfahrtskriteriums, Konsumenten- plus Produzentenrente,
ist folgende Zielfunktion J zu maximieren:
v(G,p)

[v(G,p) - vr]dvr + [px(p) + G - k]n(v(G,p)) - k0 – k - c(x(p)n(v(G,p)))
0

= vn – vr +[px + G - k]n - k0 - c :=J
(5)
:= (Gewinn)
Die erste Linie in (5) listet alle Argumente und verwendet x = x(p), entsprechend der Hypothese, dass (1) die Konsumentenentscheidungen beschreibt. Die zweite Zeile in (5) verwendet (6). Die Definition von:
Öffentliche Unternehmen
v
 

r
v := xf(x)dx und dvr/dv = vf(v)
0
169
(6)
als aggregierter Überschuss, falls die Dienstleistung x für die n Konsumenten nicht möglich
ist, zerlegt die soziale Wohlfahrtsfunktion J in (5) in zwei Ausdrücke, in die Konsumentenrente (vn - vr) und in den Profit . Letzterer ist das Ziel privater Unternehmen.
Das folgende Lemma vereinfacht den Beweis der folgenden Behauptungen.
Lemma 1: p = xG + (p-c')nx'
Beweis: Dieses Resultat folgt aus der multiplikativen Eigenschaft der aggregierten Nachfrage
und den partiellen Ableitungen der indirekten Nutzenfunktion. Partielles Differenzieren von 
und die Verwendung der partiellen Ableitungen aus (2) und (3) ergibt:
G = -n'[px + G - k] + n + c'xn'
(7)
p = -n'x[px + G - k] + [px' + x]n - c'[x'n - x2n']
(8)
Umformen beweist die Behauptung. ▀
Die wohlfahrtsoptimale Politik, Maximierung von J, definiert in (5), muss folgende Randbedingungen beachten, nichtnegative Tarife:
G0
(9)
p0
(10)
und eventuell Kostendeckung für zweitbeste Lösungen:
  0 (11)
Dieses Kalkül führt zu den folgenden notwendigen (und hinreichend, falls J und  konkav
sind) Optimalitätsbedingungen.
JG = -n + (1 + )G + µ1 = 0
(12)
Jp = -nx + (1 + )p + µ2 = 0
(13)
µ1G = 0, µ1  0
(14)
µ2p = 0, µ2  0
(15)
Öffentliche Unternehmen
 = 0,   0
170
(16)
Die Ableitung der Konsumentenrente verwendet wiederum die Ableitungen der indirekten
Nutzenfunktion basierend auf (2) und (3), n' = f folgt aus (4) und die Ableitung dvr/dv = vf
folgt aus (6).
Die wohlfahrtsoptimale Politik ist es, den Arbeitspreis an den Grenzkosten zu orientieren,
p = c'. Der optimale Grundpreis bestimmt sich aus den dem Konsumenten zuzuordnenden
Fixkosten, G = k, falls diese Politik kostendeckend ist, oder falls Defizite keine Rolle spielen.
Im besonderen gilt, dass ein linearer Tarif dann und nur dann optimal ist, wenn keine dem
Konsumenten zuzuordnenden Fixkosten anfallen, k=0.
Beweis: Der Kuhn-Tucker-Multiplikator  verschwindet aufgrund der Voraussetzung, dass
die Profitbeschränkung nicht bindend sei. Substitution von (7) in (12), Ausnützung der Annahme, dass eine innere Lösung G  0 existiert, und einfaches Umformen ergibt:
JG = -n + G = -n'[(p - c')x + G - k] = 0
(17)
Bedingung (13) aber impliziert
Jp = xJG + nx'(p - c') = 0.
(18)
Zusammenfassung von (17) mit (18) bestätigt die Behauptung für innere Lösungen. Jedoch
kann der Grundpreis G keine Randlösung sein, denn G = 0 => JG = -µ1 < 0 => [(p - c') - k]>0
und diese Implikation verletzt (18). Die Unterstellung einer Randlösung G=p=0 impliziert
µ1 > 0 und µ2 > 0, das trivialerweise die Bedingungen (12)-(16) verletzt.▀
Arbeitspreise orientieren sich nach wie vor an den Grenzkosten, p = c', selbst wenn die Forderung nach Kostendeckung bindend ist. Eventuelle Defizite sollten in diesem Fall über den
Grundpreis finanziert werden, wobei eine "inverse Elastitizitätsregel" zur Anwendung kommt:
G n
G-k 1 
 = - --- und := -- -- .
G  1+
n G
(19)
Dabei beschreibt  die Anschluss-Grundpreiselastizität.
Beweis: Angenommen, eine innere Lösung beschreibt die optimale Preisstrategie, also
µ1=µ2=0. Die Hypothese einer Randlösung führt, ähnlich zu den Argumenten im Beweis von
Behauptung 8, zu einem Widerspruch. Umformen der Optimalitätsbedingungen (12)-(16)
ähnlich zu (17) und (18) führt auf:
-n + (1 + )G=0
(20)
-nx + (1 + )p = x[-n + (1 + )G] + (1+)nx'(p - c') = 0 => p - c'=0
(21)
Öffentliche Unternehmen
171
Substitution von (20) in (21) verifiziert wiederum die Optimalität von Grenzkostentarifen.
Einsetzen der Grenzkostentarife in (21) ergibt:
n - (1 + )(G - k)n'=0
(22)
und elementares Umformen beweist die Regel (22).▀
Dieses Ergebnis schlägt unmittelbar folgende Verallgemeinerung auf Multiproduktunternehmen und zweigliedrige Tarife vor. Bei einem Mehrproduktunternehmen soll der Arbeitspreis nicht über die Grenzkosten mittels einer Ramsey-Formel angehoben werden, sondern soll sich an den Grenzkosten orientieren. Hingegen soll eine "inverse Elastizitätsregel",
analog zur Ramsey-Preisregel bei linearen Tarifen, den Grundpreis festlegen. Präziser, der
relative Aufschlag über die (marginalen) Anschlusskosten k soll proportional der reziproken,
absoluten Anschluss-Grundpreiselastizität  sein. Eine andere Interpretation ist die Differenzierung des Grundpreises je Konsumentengruppen basierend auf dieser AnschlussGrundpreiselastizität, falls unterschiedliches Nachfrageverhalten der Haushalte vorliegt.
Lineare Tarife implizieren, dass ein profitmaximierender Monopolist den Preis so wählt, dass
Grenzeinnahmen gleich den Grenzkosten sind. Da die Grenzeinnahmen geringer als der Preis
sind, impliziert dies Tarife über den Grenzkosten. Die Flexibilität eines zweigliedrigen Tarifes
könnte diese Regel modifizieren. Tatsächlich würde ein Monopolist folgenden zweigliedrigen
Tarif verlangen: Der profitmaximierende zweigliedrige Tarif setzt den Arbeitspreis gleich den
Grenzkosten. Der Grundpreis liegt über den Anschlusskosten und konvertiert Konsumentenrente in Monopolprofite. Deshalb würde der Monopolist auch zweigliedrige Tarife bei linearer Produktionstechnologie, k=k0=0, verrechnen.
Beweis: Direkte Konsequenz aus Lemma 1 für innere Lösungen; Randlösungen können wiederum ausgeschlossen werden.▀
Unterschiedlicher Verbrauch
Die obigen Ergebnisse, Arbeitspreis=Grenzkosten und Grundpreis dient zur Defizitabdeckung
(oder für Profit), bestätigen die Vermutung von Coase. Und diese Vermutung wurde hier auf
unterschiedliche Konsumenten verallgemeinert. Es stellt sich jedoch heraus, dass die Annahme identischer Nachfrage nach eventuellem Anschluss dafür essentiell ist. Gibt man diese
Voraussetzung auf, wird die Bestimmung zweigliedriger Tarife kompliziert.
ur Verifikation dieser Behauptung betrachten wir unterschiedliche Konsumenten, etwa zwei
potentielle Konsumenten mit den (parallelen) Nachfragekurven wie in Abb. 8.3 Die Grenzkosten c' seien konstant und die Anschlusskosten unbedeutend, k = 0. Hingegen treten Fixkosten k0 auf, und das Unternehmen muss kostendeckend arbeiten.
Öffentliche Unternehmen
172
X
0
X2
X2
X1
*
X2
*
X1
C’
P*
_
_
P1
P2
P
Abb. 8.3: Ineffizienz von zweigliedrigen Grenzkostentarifen bei unterschiedlichen Konsumenten
Angenommen, der Grenzkostentarif p = c' impliziert für den ersten Konsumenten eine Konsumentenrente v1, die unter den kostendeckenden Grundpreis G = k0/2 fällt, also v1(c') <
k0/2. Daraus folgt, dass der erste Konsument nicht anschließt und der optimale (kostendeckende Grenzkosten-) Tarif (k0,c') nur den zweiten Konsumenten betrifft mit dem sozialen
Überschuß v2(c'); bedingt durch Kostendeckung verschwindet hier die Produzentenrente. Dies
ist in der Abbildung durch das Dreieck (c',x20,p2) bestimmt; p2 beschreibt den "backstop"
Preis, der die Nachfrage der zweiten Gruppe verschwinden lässt. Eine Absenkung des Grundpreises auf G* und eine gleichzeitige Erhöhung des Arbeitspreises auf p*, so dass v1(p*) 
G* und dass Kostendeckung gewährleistet ist, erhöht die soziale Wohlfahrt, wenn die Fläche
des dadurch verlorenen Viereckes, c'p*x2*x20, geringer ist als v1(p*), d.i. das Dreieck
p*x2*p2.
Ein solches Beispiel ist jedoch leicht zu konstruieren, etwa c' = 5, k = 30 und:
x1(p) = 10 - p
(23)
x2(p) = 20 - p
(24)
Öffentliche Unternehmen
173
Grenzkostentarif p0 = c' impliziert v1(5) = 12.5 < 15 = k0/2. Daraus ergibt sich für den sozialen Überschuss: W0 = v2(5)=112.5. Setzt man aber p* = 5.53 und G* = v1(p*) = 10 so ist
Kostendeckung gewährleistet und eine Wohlfahrtsverbesserung damit verbunden, denn W* =
v1(p*) + v2(p*) = 114.7. Deshalb gilt folgendes Ergebnis. Unterschiedliches Nachfrageverhalten, x = x(p,h) für die Haushalte h impliziert, dass Grenzkostentarife nicht notwendigerweise die optimale Wahl in einem zweigliedrigen Tarif sind, wenn die Vorschrift der Kostendeckung bindend ist.
Somit erfordern zweigliedrige Tarife im allgemeinen eine kompliziertere Überlegung als die
Vermutung von Coase andeutet. Das obige Beispiel zeigte klar, dass (niedrige) Grenzkostentarife und hohe Grundpreise Konsumenten mit einem niedrigen Bedarf ausschließen. Diese
Konsumenten können aber durch eine Abweichung - höherer Arbeitspreis, niedriger Grundpreis - durchaus kostendeckend bedient werden, was unter Umständen das übliche Wohlfahrtskriterium verbessert.
Im Gegensatz zu (1) ist die Nutzenfunktion u(q) = u(q,h) abhängig vom Haushalt h, so dass
sowohl die indirekte Nutzenfunktion v = v(G,p,h) = S(p,h) - G, S übliche Konsumentenrente,
als auch die Nachfrage vom Index h abhängen. Ohne Verlust an Allgemeinheit seien die
Haushalte aufsteigend nach der Konsumentenrente gereiht und stetig mit der Dichte f auf [0,1]
verteilt, so dass der marginale Haushalt h, jener der gerade noch anschließt, durch folgende
Bedingung implizit charakterisiert ist:
S(p,h) = G
(25)
Diese Bedingung besagt, dass der Haushalt h bei dem Tarif (G,p) gerade ausgeglichen bilanziert. Das implizite Funktionentheorem impliziert (da Sh > 0):
h = h(G,p)
(26)
und:
hG = (1/Sh) > 0
(27)
hp = -Sp/Sh = xhG
(28)
wobei Sp = -x aus (3) folgt. Die Anzahl der Konsumenten, die sich bei (G,p) anschließen,
ergibt sich dann aus:
1

n(G,p)=  f(h)dh
h(G,p)
Analog bestimmt man die aggregierte Nachfrage:
(29)
Öffentliche Unternehmen
1

X(G,p)=  x(p,h)f(h)dh
h(G,p)
174
(30)
Wiederum erleichtert ein Lemma analog zu Lemma C.1, das die partiellen Ableitungen charakterisiert, die folgende Analyse.
Lemma 2: Definiere x die Nachfrage des marginalen Haushaltes, x := x(p,h), dann gilt
np = -hpf = xnG
(31)
nG = -hGf
(32)
1

Xp = -hpxf + xp(p,h)f(h)dh = x(p,h)np + 
h
XG = np
(33)
(34)
Beweis: (31), (32) und (34) folgen unmittelbar durch Differenzieren und Verwendung von
(27) und (28). Die mittlere Seite von (33) folgt nach Anwendung der Leibniz'-schen Regel.
Der Preiseffekt auf die Nachfrage setzt sich der Nachfrage des marginalen Konsumenten, erster Ausdruck in der Summe von (33) und der "inframarginalen" Nachfrageänderung,  bezeichnet das Integral, zusammen. _
Als zweitbestes Wohlfahrtskriterium ist nun folgendes Optimierungskalkül zu lösen:
1

max W(G,p)= v(p,h)f(h)dh + (p - c')X(G,p) + (G - k)n(G,p)
h(G,p)
 = (p - c')X(G,p) + (G - k)n(G,p)  k0
(35)
(36)
wobei zur Vereinfachung konstante Grenzkosten c' unterstellt werden.
Partielles Differenzieren des Wohlfahrtszieles respektive dem Arbeitspreis liefert im Detail:
1
W

-- = -hpf(h)v(p,h) + ⌡ vp(p,h)f(h)dh + (p - c')Xp + X + (G - k)np
p
h
=0
-X(p,G)
(37)
Öffentliche Unternehmen
175
Der erste Ausdruck in (37) verschwindet, da der marginale Konsument keinen Nettonutzen
zieht, v(p,h) = 0 oder S = G. Die Vereinfachung des Ausdruckes unter dem Integral verwendet
wieder (3) und (30). Daher erhält man für (37):
Wp = (p - c')Xp + (G-k)np
(38)
WG = (p-c')XG + (G-k)nG
(39)
Die Ableitung von (39) ist analog.
Zur Lösung des Optimierungskalküls (35) und (36) sei wie üblich die Lagrangefunktion L
definiert:
L = W + µ
(40)
wobei µ den Kuhn-Tucker Multiplikator für die Profitbeschränkung bezeichnet. Differenzieren ergibt:
Lp = Wp + µ[(p - c')Xp + X + (G-k)np] = 0
(41)
LG = WG + µ[n + (G-k)nG] = 0
(42)
Einsetzen der obigen Ergebnisse (35)-(38), Definieren von  = /(1 + µ), Verwendung von
(33) für Xp und von (31) zur Eliminierung von [XG - xnG] liefert unmittelbar folgendes Resultat:
Zweitbeste, zweigliedrige Tarife (G,p) bestimmen sich aus den folgenden simultanen Bedingungen:
X + [(G -k) + (p - c')x]np + (p - c')[Xp - xnp] = 0
(43)
n + [(G - k) + (p - c')x]nG = 0
(44)
so dass p > c' und G  0.
Beweis: Es bleibt hier nur zu beweisen, dass der Arbeitspreis die Grenzkosten übersteigt und
dass keine Subventionen für einen Anschluss gezahlt werden.
Der Arbeitspreis muss die Grenzkosten übersteigen, denn Substitution von (44) in (43) zur
Eliminierung der eckigen Klammer55 liefert unter Verwendung von (31) und (33):
55Der
Ausdruck in der eckigen Klammer beschreibt die Einnahmen über den Grenzkosten für
den Hauhalt h. En passent sei hier erwähnt, dass dieser Ertrag auch für den Konsumenten mit
der geringsten Nachfrage positiv ausfällt.
Öffentliche Unternehmen
(p-c') = (nx - X)
176
(45)
Nach Voraussetzung, dass die Haushalte aufsteigend nach der Konsumentenrente S bzw. der
Nachfrage x gereiht werden, impliziert, dass x die geringste Nachfrage beschreibt und daher
die rechte Seite in (45) negativ ist. Da aber auch  < 0 folgt die Behauptung.
Eine Subvention, G < 0, führt dazu, dass alle Konsumenten sich anschließen: h = 0 und marginale Änderungen der Subvention die Anzahl n nicht verändern, nG = 0. Dies widerspricht
jedoch (44).
8.5
Nichtlineare Tarife
Allgemeiner oder als Alternative zu zweigliedrigen Tarifen können nichtlineare Tarife verwendet werden, um gleichzeitig Konsumententenrente zu maximieren, Kostendeckung zu
erzielen und trotzdem effiziente Preissignale zu senden. Dieses Problem tritt dann auf, wenn
einerseits "günstige" Kraftwerke (teilweise bereits abgeschriebene Investitionen, Wasserkraftwerke, Kernkraftwerke) und andererseits "teure", kalorische Kraftwerke im Einsatz sind;
dieser Unterschied war auch Grundlage der Diskussion der Tabelle 1 in der Zusammenfassung. Der daraus resultierende Durchschnittstarif liefert natürlich ein ineffizientes Signal zum
privaten Sparen, aber diese Form der Kostenregulierung wird üblicherweise mit einem sozialen Argument verteidigt. Dies ist jedoch unzulässig, ja in vielen Fällen sogar zynisch, wenn
man nichtlineare Tarife (die übrigens in Wien angewandt werden) zulässt.
Zur Widerlegung der sozialen Motivation von Durchschnittstarifen gehen wir von der in Abb.
8.4 dargestellten Kostenfunktion aus. Die hervorragende, aber leider im Ausmaß beschränkte
Technik 1 ermöglicht die Stromproduktion zu Kosten c1 je kWh (bis zum Niveau E1) und die
Technik 2 zu Kosten c2 > c1.
Kosten
Grenzkosten
C2
Durchschnittskosten
C1
Menge
Öffentliche Unternehmen
177
Abb. 8.4: Grenz- und Durchschnittskosten für zwei Produktionstechniken, wobei die günstigere Technik ("Wasserkraft") beschränkt ist.
jedoch um Kostendeckung und gleichzeitig billige Tarife zu erzielen, kann neben eines
Durchschnittstarifes folgender nichtlinearer Tarif verrechnet werden:

wenn Stromverbrauch
p=
c2
>
c1
emin
In die politische Diskussion eingebettet besagt dieser Vorschlag, dass jeder Bürger einen
aliquoten Anteil an den günstigen Anlagen besitzt und diesen zum Preis c1 beziehen
kann. Jede darüber hinausgehende Menge ist jedoch mit dem Preis c2 zu bezahlen. Es
ist offensichtlich, dass dieser Tarif sozial schwachen Haushalten mit typischerweise
niedrigen Verbräuchen mehr entgegenkommt als der Durchschnittstarif. Weiter, wählt
man emin so, dass es unter dem momentanen Bedarf fällt, dann wird mit diesem Tarif
gleichzeitig das effiziente Preissignal gesetzt.56
56Diese letzte Bedingung wurde leider mit einem ‚grünen’ Tarif der Wiener Stadtwerke verpaßt, da über 90 %
der Haushalte eine Nachfrage unter emin haben und damit ineffizient reagieren, d. h. zuwenig sparen.
Öffentliche Unternehmen
178
9 Positive Theorie Öffentlicher Unternehmen
9.1
Einleitung
Die Neue Politische Ökonomie oder auch Public Choice, geht auf Buchanan, Downs und andere zurück. Vorläufer dieser Ideen sind Knut Wicksell, John Stuart Mill (von Buchanan
selbst oft angemerkt), Schumpeter (in seinem Werk "Kapitalismus, Sozialismus und Demokratie", 1942) und Karl Popper57, so argumentierte zumindest Wirl (1993). Mueller (1989)
und Inman (1987) geben einen Überblick über diese Theorie, die momentan bedeutenden Einfluss auf die Wirtschaftstheorie gewinnt, wie durch die Nobelpreisverleihung 1986 an Buchanan auch dokumentiert wurde. Die Grundannahme dieses Ansatzes besteht in der Ausweitung
des Prinzips des homo oeconomicus auf Politiker und Bürokratie. Die öffentlichen Entscheidungsträger versuchen ebenfalls, individuellen Nutzen zu maximieren, und es interessiert sie
per se nicht - wie in vielen neoklassischen Ansätzen unterstellt wird -, der allgemeinen Wohlfahrt zu dienen.58
Der Hauptunterschied zwischen den üblichen Betrachtungen und Agenden der Wirtschaftstheorie und des Ansatzes der Neuen Politischen Ökonomie kann am Beispiel der öffentlichen Firmen, etwa der Stromversorgung, erläutert werden. Ein traditioneller Ökonom
wird als Berater beim Erstellen eines neuen Tarifsystems versuchen, jene Preise zu bestimmen, die die öffentliche Wohlfahrt maximieren. Zusätzlich wird er stillschweigend voraussetzen, dass die Politiker bzw. andere Entscheidungsträger überredet werden können, diese
Politik zu übernehmen. Der Schule der Neuen Politischen Ökonomie fehlt dieser Optimismus,
optimale Preise festlegen zu können. Denn "sozial optimale" Entscheidungsregeln sind in gewisser Form diktatorisch und negieren die Interessen der Beteiligten und den politischen, demokratischen Prozess. Da der Versuch des Durchsetzens von optimalen Regeln die eingesessenen Vorteile von Gruppen verletzt und die theoretisch möglichen Kompensationen kaum
stattfinden, werden sich Gruppen und Lobbys zur Verhinderung des Vorhabens zusammenschließen. Deshalb schlägt Buchanan vor, nur einstimmig (das sind Pareto Verbesserungen)
akzeptierte Veränderungen zu betreiben. Dieser Verzicht auf eine normative Politik führe zu
einer Verzerrung der Entscheidungen zu Gunsten des status quo, könne also als konservativ
bezeichnet werden. Demgegenüber kann jedoch argumentiert werden, dass eben die Berücksichtigung der unterschiedlichen Interessen und Institutionen überhaupt erst eine Änderung
ermöglicht und somit eigentlich progressiv ist.
Blankart (1981) schließt demzufolge daraus, dass das Kriterium der Durchsetzbarkeit, das
heißt geringer Widerstand, das adäquate Kriterium für die Politikberatung durch (ökono-
57Popper
(1963, S 341)"... naive collectivism, has to be replaced by the demand that social phenomena, including collectives, should be analyzed in terms of individuals and their actions and relations." und Popper (1968,
S121), "How can we so organize political institutions that bad or incompetent rulers can be prevented from doing
too much damage."
58Buchanan-Tullock (1962, S 20): “No one seems to have explored carefully the implicit assumption that the
individual must somehow shift his psychological and morale gears when he moves between the private and social aspects of life. We are therefore placed in the somewhat singular position of having to defend the simple assumption that the same individual participates in both processes against the almost certain onslaught of the moralists.”
Öffentliche Unternehmen
179
mische) Experten sei. Angewandt auf empirische Probleme bedeutet das, dass die Deregulierungsbestrebungen sich auf jene Sektoren konzentrieren sollten, wo Einkommens-, Angebotsund (absolute) Nachfrageelastizitäten hoch sind. Zum Beispiel bedeutet eine geringe Preiselastizität, dass das betrachtete Gut von "hohem" Wert (d. h. weit über den Güterpreis hinaus) ist,
und der Konsument nur geringe Ausweichmöglichkeiten hat. Daher wird jede substantielle
Preisänderung auch die individuelle Einkommenssituation beeinflussen. Dieses Paradigma erklärt eventuell die Freigabe der raffinierten Produktpreise59, jedoch die weitere Regulierung
der Stromtarife.
Eine kritische Annahme der (traditionellen) Wohlfahrtstheorie ist, dass Transfers die gesamte
Wohlfahrt einer Volkswirtschaft nicht verändern. Tullock (1967) hatte als erster die Einsicht,
dass Transfers soziale Kosten verursachen, eine Tatsache, die nach wie vor in der traditionellen Wohlfahrtsökonomie übersehen wird. Der Begriff selbst - rent seeking - geht auf
Krueger (1974) zurück. Dieses Problem von rent seeking wird häufig im Zusammenhang von
Monopoltarifen behandelt, siehe Abb. 9.1 Das Monopol verlangt den Preis pm, der über dem
sozialen Optimum (charakterisiert durch Grenzkostentarife, p*) liegt. Dies reduziert die Konsumentenrente, aber erhöht gleichzeitig den Unternehmensgewinn im Ausmaße des Rechteckes. Diese Gewinnausweitung kann jedoch nicht vollständig den Verlust der Konsumenten
ausgleichen, so dass durch das Monopol ein sozialer Verlust im Ausmaß des angedeuteten
Dreieckes auftritt. Da die Monopolrente nur einen Transfer (von Konsumenten an die Produzenten) darstellt, ist nach konventioneller Wohlfahrtsökonomie nur das Dreieck als sozialer
Verlust zu zählen. Ähnlich wird bei allen Formen von Transfers, Subventionen und Steuern
argumentiert, wo nur eventuelle 'Tonnageverluste' (deadweight losses, auch „Dreiecksverluste“ genannt nach Abb. 9.1) in Betracht gezogen werden.
€
Nachfrage
pm
Monopolrente
Verlust
Grenzkosten
p*
Menge
Abb. 9.1: Sozialer Verlust verursacht durch Monopole.
59Wenigstens die Angebotselastizität ist hoch, nämlich nahezu unendlich, aufgrund der geringen Importmengen
relativ zur Größe des internationalen Marktes.
Öffentliche Unternehmen
180
Diese übliche Ansicht - Transfers finden kostenlos im luftleeren Raum statt - ist jedoch höchst
naiv. Denn die Existenz von Transfers - oder generell von schlecht definierten oder durch die
öffentliche Hand zugeteilten Eigentumsrechten - verursacht unter den potentiellen Nutznießern einen Kampf um eben diese Transfers. Und diese Konkurrenz um die Erringung dieses
Preises verschlingt reale Ressourcen. Dies wird am Beispiel in Abb. 9.1 klar. Wenn ein Monopol lizenziert werden soll und n identische Firmen an diesem Monopol interessiert sind,
dann werden risikoneutrale Unternehmen bereit sein, bis zum Betrag (1/n) vom erwarteten
Gewinn zu investieren, Tullock (1967) und Posner (1975). In diesem Fall wird im Rahmen
dieses Wettkampfes die gesamte Rente verschwendet, da all diese Ausgaben an sich unnötig
sind und keinen sozialen Wert haben. Daher ist zu dem üblichen Dreiecksverlust noch die gesamte Monopolrente, das Rechteck, hinzuzufügen, um den gesamten sozialen Verlust von
Transfers zu bestimmen. Dieser Verlust - im Ausmaß des Trapezes - ist im Gegensatz zum
Verlust des Dreieckes60 signifikant.
9.2
Postive Erklärungen für öffentliches Elektrizitätsversorgung
Buchanan (1968) gibt als erster ein Modell zur Erläuterung kollektiver Preisbestimmung für
öffentliche Unternehmen an. Eine zentrale Rolle in der Reglementierung der öffentlichen,
aber in privatem Besitz befindlichen Unternehmungen spielt die Frage, zu wessen Gunsten Konsumenten oder Produzenten - dieser Entscheidungsprozess beeinflusst wird. Stigler
(1971) argumentiert, dass sich die kleinere Gruppe der Produzenten besser arrangieren kann
als die große Gruppe der Konsumenten (aufgrund der Schwarzfahrerproblematik). Somit können die Produzenten die Entscheidung einer Regulierungskommission zu ihren Gunsten beeinflussen. Wagner (1966) argumentiert dagegen, dass politische Entrepreneurs den Bedarf
für Protektion (Schutz) dieser Gruppen erkennen, und sie protegieren in der Hoffnung, ihre
Stimmen zu bekommen. Peltzman (1976) versucht die Randpunkte - entweder zugunsten der
Produzenten oder zugunsten der Konsumenten - zu integrieren, indem eine stimmenmaximierende Regulierungskommission die Interessensunterschiede zwischen Produzenten
und Konsumenten ausgleicht.
Blankart (1983) versucht vom Standpunkt dieser Theorie aus, die Existenz und Rolle öffentlicher Unternehmen zu erklären. Auf der Ebene der Verfassung werden in einem einstimmigen Verfahren die Grundrechte - wie freie Vertragswahl und Schutz des Eigentums garantiert. Die freie Vertragswahl garantiert effiziente Ressourceverwendung durch Konkurrenz, und ein Minimum an sozialen Regeln vermeidet gleichzeitig die Anarchie. Der freie
Markt kann jedoch weder öffentliche Güter bereitstellen, noch Externalitäten gänzlich vermeiden. Diese Probleme der Festlegung des Ausmaßes öffentlicher Güter, z. B. die Festlegung des Verteidigungsbudgets, verlangen nach einem kontinuierlichen, politischen Prozess.
Im Gegensatz zur Verfassung kann für diesen Prozess keine Einstimmigkeit mehr verlangt
werden, und andere Regeln, etwa die Majoritätsregel, müssen angewandt werden. Dies erlaubt
jedoch ein Abweichen von marktwirtschaftlichen Bedingungen über die obigen Sonderfälle
60So
errechnet Harberger (1954) für die Vereinigten Staaten einen Dreiecksverlust aus Monopolpreisen von 0.1
% gemessen am Bruttoinlandsprodukt. Diese empirischen Ergebnisse wurden dann durch weiterführende Studien herausgefordert, wobei meistens versucht wurde, die Unterschätzung des tatsächlichen Verlustes zu beweisen. Jedoch die höchste Quantifizierung dieses Verlustes liegt um 1 % des Bruttoinlandproduktes nach der Übersicht in Leibenstein (1982).
Öffentliche Unternehmen
181
hinaus. So wird jede abrupte Preisänderung, die irgendeine Gruppe negativ beeinflusst, eine
Lobby auf den Plan rufen, die versucht, eine entsprechende Regulierung durchzusetzen. Dabei
ist oft eine hohe Asymmetrie gegeben. Z. B. besteht für die kleine Gruppe der Imker ein hoher
Nutzen aus einer Berufsvereinigung zum Durchsetzen von Importzöllen auf ausländischen
Honig. Für die Konsumenten resultiert zwar daraus ein Verlust, der jedoch individuell als zu
gering empfunden wird, sich gegen dieses Privileg der Imker zu engagieren. Aufgrund dieser
Schwarzfahrerproblematik kommt es daher zu keiner effektiven Koalition unter den Konsumenten. Diese individuellen Privilegien führen wegen der Majoritätsregel demokratischer
Prozesse zu Stimmenhandel (log rolling, vote trading).61
Noll (1983) verwendet in seiner Analyse die demokratische Wahl (persönlich gewählte Abgeordnete - USA und Großbritannien, repräsentative Demokratie), politische Entrepreneurs
und rationale Wähler. Die Grundaussage ist, dass nur partikuläre Ziele Unterstützung finden
und oft lange keinen Widerstand hervorrufen, da die große Gruppe der Betroffenen sich nicht
organisiert. Erst wenn ein politischer Entrepreneur diese Marktlücke erkennt und mit entsprechenden Behauptungen und Informationen - z. B. über die Verschwendung, Privilegien und
Ineffizienz öffentlicher Unternehmen - aufwartet, wird die große Gruppe der Betroffenen opponieren. Daher sind vermutlich Deregulierungen eher seltene Ereignisse. Feichtinger-Wirl
(1991) zeigen, dass politische Herrscher durchaus rational zwischen wachsender Regulierung
und folgender Deregulierung wechseln, im Gegensatz zum politischen Konjunkturzyklus
(siehe unten), der durch das exogen gegebene Wahldatum erzeugt wird.
Eng verbunden mit dem demokratischen Prozess in den westlichen Volkswirtschaften ist der
Versuch der Politiker, die Wiederwahl durch Beeinflussung der Wirtschaft im allgemeinen
und im besonderen der Konjunktur zu begünstigen. Ein Ansatz zur politischen Erklärung von
politischen Konjunkturzyklen stammt von Nordhaus (1975). Zur Erzielung dieses Effektes
der gewünschten Konjunktursteuerung ist ein großer öffentlicher Sektor dienlich. HubkaObermann (1977) finden eine Bestätigung dieser Hypothese für die Wahl der öffentlichen
Tarife in Österreich. Peltzman (1987) ist eine neuere Studie, die den Zusammenhang zwischen wirtschaftlichen Rahmenbedingungen und Wahlausgang analysiert.
Crew-Rowley (1988) verwenden ein rent seeking Argument zur Erklärung öffentlicher Monopole. Ein institutionalisiertes Monopol erlaubt Profite, oft sogar substantielle Gewinne (siehe Telefon). Ziel einer Regulierung (oder Verstaatlichung) ist es nun nicht, diese Monopolprofite zu eliminieren, sondern sie als Quelle für andere Aufgaben, "Quersubventionen", heranzuziehen. In der Tat ist es höchst naiv anzunehmen, dass die Änderung der Eigentümerverhältnisse an der Monopolsituation etwas ändert und wenn, dann eher im Gegenteil, dass Monopole im öffentlichen Eigentum noch besser gegen Konkurrenz abgesichert werden. In anderen Worten, Monopolgewinne sind nach wie vor möglich, aber diese sind im öffentlichen Bereich zu verteilen und entsprechend zu tarnen. Diese Möglichkeit der Quersubventionierung
zieht Gruppen an, die die Gewinne dieser Monopole zur Finanzierung ihrer Wünsche benützen wollen. Beispiele für solches rent seeking Gruppen sind offensichtlich: etwa die Angestelltengewerkschaft solcher Unternehmungen (Forderung nach höheren Löhnen und/oder
höherer sozialer Sicherheit), Industrien und Konsumentengruppen (sie versuchen, niedrige
61Vgl.
dazu die Diskussion in Frey (1984) im Zusammenhang über Importtarife.
Öffentliche Unternehmen
182
und begünstigte Tarife zu erhalten), Finanzierung von sonst nicht finanziell lebensfähigen
kommunalen Aktivitäten (Schwimmbäder) und Subventionierung (Nahverkehr).
9.3
X-Ineffizienz
Abb. 9.2 zeigt die Grenze der Produktionsmöglichkeiten eines Multiprodukt-Unternehmens
bei gegebener Inputkonstellation (production frontier). Alle Punkte an dieser Grenze sind
X-effizient, alle Punkte darunter, z.B. die Punkte A, B in Abb. 9.2, sind X-ineffizient, d.h. es
ist möglich, ohne Erhöhung eines Inputs zumindest einen der Outputs zu erhöhen, ohne dabei
andere Outputs abzusenken. Leibenstein gibt ein mikroökonomisches Modell an, das diese
Ineffizienz auf Trägheit und das principal-agent Problem zurückführt.
z2
C
A
D
B
E
z1
Abb. 9.2: X-Effizienz und X-Ineffizienz
Das individuelle Arbeitsangebot eines Arbeitnehmers kann durch die Arbeitszeit x0 und den
Einsatz q0 beschrieben werden. Die öffentliche Firma offeriert den Lohn p0x0 abhängig von
der Arbeitszeit, aber unabhängig vom Einsatz. Dies scheint eine realistische Beschreibung
öffentlicher oder bürokratischer Einrichtungen und eine Erklärung, warum hier X-Ineffizienz
häufiger als in privaten Unternehmen anzutreffen ist, die über zusätzliche Anreize den Einsatz
motivieren kann. Der individuell optimale Einsatz, d.h. dort, wo der individuelle Nutzen maximiert wird, liegt bei q0 in Abb. 9.3. Durch eine entsprechende Einstellungspolitik kann
erreicht werden, daß q0 immer nahe am X-effizienten Punkt q* liegt. Zusätzlich sei angenommen, daß die Änderung der eigenen Arbeitsqualität mit individuellen Kosten verbunden
ist, etwa durch das Absolvieren von Kursen, die Unannehmlichkeiten aus einer Versetzung in
eine andere Abteilung, etc., und diese gegenüber einem entsprechenden Nutzengewinn aus
veränderter Arbeitsintensität in Abzug gebracht werden müssen. Zur einfachen grafischen
Darstellung sei unterstellt, daß jede Änderung die konstanten Kosten D verursacht. Damit ist
bei keinem Arbeitseinsatz zwischen A und B ein Anreiz zu einer Anpassung des Verhaltens
gegeben; der Arbeitnehmer ist in diesem Bereich der Gefangene seiner Trägheit.
Öffentliche Unternehmen
183
Eine private Firma wird den Lohn mit der Qualität der erbrachten Leistung eher koppeln als
ein bürokratisch orientiertes Unternehmen, sodaß der individuelle Nutzen stärker vom Einsatz
abhängt. Durch diese zusätzlichen Anreize ergibt sich die strichlierte individuelle Nutzenfunktion in Abb.9.3. Diese schränkt den individuellen Trägheitsbereich substantiell auf das
Intervall [C,D][A,B] ein.
A
C q* q0
D
B
q
Abb. 9.3: Optimaler Arbeitseinsatz & X-Ineffizienz. Vergleich öffentliches & privates
Unternehmen
9.4
Positive Modelle, Motive und Ansätze für bürokratische EVUs
Die Motivation der öffentlichen Firma unterscheidet sich gravierend von den Zielsetzungen
privater Firmen. Die institutionellen Rahmenbedingungen verlangen vom
Management der öffentlichen Firma, dass es sowohl den Konsumenten, als auch den Wünschen der politischen Entscheidungsträger Rechnung trägt. Durch die sowohl soziale als auch
die politische Interessenslage ist keine direkte Zielgröße vorhanden, um entsprechende Anreize zu bieten. Darüberhinaus, hat die Bürokratie private Informationen (etwa über die wahren
minimalen Kosten), die sie zu ihrem Vorteil verwenden kann. Daher können weder Politiker
noch andere Gremien verhindern, dass die Bürokratie - zumindest partiell - auch ihre eigenen
Interessen, wenn auch entsprechend getarnt ("Versorgungssicherheit") verfolgt. Demgegenüber kann sich die private Firma voll auf ihre Kunden konzentrieren. Die private Firma kann
darüberhinaus ihren Profit maximieren, während von der öffentlichen Firma verlangt wird,
ausgeglichen zu bilanzieren. Aus der Tatsache, dass die öffentliche Firma nicht den Profit
maximiert, folgt jedoch nicht, dass die gesellschaftliche Wohlfahrt maximiert wird. Wahrscheinlicher ist, dass die Bürokratie aufgrund des Fehlens wohldefinierter und mit entsprechendem Anreiz versehener Ziele ihre eigenen Zielsetzungen entwickelt. Maximierung von
Einfluss, Prestige, Untergebenen (Parkinson'sches Gesetz) etc., also Größen in verschiedens-
Öffentliche Unternehmen
184
ten Einheiten, sind Beispiele bürokratischer Zielfunktionen, die dann das Profitmotiv privater
Unternehmen ersetzen.
Eine der Grundvoraussetzungen für staatliche Einflussnahme - ein staatliches Arrangement
sei besser als ein privates Monopol - ist nicht immer gewährleistet. Während in Konkurrenz
stehende Firmen gezwungen sind (Input), effizient zu produzieren (da sie ansonsten vom
Markt verschwinden), und auch ein privates Monopol Anreize zur Kosteneffizienz hat, besteht für ein öffentliches - meistens noch durch Zutrittsrestriktionen für mögliche Konkurrenten abgesichertes - Monopol (z. B. die Post) nicht die Notwendigkeit, effizient zu produzieren. Denn, dem Management der öffentlichen, von Konkurrenz abgeschotteten Firma,
fehlt der nötige Anreiz, effizient zu produzieren, falls Profite dem Management nicht honoriert werden und eventuelle Verluste sowieso gedeckt werden (wie etwa bei Bahn, Theater,
Museen usw.).62 Der Aspekt der Input-Ineffizienz, wenn auch im Zusammenhang mit privaten
Firmen, wird erstmals von Leibenstein (1966) erwähnt. Leibenstein vermutet, dass die Verluste durch Input-Ineffizienz höher ausfallen, als jene durch die allokative Ineffizienz - etwa
durch das Vorhandensein privater Monopole.
Die Annahme des vorigen Abschnittes - alle Politiker wären benevolent und die Bürokratie
wohlfahrtsmaximierend - scheint unrealistisch. Deshalb ist es auch nicht überraschend, dass
normative Ansätze der Tarifpolitik oft zum Scheitern verurteilt waren. Positive Ansätze erweitern das ökonomische Kalkül des individuellen Nutzenmaximierens auf die Entscheidungsträger. Die Arbeit von Niskanen (1971) charakterisiert erstmals bürokratisches Verhalten in Relation zu betriebs- und volkswirtschaftlichen Zielen. Das Hauptziel der Bürokratie
sei es, die drei berühmten Ps, - Prestige, Power, Pay - zu maximieren, was Niskanen durch
die skalare Größe des verfügbaren Budgetrahmens approximiert. Die Quintessenz verschiedener bürokratischer Modelle ist, dass die (Niskanen-) Bürokratie die tatsächlichen
Grenzkosten unterschätzt. Dies führt zu einer sozial adversen Ausweitung bürokratisch
verwalteter Bereiche, vgl. Abb. 9.4, aber möglicherweise um den Preis niedriger Qualität. Ein Modell dazu wird im folgenden Unterkapitel diskutiert.
62"noble
Unternehmen" - überhöhte Löhne, Sozialleistungen etc.,
Öffentliche Unternehmen
185
Preis
Grenzkosten
Grenzeinnahmen
Modifizierte Grenzkosten
Monopol
Menge
sozial
optimal
Bürokratie
Abb. 9.4: Vergleich des Outputs: Monopol, sozial optimal, Bürokratie.
Positive Ansätze können viele Phänomene öffentlicher Firmen erklären, die in einem neoklassischen Ansatz entweder irrational oder paradox erscheinen. So ist es nahezu paradox, dass
private Unternehmen seit langem das Prinzip der (zeitlichen) Preisdifferenzierung anwenden,
z. B. die Fremdenverkehrsindustrie, aber öffentliche Unternehmen die für sie eigens konzipierte Theorie ignorieren. Unterstellung bürokratischer Ziele in diesen Unternehmen kann
dieses Verhalten erklären.
Nehmen wir hypothetisch an, dass die Bürokratie der Elektrizitätsversorgungsunternehmen an
einem großen Kraftwerkspark interessiert sei, da dies am ehesten Macht und Einfluss repräsentiert. Daraufhin werden scheinbar paradoxe Verhalten erklärbar. Mit dieser Hypothese
steht in Einklang (bzw. ist daraus ableitbar): die geringe Forcierung des Ausbaus der Fernwärme (trotz öffentlicher, politischer Unterstützung), die Beschränkung der Nachtstromtarife
auf Speicherheizungen und die Weigerung, Strom von der Industrie zu vergleichbaren Bedingungen zu akzeptieren. Denn die erste Behauptung folgt aus der Annahme, dass Strom und
Fernwärme zumindest partielle Substitute sind, und jede - wenn auch nur geringe - Konkurrenzierung ist unerwünscht. Der Punkt, Fernwärmeausbau zur Quersubventionierung des
Strommarktes wird für die Hypothese - das Management maximiert die Kraftwerkskapazität im Anhang D analysiert. Die Limitierung des Nachtstromtarifes auf Speicheröfen ermöglichte
den Elektrizitätsversorgungsunternehmen in neue Märkte einzudringen, ohne die Bedarfsspitzen abzutragen. Dadurch musste der Kraftwerksausbau nicht reduziert werden. Aus dem
obigen Ergebnis - bürokratisches Verhalten unterschätzt die Grenzkosten - werden auch
Öffentliche Unternehmen
186
Kraftwerksprojekte "rational" erklärbar, die bei den üblichen Kriterien als unökonomisch erscheinen.
Die Arbeit von Bös (1983) und auch anderer Autoren unterstellt dem Politiker stimmenmaximierendes Verhalten, dass die Manipulation der öffentlichen Tarife diesem Ziel unterordnet. Das Ergebnis dieses Ansatzes ist, dass der Politiker jene Tarife favorisiert, die die
Gruppe der Unentschlossenen und der primär auf ökonomische Anreize reagierende Wählerschaft (Wechselwähler) betrifft. Diese Tatsache hat einen positiven Effekt, da trotz möglicherweise starker (ideologischer) Präferenzen die tatsächlichen Entscheidungen einer Regierung
bewertet werden, weil auch Wahlen üblicherweise an der Grenze, das heißt am marginalen
Wähler, entschieden werden. Die Bevorzugung dieser sensitiven Gruppen hat jedoch prinzipiell nichts mit den - wenn auch oft vorgegebenen - egalitären Zielen zu tun.
9.4.1
Budgetmaximierende Büros
Öffentliche Unternehmen werden aus den unterschiedlichsten Gründen subventioniert, etwa
auf Grund meritorischer Güter. Üblicherweise garantiert der Sponsor, meistens die öffentliche
Hand, nicht jeden Betrag, sondern macht die Subventionszahlung s vom Output des Unternehmens (z) abhängig:
2 2
s = s(z), s/ze > 0, s/ze < 0, eE
(1)
Dabei beschreibt z den Vektor der produzierten öffentlichen Güter, E die Indexmenge der
öffentlichen Güter und s die Allokation von Subventionen in wachsender und konkaver Abhängigkeit vom Output. Neben den direkten Subventionen steht der Bürokratie der Erlös aus
dem Verkauf von z zur Verfügung, sodaß der gesamte zur Verfügung stehende finanzielle
Rahmen, B, durch
B(z) =  peze + s(z)
eE
(2)
gegeben ist.
Dieses gemischte Büro, wie es Niskanen nennt, ist typisch für viele Unternehmen, bei denen
ein Ministerium einen Teil der Kosten übernimmt, sodaß keine kostendeckenden Tarife verlangt werden müssen; die Beispiele reichen von der Bahn, bis hin zu Theater, Museen etc.
Niskanen nimmt nun das gesamte Budget als Approximation für die eigentlichen Ziele des
Bürokraten (die berühmten 3 Ps: pay, power, prestige) wie Einfluß, Macht, Untergebene,
Prestige, Einkommen etc. Die Maximierung seines Budgets ist beschränkt durch die Vorgabe
einer Defizitbeschränkung, d.h. einer Forderung, mit Hilfe der Subvention ausgeglichen zu
bilanzieren, also:
p(z) =  peze + s(z) - C(z) = 0
eE
(3)
Öffentliche Unternehmen
187
Dabei wird hier vom Netput-Konzept des Abschnitts C abgegangen und eine explizite Kostenfunktion C zur einfacheren Darstellung (wie in den Abschnitten C und D) verwendet.
Das Optimierungskalkül, Maximierung von (2) unter der Beschränkung (3):
max B(z), sodaß p(z) = 0
{pe, eE }
(4)
kann auf übliche Weise gelöst werden. Definiere die Lagrange Funktion L mittels des Multiplikators :
L =  peze(1 + ) + s(z)(1 + ) - C(z)
eE
(5)
Differenzieren nach den Instrumenten pe liefert:
s
C zj
S [(1 + )pj + (1+) ---- -  ----]---- = - (1 + )ze, eE
jE
zj zj pe
(6)
Daraus folgt, daß sich der Bürokrat wie ein Monopolist benimmt, aber die modifizierte
Grenzkostenfunktion
C  s
-------- - ---zj 1+ zj
(7)
verwendet anstatt der üblichen Grenzkosten C/z. s/zj beschreibt die marginale Unterstützung durch den Sponsor, wenn der Output des Gutes j erhöht wird. Dies kann als Abschätzung des externen sozialen Effektes der Dienstleistung j betrachtet werden. Diese Einschätzung verwendet der Bürokrat in seinem Kalkül zur Reduktion der Grenzkosten, die nach
(7) durchaus auch negativ werden können:
Der Bürokrat, dessen Budget sowohl durch Erlöse als auch durch einen Sponsor abgedeckt
werden, benimmt sich wie ein Monopolist, der die Grenzkosten untersch„tzt. Dies kann soweit gehen, dass sogar negative Grenzkosten in die (für den Niskanen-Bürokraten) optimale
Allokationsentscheidung eingehen.
Abb. 9.4 vergleicht die Lösung bei unterschiedlichen Organisationsformen eines öffentlichen
Unternehmens, das ein Produkt herstellt: die Outputentscheidung eines Monopols (Grenzeinnahmen = Grenzkosten), das Wohlfahrtsoptimum (Preis = Grenzkosten), P(z) = C'(z)) und den
Output einer budgetmaximierenden Bürokratie.
Öffentliche Unternehmen
9.4.2
188
Bürokratische Tarife - "Strom" und "Fernwärme"*
Der Hauptzweck dieses Beispiels ist, die Operationalität des Ansatzes der Neuen Politischen
Ökonomie (hier an Hand eines Modelles für eine Bürokratie) und die möglichen Konsequenzen darzulegen. Dazu betrachten wir das Elektrizitätsunternehmen als ein typisches
Mehrproduktunternehmen, das durch einen vorgegebenen Kapitalstock - Kraftwärmekopplungsanlagen - gleichzeitig Strom und Fernwärme erzeugt, wobei ein (wahrscheinlich) hoher
Anteil der Fixkosten keinem der Prozesse direkt zuzuordnen ist. Dieser Produktionsprozesse
ist somit durch economies of scope charakterisiert. In der Möglichkeit der gemeinsamen Nutzung von Anlagen in der Erzeugung von Elektrizität und Fernwärme sehen manche Autoren
einen substantiellen Vorteil und prognostizieren der Fernwärme eine große Zukunft. Im Vergleich zu diesen optimistischen Prognosen scheint die tatsächliche Entwicklung des Fernwärmemarktes sehr träge63. Eine mögliche Erklärung für diesen geringen Ausbau der Fernwärme,
relativ zu ihrem Potential liegt im bürokratischen Verhalten von EVUs. Die folgende Analyse
versucht diesen Aspekt unter Berücksichtigung bürokratischer anstatt traditionell ökonomischer Motive zu durchleuchten.
Die öffentlichen Versorgungsunternehmen sehen sich einem (inversen) Nachfragesystem
nach "Strom" (Index 1) und "Fernwärme" (Index 2) gegenüber64:
p1 = P1(z1,z2),
(1)
p2 = P2(z1,z2).
(2)
Aus der Voraussetzung, dass beide Produkte zumindest teilweise substituierbar sind
(d. h., die Kreuzpreiselastizitäten sind positiv) und dass die Eigenpreiselastizitäten dominieren, folgt, dass die Jacobi-Matrix von (1) und (2) negative Elemente und eine positive Determinante besitzt. Die Produktionskosten seien explizit durch die Kostenfunktion C(z1,z2) beschrieben. Die Profitfunktion,
(z1,z2) := z1P1(z1,z2) + z2P2(z1,z2) - C(z1,z2),
(3)
sei konkav; weiters falle der Grenzprofit eines Produktes, wenn die Produktion des Substitutes ausgeweitet wird: 2/z1z2 < 0. Die Produktionsgrenze zwischen den beiden Produkten
sei im allgemeinen durch die implizite Funktion (z1,z2) gegeben, aber bei der momentanen
Marktsituation bestimme z1 ("Strom") die zu installierenden Anlagenkapazitäten.
63Tatsächlich konnte die Fernwärme - auch in den Perioden hoher Energiepreise - kaum im freien Markt reüssieren. Der Großteil der momentanen Fernwärmeabnehmer ist dirigistisch verordnet: Öffentliche Gebäude, Spitäler,
Schulen, Gemeindewohnungen, usw.
64Das Modell ist allgemein und kann auch auf andere öffentliche und substituierbare Güter übertragen werden.
Die Bezeichnungen "Strom" und "Fernwärme“ dienen nur der besseren Illustration.
Öffentliche Unternehmen
189
Die Bürogröße65 bzw. hier der Anlagenpark als sein Äquivalent sei das eigentliche Ziel der
Bürokratie dieses öffentlichen Unternehmens. Unter den obigen Voraussetzungen und der
Forderung nach ausgeglichenem Budget ergibt sich folgendes bürokratische Kalkül:
max z1 so dass 0.
(4)
Anwendung von (6.10) bzw. explizites Nachrechnen über die Lagrangefunktion  als der
Kuhn-Tucker Multiplikator für die Forderung nach ausgeglichener Bilanzierung, liefert:
MR1 = MC1-1/,
(5)
MR2 = MC2,
(6)
wobei MRi die Grenzeinnahmen des i-ten Produktes beschreibt:
MRi= fi+ ziPi/zi + zjPj/zi , i=1,2 und j = i,
(7)
und MCi:=C/xi wie üblich die Grenzkosten.
Die folgende Behauptung gilt allgemein für eine Anlagenpark-maximierende Bürokratie, die
substituierbare Güter in einem Kuppelprozess produziert, wobei ein Gut die Anlagenkapazität
bestimmt. Die Bezeichnungen "Strom" und "Fernwärme" dienen (wie bereits erwähnt) nur der
besseren Fassbarkeit dieser Begriffe, verglichen mit den Bezeichnungen Produkt 1, Produkt 2.
Die Anlagenpark maximierende Bürokratie benimmt sich wie ein Monopolist, der die Grenzkosten der Erzeugung von "Strom" unterschätzt. Das Unternehmen bietet "Fernwärme" nach
derselben Regel wie ein Monopolist an. Der Erlös aus diesem Bereich dient daher der
Quersubvention. Das bürokratische Verhalten der öffentlichen Unternehmung impliziert, dass
mehr Elektrizität, aber weniger Fernwärme als im Falle eines privaten Monopols angeboten
wird. Der erhöhte Ausstoß an Elektrizität führt nach der Regel (6) aber zu einem niedrigeren
Fernwärmepreis gegenüber einem monopolistischen Unternehmen; auch der öffentliche (bürokratische) Stromtarif liegt unter dem eines privaten Monopols. Im Vergleich zu sozial optimalem (Ramsey-) Angebotsverhalten offeriert die Bürokratie hingegen ein zuviel an Elektrizität, aber zuwenig Fernwärme.
Dieses Ergebnis ist ökonomisch plausibel. Die Bürokratie will nach Voraussetzung (4) primär
neue Anlagen bauen (da z. B. nur ein weiterer Ausbau den momentan hohen Personalstand
rechtfertigt). Daher ist jede, auch interne Konkurrenz - wie hier durch "Fernwärme" - unerwünscht, wenn sie die Chancen der Vermarktung von "Strom" - der treibenden Kraft im Anlagenbau - verschlechtert. Die obige Behauptung rationalisiert auch die Opposition öffentlicher Unternehmen gegenüber zeitabhängigen Tarifen, da dies etwa eine Substitution des
Tagstroms durch den Nachtstrom ermöglicht. Denn (korrekt angewandte) zeitdifferenzierte
65Die
Tendenz wachsender Büros ist auch unter Begriff Parkinson'sches Gesetz bekannt.
Öffentliche Unternehmen
190
Tarife reduzieren die Kapazität, die zur Bedarfsdeckung notwendig ist, und reduzieren damit
die (bürokratische Ziel-) Größe des Anlagenparks.
Der erste Teil der obigen Behauptung folgt unmittelbar aus (5) und (6) und   0. Die Aussagen über den Vergleich der öffentlichen und monopolistischen Tarife sind dann eine unmittelbare Konsequenz der Annahmen über die Nachfragefunktionen. Somit bleibt die Aussage zu beweisen, dass diese Unternehmensform im Vergleich zum Monopolisten zuviel Strom
und zu wenig Fernwärme anbietet. Definiere mit zB und zM das bürokratische und das monopolistische Angebotsverhalten; [2] beschreibe die (reguläre) Matrix der zweiten Ableitungen der Profitfunktion, d. h., [2] besteht aus den (negativen) Elementen 2/zizj. Die
Differenz zwischen den bürokratischen und den monopolistischen Entscheidungen liefert
nach linearer Taylorapproximation folgende Beziehung:
[2](zM - zB)  (-1/,0)t
(8)
sodass nach Multiplikation von (8) mit [2]-1 und nach Verwendung von  > 0 unmittelbar
die obige Behauptung folgt: z1B > z1M, z2B < z2M.
Der Vergleich des bürokratischen Verhaltens mit den sozial optimalen Ramsey-Tarifen kann
auf folgende Art geführt werden. Das Ramsey-optimale Verhalten (z*) kann in der folgenden
Form angeschrieben werden:
/z2 = (MR2-MC2) < 0
(9)
d. h., die letzte produzierte Einheit liefert einen negativen marginalen Beitrag zum Profit. Abschätzung der Differenz zwischen bürokratischem und Ramsey-optimalem Verhalten des
Fernwärmeangebotes liefert:
2(z*) B *
(zB) (z*) 2(z*) B *
 -    (z1 - z1) +  (z2 - z2)
z2
z2
z1z2
z22
(10)
=-(z*)/z2>0
Aufgrund der Voraussetzung, dass z1B der maximale Wert aus der Nullprofitkurve (=0) ist,
gilt: (z1B - z1*)>0. Daher muss (z2B-z2*)<0 sein, da die rechte Seite in (10) positiv ist.
9.5
Amerikanische Regulierung
Im Gegensatz zu den europäischen institutionellen Rahmenbedingungen sind die wichtigsten
öffentlichen Einrichtungen in den Vereinigten Staaten durch private Investoren finanziert.
Diese Eigentümer unterliegen jedoch im Austausch für die Lizenz eines öffentlichen Monopols der öffentlichen Regulierung. Die verschiedensten Regulierungskommissionen über-
Öffentliche Unternehmen
191
wachten (Imperfekt, da aufgrund der Deregulierung in den 80er Jahren einige Kommissionen
aufgelassen oder zumindest eingeschränkt wurden) die Tätigkeiten so wichtiger Industriezweige wie der Telekommunikation - American Telefon and Telegraph (AT & T), der Energieversorgungsunternehmen, den (zwischenstaatlichen) Flugverkehr, des Transportwesens
usw.
Im Vergleich zu europäischen Preisbehörden, die hinter verschlossenen Türen tagen, ist die
amerikanische Regulierung durch einen offenen Austragungsmodus und allgemeine Parteienstellung charakterisiert. Infolgedessen mag sie für manche als Alternative zu verstaatlichten Unternehmen attraktiv erscheinen. Tatsächlich ist jedoch trotz dieser Offenheit des Verfahrens die amerikanische Erfahrung mit den verschiedenen Regulierungskommissionen
nicht befriedigend. Insbesondere die Prozesse um das Monopol der AT & T zeigten, wie AT
& T die Regulierungsbehörde über Jahrzehnte in ihrem Sinne beeinflusste und Eindringlinge
vom Markt fernhielt; siehe Evans (1983). Die Analogien des Vorgehens der
AT & T haben überraschenderweise viele Parallelen mit dem Versuch der AUA, die Lauda
Air vom Fluggeschäft fernzuhalten66.
Darüberhinaus erwies sich, dass die Regulierung zu ineffizienter Produktion der öffentlichen
Unternehmen in privater Hand führt. Die Konsequenz eines solchen institutionellen Arrangements auf die Entscheidungen eines regulierten Unternehmens wurde erstmals von
Averch-Johnsen (1962) analysiert. Das Hauptergebnis der Analyse von Averch-Johnson
ist, dass Ertragsbeschränkungen zu einem ineffizienten Inputmix, genauer zu einer
Überkapitalisierung führen, so dass nicht am kostenminimalen Punkt produziert wird.
Diese X-Ineffizienz wird üblicherweise als Averch-Johnson Effekt bezeichnet. Anhang H
gibt einen formalen Beweis für dieses Ergebnis. Zusätzlich zu dieser direkten Ressourceverschwendung begünstigt diese Regulierung kapitalintensive Güter, was darüberhinaus auch
noch die Outputpreise verzerrt. Das bedeutet, dass Wohlfahrtsverluste in Kauf genommen
werden müssen, obwohl die Regulierung ja eingeführt wurde, die Wohlfahrtsverluste aus
(unreglementiertem) Monopolverhalten zu vermeiden (dabei sind die direkten Kostenaufwendungen für die Regulierungsbehörden nicht eingerechnet). So kann diese Regulierung
die Ausbeutung des Konsumenten durch einen Monopolisten zwar reduzieren, führt aber
gleichzeitig zu anderen sozial-adversen Konsequenzen wie ineffizienter Produktion. Es ist a
priori und im allgemeinen nicht klar, bei welchem Reglement - Regulierung oder Nichtstun die Verluste überwiegen.
Diese Form der Regulierung spielt auch eine große Rolle in den privaten Monopolen der
Elektrizitätsversorgung. Auch in der Elektrizitätswirtschaft wird ein regionales Monopol lizenziert, dafür aber reguliert, weil man glaubt, dass ein natürliches Monopol vorliegt. Die Tabelle 2.1 zeigt die Verteilung der Eigentümer an der Produktion und an der Kapazität der
amerikanischen Elektrizitätsversorgung. Das amerikanische System garantiert einer privaten
Firma (investor owned utility, kurz IOU), das (regionale) Monopol zur Ausnützung günstige-
66So
argumentierten sowohl AT&T als auch die AUA, daß es das effizienteste Unternehmen
sei, dass nur für ein Unternehmen Platz am Markt wäre und daß letztendlich der Eindringling
finanziellen Schiffbruch erleiden müsse.
Öffentliche Unternehmen
192
rer Produktionskosten, aber unterwirft sie gleichzeitig einer Renditenregulierung. Diese Form
der Organisation bestreitet den Großteil der Produktion und der Verteilung von Elektrizität in
den Vereinigten Staaten. Das bekannteste Beispiel eines staatlichen Elektrizitätsversorgungsunternehmens in den Vereinigten Staaten ist die Tennessee Valley Authority, kurz TVA, die
auf den New Deal der Roosevelt Administration zurückgeht und als größtes Unternehmen
etwa 5 % des Marktes abdeckt.
Tabelle 2.1: Eigentümeranteile der Elektrizitätsindustrie
in den Vereinigten Staaten (1980)
Eigentümer
Kapazität
Produktion
─────────────────────────────────
Private
78.0
78.0
Kooperative
2.5
2.8
Bundesstaatliche
9.6
10.3
Stadtwerke
5.6
3.8
andere öffentliche
4.5
5.2
─────────────────────────────────
Quelle: Joskow-Schmalensee (1985).
Dieses (theoretische) Ergebnis von Averch-Johnson (1962) bestätigt sich sowohl empirisch vgl. dazu Spann (1974), Cowing (1978), Atkinson-Halvorsen (1986) - als auch theoretisch in
einigen für die Elektrizitätswirtschaft speziell zugeschnittenen Ansätzen über Investitionen in
Spitzenlastkapazitäten, Bailey (1972). Darüberhinaus zeigen Crew-Kleindorfer (1979) in einem stochastischen Modell, dass "Versorgungssicherheit" als Vorwand der Kapazitätsausweitung und der Verdeckung der Monopolprofite dienen kann. In diesem von CrewKleindorfer analysierten Fall führt dieses Arrangement der Regulierung zur Übertreibung des
Sicherheitsgedanken: Die installierte Kapazität übersteigt die mögliche Variation des Bedarfes und dient vornehmlich der Verschleierung von Profiten vor der Regulierungskommission,
"gold plating reliability".
Sowohl der Ansatz von Bailey (1972) als auch die stochastische Variation von CrewKleindorfer (1979) erklären die Fakten, dass die amerikanischen EVUs kaum Spitzenlasttarife
anwendeten und anstatt dessen lieber eifrig in Spitzenkapazität investierten. Wirl (1994) zeigt,
dass diese Form der Regulierung plus zusätzlicher Anreize die Aufwendungen amerikanischer
EVUs für Investitionen in Energiesparprogramme erklärt, aber diese Unternehmen gleichzeitig ermuntert, ineffiziente Programme (teure Programme mit geringem Sparerfolg) zu wählen.
In anderen Worten, diese Sparaktivitäten sind kein Beweis ihrer Wirtschaftlichkeit, sondern
können als Folge regulatorischer Verzerrungen erklärt werden! Ineffizienz der (amerikanischen) Renditenregulierung.
Die folgende Analyse verwendet das Modell aus Averch - Johnson (1962). Eine monopolistische Einproduktfirma produziert die Outputmenge x durch zwei (homogene) Inputs,
Kapital (K) und Arbeit (L). Die technologischen Input - Outputmöglichkeiten seien durch eine
neoklassische Produktionsfunktion:
x = f(K,L).
(1)
Öffentliche Unternehmen
193
gegeben, die für jede Inputkombination den (maximal) erzielbaren Output angibt. Die Kosten
für die einzelnen Inputfaktoren betragen:  pro Einheit Kapital und w pro Arbeitseinheit, so
dass die Gesamtproduktionskosten durch (K + wL) gegeben sind. Weiter sieht sich der Monopolist einer Preis - Absatzfunktion gegenüber, die durch die inverse Nachfragefunktion P
beschrieben wird:
p = P(x).
(2)
wobei x die vom Monopolisten angebotene Menge bezeichnet. Somit erhält man für den Erlös
R,
R = px = P(x)x = P(f(K,L))f(K,L): = R(K,L),
(3)
und den Profit :
(K,L) = R - K - wK.
(4)
Beide, R und , hängen von den Variablen Arbeit und Kapital ab. Ohne Beschränkung würde
der Monopolist nun versuchen, seinen Profit  durch geeignete Wahl von K und L zu maximieren, also das Grenzprodukt mit den Grenzkosten ausgleichen:
RK = ,
(5)
RL = w.
(6)
Diese bekannten Grenzproduktivitätsbedingungen liefern die profitmaximierenden (und
gleichzeitig kostenminimalen) Inputmengen K0, L0. Diese rationale Wahl der Inputs impliziert eine optimale Kapitalrendite von 0 = (R(K0,L0) - wL0)/K0.
Um diese Strategie zu unterbinden, erlaubt die Regulierungsbehörde, dass die laufenden Kosten gedeckt werden und gestattet eine "faire" Rendite,  mit 0 > 0 >  (die Beschränkung in
der Form von   0 wäre überflüssig) auf das eingesetzte Kapital:
R(K,L) – wL  K,
(7)
oder:
R(K,L) - wL - K  0.
(8)
Das Hauptergebnis der Untersuchung von Averch - Johnson ist: Die Regulierung der Rendite
verzerrt die Inputkonfiguration zu Gunsten des Kapitals, das heißt, es kommt zu einer Überkapitalisierung der regulierten Firma und daher zu ineffizienter Produktion. Somit kreiert die
Regulierungsbehörde, die eigentlich versucht den Wohlfahrtsverlust durch Monopolpreise zu
beseitigen, selbst Wohlfahrtsverluste, weil die Renditenregulierung nicht mehr die Produktion
am kostenminimalen Punkt ermöglicht. Im allgemeinen Fall ist daher nicht gewährleistet,
Öffentliche Unternehmen
194
dass die Regulierung die gesellschaftliche Wohlfahrt erhöht, insbesondere wenn man die zusätzlichen Kosten für die Administrierung dieser Auflage berücksichtigt.
Der folgende Beweis orientiert sich an Takayama (1969). Der Produzent versucht den Profit,
Gleichung (4), unter Beschränkung des Ertrages auf das Kapital, Ungleichung (7), zu maximieren. Definiere in üblicher Art die Lagrange - Funktion mit µ als Kuhn - Tucker Multiplikator (die Funktionsargumente sind im folgenden unterdrückt):
L = R(1 - µ) - wL(1 - µ) - K( - µ).
(9)
Daraus ergeben sich die folgenden Kuhn - Tucker Bedingungen:
(RL - w)(1 - µ) = 0,
(10)
(1 - µ)RK - ( - µ) = 0,
(11)
µ  0, µ(K + wL - R) = 0,
(12)
die nur notwendig, aber nicht hinreichend sind. Denn die übliche Annahme, dass die Profitfunktion  konkav sei, um ein eindeutiges Optimum zu garantieren, ist nur gewährleistet,
wenn R selbst konkav ist. Dies impliziert jedoch, dass die Beschränkung (7) auch konkav und
nicht konvex ist, wie für ein hinreichendes Kriterium67 verlangt wird. Die Annahme  < 0
garantiert, dass die Bedingung (7) bindend ist und somit µ > 0. Gleichzeitig muss µ = 1, denn
µ = 1 impliziert dann aufgrund von (11) =  im Gegensatz zur Voraussetzung  < . Somit
kann die Gleichung (9) durch (1 - µ) durchdividiert und umgeformt werden. Die Beziehung
(10) reduziert sich dann auf die übliche Grenzproduktivitätsbedingung. Auch die Gleichung
(12) ist unabhängig von µ, da die Beschränkung der Rendite als bindend angenommen wurde,
d. h. µ > 0. Somit können die Kuhn - Tucker Bedingungen in der folgenden Form angeschrieben werden:
RL = w,
(13)
RK =  - µ( - )/(1 - µ),
(14)
R - wL - K = 0,
(15)
µ > 0.
(16)
Die erste Bedingung (13) ist die übliche Grenzproduktivitätsbedingung. Die Wahl des optimalen Inputs an Kapital nach (14) orientiert sich jedoch an einem niedrigeren Preis als den ei-
67Die Vernachlässigung dieses Aspektes wurde an der Originalarbeit heftig kritisiert, insbesonders Takayama
(1969). Dies ist jedoch kein essentielles Problem für die Analyse. Denn übliche Annahmen über Produktions und
Einnahmefunktionen garantieren, daß der Gewinn für große Inputs negativ wird und somit das Minimum einer
stetigen Funktion über einer kompakten Menge gesucht wird; und dieses existiert (Satz von Weierstraß).
Öffentliche Unternehmen
195
gentlichen Kosten, was zu einer Inflationierung des Kapitalstockes über den (Kosten - ) optimalen Punkt hinaus führt. Die Beweisidee (nach Takayama (1969)) ist es, am Punkt  = 0
eine komperativ statische Analyse durchzuführen. Dabei wird vorausgesetzt, dass die optimalen Inputs K(), L() stetig vom Regulierungsparameter  abhängen. Differenziere die Gleichungen (13) und (15), die beide unabhängig von µ sind, nach :
RLL(dL/d) + RLK(dK/d) = 0,
(17)
(RL - w)(dL/d) + (RK - )(dK/d) - K = 0.
(18)
Für  = 0 erhält man aus (14), dass µ = 0, RK -  kann durch  - 0 ersetzt werden und RL w verschwindet, so dass aus (18) folgt:
K
dK
K 
 =  
= -  < 0.
d
RK -   = 0
0 - 
(19)
Aus (19) folgt die Behauptung von Averch - Johnson als lokales Ergebnis am Punkt  = 0,
wo die Beschränkung gerade noch nicht bindend ist, so dass jede leichte Verschärfung den behaupteten Effekt hat. Da jedoch RK finit ist für positive Inputs K,L folgt, dass dK/d immer
ungleich Null ist und somit folgt aus der Annahme der Stetigkeit der Inputs dK/d < 0. ■
9.6
Öffentlich versus private Organisation
Nach welchen Kriterien sollen nun die institutionellen Rahmenbedingungen für ein öffentliches Versorgungsunternemen aus den Alternativen:

Staatsmonopol (oder andere Formen öffentlichen Eigentums) in bürokratischer Verwaltung (wie z.B. bei Bahn, Post, Telephon, Wasser, Elektrizität, Rundfunk, Müllabfuhr etc.),

ein privates Monopol mit öffentlicher Regulierung (wie traditionell in den Vereinigten
Staaten),

oder eine private Industrie, ausgesetzt den Marktturbulenzen,
vorgeschlagen und ausgewählt werden? Brennan-Buchanan68 schlagen eine radikale Anwendung des Prinzips des homo oeconomicus vor, falls über die institutionellen Rahmenbedingungen öffentlicher Einrichtung, z.B. die Errichtung einer Mülldeponie, Änderung der
Stromversorgung, etc., entschieden werden soll. Dies sei nicht nur der Tradition politischer
68
G. Brennan; und J. M. Buchanan;, Predictive Power and the Choice among Regimes, in: Economic
Journal, Vol. 93, 1983, 89-105.
Öffentliche Unternehmen
196
Wissenschaft69, sondern auch dem Problem angemessen. Im besonderen kritisieren die beiden
Autoren die Übertragung (mittlerer) empirischer Evidenz - etwa, dass das private Monopol
doch nicht ganz so ausbeuterisch wäre, als die Theorie vorschlägt, der Bürokrat nicht nur
„Niskanen“, sondern auch sozial motiviert sei - auf die neue Entscheidung. Als Grundlage
ihres Argumentes dient die Konvexität einer sozialen Verlustfunktion bei Abweichen von
dem sozial-optimalen Verhalten.
Die bisherige Analyse und die empirische Evidenz über öffentliche Firmen offenbart den ersten Trugschluß. Neben ideologischen Motiven der Verstaatlichung öffentlicher Unternehmen
oder (scheinbarer) Monopole stand die Illusion im Vordergrund, daß der soziale Wohlfahrtsverlust, der durch Monopolpreise entsteht (deadweight loss, linkes schraffiertes Dreieck in
Abb. A.1) bei öffentlichem Eigentum wieder für die Gemeinschaft gewonnen werden kann.
Jedoch die mit diesem Unternehmen betreute Bürokratie hat zu geringes Interesse, die öffentlichen Ziele zu verfolgen. Deshalb wird das Management einer öffentlichen Firma nicht den
Output q* produzieren, sondern selbst Wohlfahrtsverluste (rechtes schraffiertes Dreieck) verursachen durch die Produktion qN; Darüber hinaus können Verluste durch X-Ineffizienz in
der Produktion von qN entstehen.
Grenzkosten
Nachfrage
qm
q*
qN
q
Abb. 9.5: Wohlfahrtsverlust bei Monopol & Bürokratie
69
J. S. Mill;, Essays on Politics and Society, "The very principle of constitutional government requires it
to be assumed that political power will be abused to promote the particular purposes of the holder; not because it
always is so, but because such is the natural tendency of things to guard against which is the special use of free
institutions.", zitiert nach G. Brennan; und J. M. Buchanan; a.a.O.
Öffentliche Unternehmen
197
L
L(qN)/2
m
q
q*
_
q
q
q
q
N
Abb. 9.6: Wohlfahrtsverlust abhängig in Abweichungen von q*
Abb. 9.5 zeigt, daß Marktversagen auf Grund ungenügender Konkurrenz (meistens) zu einem
zu geringen Angebot führt und dadurch Wohlfahrtsverluste verursacht. Öffentliche, bürokratische Unternehmen tendieren hingegen dazu, zu viel anzubieten, was ebenfalls zu Wohlfahrtsverlusten führt. Da beide Situation sozial unerwünscht sind, wird es immer Kritik geben,
die die andere institutionelle Variante als effizienter ansieht. Dies gilt im besonderen dann,
wenn man die ideologische Präferenz von politischen Parteien in Betracht zieht.
Abb. 9.6 zeigt den Wohlfahrtsverlust auf, der durch Abweichen von der optimalen Regel
Preis=Grenzkosten auftritt. Aus Abb. 9.5 folgt, daß jede Abweichung vom Optimum q* eine
quadratische (bedingt durch Integration), also eine konvexe Verlustfunktion (L) darstellt. Das
Einsetzen des mittleren Verhaltens liefert daher nicht den Verlust, wenn das tatsächliche Verhalten durch eine Wahrscheinlichkeitsverteilung mit demselben Mittel beschrieben wird.
Zur besseren Illustration, daß das Einsetzen des durchschnittlichen Verhaltens den Wohlfahrtsverlust unterschätzt, betrachte das Beispiel eines Bürokraten, der 50% seiner Zeit heroisch an seine öffentliche Aufgabe denkt und q* wählt. Die andere Zeit benimmt er sich jedoch
wie ein Niskanen-Bürokrat und wählt den Output qN (da er ja die Grenzkosten stark unterschätzt, vgl. drittes Kapitel, Abschnitt F). Jedoch das Einsetzen des mittleren Outputs q =
(q*+qN)/2 in die Verlustfunktion unterschätzt den tatsächlichen Verlust:
_
=
=
_
L(q) < ½L(q*) + ½L(qN) = ½L(qN) = L(q), q > q.
(A.1)
Öffentliche Unternehmen
198
Der mittlere Verlust entspricht eigentlich einem Verhalten von q > q, das näher beim bürokratischen Output qN liegt. Dieses Ergebnis unterstellt Risikoneutralität des Entscheidungsträgers. Bei (wahrscheinlichem) risikoaversen Verhalten ist die Verzerrung, d.i. die
Unterschätzung der sozialen Verluste beim best fit Modell, noch stärker und die Approximation durch den Extremfall des Niskanen-Bürokraten noch besser70.
Die obigen Abbildungen skizzieren das grundlegende Dilemma in Märkten, wo ein Marktversagen vorliegt. Dieses Abweichen vom sozial optimalen Output q*, genauer die Unterversorgung durch den freien Markt, kann durch ungenügende Konkurrenz oder aber auch durch andere Aspekte wie Externalitäten, Komponenten eines öffentlichen Gutes (z.B. „Versorgungssicherheit“) bedingt sein. Die Verstaatlichung als Korrektur dieses Marktversagens wird aber
auch nicht zum optimalen Output tendieren. Im Gegenteil, wie bereits mehrfach gezeigt, tendiert eine bürokratische Einrichtung zu einer Überversorgung. Daher ist bei realen Entscheidungen eine (empirische) Abwägung ohne ideologische Präferenz zwischen diesen Alternativen notwendig. Rürup71 argumentiert ähnlich und berücksichtigt eventuelle X-Ineffizienz durch Kontrollkosten.
70
Darüber hinaus ist das "best fit" Modell für einen Monopolisten auch noch aus anderen Gründen verzerrt: z.B. wenn intertemporale Aspekte wie Konsumententreue (good will) und/oder eine Lernkostenkurve
(learning by doing) vorliegen. Dann wählt der Monopolist in beiden Fällen einen niedrigeren Preis als die Robinson-Amoroso; Beziehung vorschlägt und erscheint freundlicher als er tatsächlich ist; vgl. dazu auch die Analyse im dritten Kapitel, Abschnitt E.
71
B. Rurüp;, Öffentliche Unternehmen versus regulierte private Unternehmen, in: Privatisierung und die
Zukunft der öffentlichen Wirtschaft, hrsg. von H. Brede, Baden-Baden 1988, 89-103.
Öffentliche Unternehmen
199
10 Regulierung mittels ökonomischer Anreize
Die üblichste und traditionelle Form der öffentlichen Regulierung ist die Beschränkung des
Unternehmensgewinnes auf eine faire Rendite auf das eingesetzte Kapital. Diese Regulierung
erlaubt dem privaten Unternehmen alle Kosten auf den Preis überzuwälzen und führt zur Aufblähung des Kapitalstockes ("Überkapitalisierung"), so dass nicht am kostenminimalen Punkt
produziert wird. Diese X-Ineffizienz der Renditenregulierung, bekannt als Averch-Johnson
Effekt nach Averch-Johnson (1962), stellt die Frage nach alternativen Regulierungsformen,
die diese Ineffizienz beseitigen oder zumindest reduzieren. Im Gegensatz zur Renditenregulierung handelt es sich bei den folgenden Vorschlägen eher um Ansätze als um komplett
spezifizierte Regulierungsmechanismen. Die folgende Analyse geht davon aus, dass entweder
die Qualität der dargebotenen Dienstleistung hinreichend beobachtbar und daher leicht regulierbar ist, oder aber Reputationseffekte eine gewünschte Qualität sicherstellen. Dies ist deshalb notwendig, da alle folgenden Anreize versuchen, die Kosten zu senken, ohne dies durch
Qualitätsverluste zu erkaufen (was ja ein triviales Unterfangen wäre). Für eine umfassendere,
neuere Diskussion von Regulierungsanreizen siehe dazu Train (1991). Für Anwendungen der
principal-agent Theorie (bzw. der Theorie des mechanism design) auf Regulierungsprobleme
siehe das exzellente Buch von Laffont-Tirole (1993).72 Aufgrund der momentanen Reprivatisierungswelle von verstaatlichten und öffentlichen Unternehmen kommen den Formen der
Monopolregulierung, insbesondere der gebräuchlichen Renditenregulierung, auch in Europa
erhöhte Bedeutung zu. So vermutet Beesley, "Like it or not we are here at the beginning of a
public regulatory process". Dies ist am offensichtlichsten in Großbritannien, wo mit neuen
Ansätzen der Regulierung seit mehr als zehn Jahren experimentiert wird.
10.1 Demsetz-Auktion
Demsetz (1968) bestreitet, dass öffentliche Regulierung als Mittel zur Vermeidung von Monopolprofiten gerechtfertigt ist. Demsetz schreibt in Why regulate Utilities?: “The natural
monopoly theory provides no logical basis for monopoly prices. ... To the extent that utility
regulation is based on the fear of monopoly prices, merely because one firm will serve each
market, it is not based on any deducible economic theorem", und gibt dann Chadwick (1859)
als einen Vorläufer an, der bereits zwischen competition within the field und competition for
the field unterschied. Der Vorschlag von Demsetz ist, in den Fällen natürlicher (möglicherweise regionaler) Monopole, die nicht mögliche oder zumindest ineffiziente Konkurrenz in
einem Markt, durch eine Konkurrenz um den Markt selbst zu ersetzen. Demsetz schlägt eine
Auktion vor, wo der Produzent, der zu niedrigsten Kosten einen Service übernimmt, für einen
bestimmten Zeitraum das Monopol eingeräumt bekommt.
Im Detail schlägt Demsetz wiederholte Auktionen vor, um öffentliche Dienstleistungen an
Private zu übertragen. In dieser Auktion wird zuallererst die effizienteste Firma den Zuschlag
erhalten, da diese die Dienstleistung zum billigsten Tarif anbieten kann. Weiter hat diese Firma dann auch alle Anreize so effizient wie möglich
72Diese speziellen Ansätze zur Bestimmung optimaler Kontrakte und Auktionen berücksichtigen explizit divergierende Interessen und private, asymmetrische Informationen. Wegen des damit verbundenen und notwendigen
hohen formalen Anspruchs wird von diesen Ansätzen hier abgesehen.
Öffentliche Unternehmen
200
zu produzieren, denn jede Kostensenkung über das Auktionsergebnis hinaus bleibt der Firma
als Gewinn. Dieses Arrangement garantiert X-Effizienz und mache - so Demsetz - eine Regulierung obsolet.
Jedoch spezifische langfristige Investitionen, unvollständige Spezifikation des Vertrages und
ex-post Opportunismus - kurz Transaktionskosten - erfordern eine begleitende Regulierung.
Denn nach Ersteigern des Kontraktes für einen fixen Zeitraum ergeben sich ex-post opportunistische Möglichkeiten aus der temporären Monopolsituation. Somit würde der Vorschlag
von Demsetz in vielen Fällen nicht die Regulierung als solche beseitigen, sondern nur den Namen der Kommission ändern.
10.2 Der Vorschlag von Loeb-Magat
Loeb-Magat (1979) schlagen folgende Form einer Regulierung - im folgenden L-M Anreiz vor. Die Behörde schreibt der Firma die Durchschnittskosten als obere Schranke vor. Dies ist
natürlich nicht sozial effizient und daher verspricht die Behörde eine Subvention in dem
Ausmaße, in dem es dem Unternehmen gelingt, die Konsumentenrente zu verbessern.73 Somit fallen soziales Ziel und Firmeninteresse zusammen, und das (gewinnorientierte) Unternehmen wählt den sozial optimalen Preis entsprechend den Grenzkosten, ohne dass die Behörde Information über die Kosten hat.
Der Vorteil des L-M Schemas ist, dass die Regulierungsbehörde die wahren Grenzkosten
nicht zu kennen braucht (und in der Regel auch nicht kennt). Nachteile sind:
(a) Dieses Regulierungsschema benötigt Kenntnis der Nachfragekurve, um die Subvention
festlegen zu können.
(b) Hohe Subventionszahlung an die Firma, d. h., das Unternehmen erhält allein alle Verbesserungen der Konsumentenrente. Da jedoch viele Regulierungsbehörden, aber insbesondere
viele Politiker, nicht neutral zwischen Konsumentenrente und Produzentenrente sind, ist
diese Regulierung nicht populär.
Dieser Nachteil hoher Subventionszahlungen kann zumindest theoretisch dadurch eliminiert
werden, indem mittels einer Auktion (in Anlehnung an Demsetz) der erwartete Profit aus den
Transferzahlungen ex ante abgeschöpft wird.
10.3 Vogelsang-Finsinger Anreiz und Erweiterungen
Vogelsang-Finsinger (1979) schlagen eine iterative Regulierungsprozedur (im folgenden V-F
abgekürzt) vor. Die Autoren setzen statische, zeitinvariante, mit allen üblichen und angenehmen Eigenschaften ausgestattete Funktionen der Kosten (c) und der Nachfrage, f(p) vektoriell (d. h., die Firma ist also ein Mehrproduktunternehmen), voraus. Die Regulierungsbehörde kennt und beobachtet in der Periode t die Preise pt, die Nachfrage xt = f(pt) und den
73Ohne
Änderung des Prinzips kann von dieser Subventionszahlung eine fixe Summe a priori
abgezogen werden.
Öffentliche Unternehmen
201
Profit t. Für die nächste Periode kann das öffentliche Monopol die Preise nun mehr so wählen, dass beim Output des Vorjahres kein Profit mehr realisierbar wäre, d. h.:
pt+1Rt+1:={p: Einnahmen-Kosten:=ptxt-c(xt)0}
p Preisvektor, pt Preise als Zeilenvektor (t für transponiert)
Rt+1 Beschränkung des Preisindex in Periode t+1,
c(xt) Kosten der Produktion in der Periode t.
Diese Beschränkung Rt+1 kann so interpretiert werden, dass der Firma für die Periode t+1 ein
Laspeyre-Preis Index für das gesamte vertriebene Güterbündel vorgeschrieben wird, jedoch
Flexibilität in der Preisstruktur dem Produzenten erhalten bleibt (partielle Deregulierung).
Unter der Annahme74 myopischer Profitmaximierung des Unternehmens konvergiert dieses
Schema gegen die sozial optimalen Ramsey-Preise. Mehr sogar, dieses Schema garantiert eine
ständige Verbesserung. Denn die Konsumenten können in jeder Periode das Bündel aus der
vorherigen Periode finanzieren. Wählen sie jedoch ein anderes Bündel, so kann dann dieser
Gütervektor ihre Wohlfahrt nur erhöhen.
Dieses V-F Anreizschema verzichtet (bewusst?) auf Information über die Nachfragefunktionen, führt daher zu langsamer Konvergenz zu den optimalen Ramsey-Preisen. Sappington-Sibley (1988) kombinieren den Vogelsang-Finsinger mit dem Loeb-Magat Anreiz,
incremental surplus subsidy scheme, was zwar Information über die Nachfragefunktionen erfordert, aber dafür in einem Schritt zu Ramsey-Preisen führt.
10.4 "Price-caps"
Eine momentan sehr bedeutende Form der Regulierung ist die Regulierung durch sogenannte
Price-Caps. Dieses Konzept wurde durch Littlechild popularisiert.75 Price-cap Regulierung
in unterschiedlichen Varianten wird in Großbritannien durchgängig als Regulierungsinstrument eingesetzt. Das Prinzip kann am besten und am einfachsten an Hand einer
ersten Anwendung, der Regulierung von British-Telecom, dargestellt werden. Die privaten
Monopole (ob British Telecom, Wasserversorgung oder Flughäfen) werden durch die mittlerweile allgemein bekannte und nahezu sprichwörtliche Formel:
74Weitere
Annahmen sind: Fallende Durchschnittskosten entlang von Outputstrahlen; Konsumentenrente ist konvex in den Preisen.
75Es
ist eigentlich ein Spezialfall des Vorschlages von Crew-Kleindorfer-Sudit (1979), der
Firma einen Teil des Produktivitätszuwachses überlassen.
Öffentliche Unternehmen
202
RPI - X
RPI = Inflationsarte
X = Abzug für (erwarteten) technischen Fortschritt
geregelt. Daher darf der Preis für die gesamten Telefondienstleistungen mit dem Konsumentenpreisindex eskalieren (als Approximation für geänderte Faktorkosten) weniger einem (mit
3 % ausgehandelten) Abzug für Produktivitätssteigerungen.
Diese Form der Regulierung hat folgende Vorteile:
-
Einfache Administration.
-
Das Management hat einen großen Anreiz, die vorgeschriebene Produktivitätssteigerung zu überbieten, da jede weitere Einsparung voll einbehalten werden
darf: Der marginale Ertrag kann mit dem marginalen Aufwand ausgeglichen
werden, was theoretisch
zu X-Effizienz, aber zumindest zu einer substantiellen
Verbesserung der Input-Effizienz des Unternehmens führt.
Die Idee und die Effizienz dieses Ansatzes beruht darauf, dass eine exogene Vorschrift getroffen wird, die sich somit ähnlich verhält wie Kopfsteuern im Falle von Besteuerungsfragen:
der marginale Einsatz wird voll belohnt. Ein Nachteil dieses Anreizschemas ist, dass nur sehr
bedingt (etwa durch Erlaubnis für Preisdifferenzierung) allokativ effiziente Preise angestrebt
werden. In anderen Worten, dieses Verfahren bemüht sich nicht, die Monopolprofite gänzlich
zu eliminieren.
In einem langfristigen politisch-ökonomischen Prozess ist diese Exogenität von Preisobergrenzen wahrscheinlich eine unhaltbare Voraussetzung, so dass Beobachtungen über Kosten und Gewinne dazu verwendet werden, die Vorschrift in Zukunft zu verändern oder anzupassen. Aber diese Unsicherheit über zukünftige Revisionen, die wiederum vom Gewinn
des Unternehmens abhängen, wird den Aufwand des Managements begrenzen oder eventuell
sogar auch strategisches Verhalten ermutigen. Denn temporär hohe Profite, etwa aufgrund
glücklicher Umstände oder auch enormer Anstrengungen, provozieren vermutlich politische
Entrepreneurs, die diese Profite anprangern. Unter solchen politischen Randbedingungen wird
auch hier das Unternehmen versuchen, exzessive Profite entweder gar nicht anzustreben, oder
aber durch andere Aktivitäten zu verstecken; X-Ineffizienz und Analogie zum AverchJohnson Effekt. In anderen Worten, die Notwendigkeit von Revisionen der RPI-X Formel
provoziert möglicherweise strategisches Verhalten, aber reduziert in jedem Fall den
Aufwand tatsächlich alle Kosteneinsparungen unmittelbar zu realisieren. Schlimmer,
Price-Cap Regulierung verlangt einseitige Bindungen der Regulierungsbehörde über
den gesamten Zeitraum.
Dies kann jedoch in Demokratien nie gewährleistet werden, denn wer garantiert, dass eine
kommende Labour-Regierung in Großbritannien diese Randbedingungen honoriert, auch im
Falle hoher Profite? Diesem Aspekt ist der Anhang E gewidmet.
Öffentliche Unternehmen
203
10.4.1 Ansätze zur Bestimmung des X-Faktors
Bei der ersten Implementierung von RPI-X wurde die Frage nach dem „optimalen“ X nicht
gestellt, weil primär eine Verbesserung der Kosteneffizienz in Bereichen angestrebt wurde, in
denen es seit Jahrzehnten lang daran gefehlt hat. RPI-X bestimmte einfach, dass die realen
Preise um den Faktor X fallen und somit die Konsumenten im Ausmaß dieses Faktors X an
den Kostenersparnissen partizipieren sollen. Daher war die Festlegung von X primär das Ergebnis eines Auslotens des Verhandlungsspielraums zwischen dem Regulator und den regulierten Unternehmen.
In der Folge wurde sowohl der Ansatz als auch die Praxis dieser Form der PCR, insbesondere
auch die Festlegung des X Faktors, mehrmals analysiert und kritisiert. Die wichtigsten Stimmen sollen kurz widergegeben werden.
Die Verbindung der X Faktoren mit der Gesamtproduktivität (total factor productivity, TFP) wurde bei der ersten
Festlegung der X Faktoren in England nicht hergestellt. Die Idee der RPI-X Regulierung war, den Unternehmen
einen Anreiz zur Suche nach den Kostenfunktionen zu geben, d.h. zur Reduzierung produktiver Ineffizienzen.
Solange die Unternehmen überzeugt sind, die Gewinne auch tatsächlich behalten zu dürfen, werden sie sich auf
die Suche begeben, unabhängig, ob der X Faktor „richtig“ oder „falsch“ ist. Beesley/Littlechild (1989) sprechen
die Unterschiede für die erste und die folgenden Festlegungen der X Faktoren an. Die erste Festlegung in England war Ergebnis einer politischen Entscheidung und Teil des Privatisierungsprozesses der Unternehmen. Nicht
die erwarteten TFP waren ausschlaggebend, sondern das X sollte so gesetzt werden, dass die staatlichen Unternehmen fit für die Privatisierung werden. „The initial level of X is set by the government at the time of privatisation, as part of the privatisation process, whereas X is reset by the regulator as part of the continuing regulatory
process. This has three important implications.” Des weiteren gab es bei der ersten Festlegung keine Interessenskonflikte zwischen Aktionären und Konsumenten, da die Unternehmen in öffentlicher Hand waren. „Second, the
initial level of X is set by the government as owner of the company, whereas X is reset by a regulator who does
not own the shares. The government as owner can choose, if it wishes, to take lower proceeds in return for, say,
lower prices for customers. The regulator does not have that extra degree of freedom: any shift in favour of one
interest group (such as customers) will be at the expense of another group (such as shareholders). The regulator
is constrained by the expectations of shareholders and customers, which were established at privatisation, and his
discretion is limited to whatever range is deemed acceptable (or can be so presented).”76 „The third difference
between setting and resetting X, which reinforces the previous two, relates to the effect on the company’s share
price. In both cases the level of X will influence the share price via its effects on expected net revenue streams,
so the stock market in fact decides the yield to shareholders…The regulator cannot ignore this consideration in
his decisions, and it reinforces the greater constraints on setting it initially.” (457). „In the UK, neither governments nor regulators have given detailed reasons for their decisions on X. This reduces the basis for challenge
(by company, competitors, or customers). The consequences of these four differences…is that there is greater
scope for bargaining in RPI-X than in rate-of-return regulation…In short, X may be thought of as one of several
variables in a political and commercial bargaining process.” (461).
Die Verbindung des X Faktors mit der Gesamtproduktivität lehnen Crew/Kleindorfer (1996) ausdrücklich ab.
Die Interpretation von X als ein „productivity offset“ ist mit der ursprünglichen Idee von RPI – X nicht vereinbar.
Die falsche Anwendung von ökonomischen Theorien in den USA bewirkte, dass „(t)he basically simple idea of
the X factor was replaced by the notion of the “productivity offset”, particularly in telecommunications. The
economic clothing surrounding the productivity offset was such that regulators bought into concept. The idea
was that the X factor, instead of being considered nothing more than the real reduction in prices to be provided to
the monopoly customers, was coupled directly with the productivity growth of the company. Prices would rise
not by the CPI minus X factor but by the CPI minus the productivity offset, where the productivity offset was
intended to reflect the productivity of the firm” (216). Dies hat zur Folge, dass die regulierten Unternehmen
76
In diesem Zusammenhang siehe den Artikel von Sawkins (1996).
Öffentliche Unternehmen
204
Berater zur Ermittlung der historische und zukünftigen Gesamtproduktivitätsentwicklung beauftragen, um im
Verhandlungsprozess den X Faktor möglichst gering halten zu können. „In the United Kingdom, by contrast,
there was no direct coupling of the X factor with a productivity offset…[because] setting the X factor involves
several factors other than the productivity offset…“ (216). Selbst wenn die Gesamtproduktivitäten ordentlich
gemessen werden könnten, lehnen Crew/Kleindorfer (1996) eine Verbindung mit dem X Faktor ab, da bei Vorliegen von ökonomischen Profiten, bzw. X-Ineffizienzen die Bindung an die Gesamtproduktivität ein zu geringes
X ergeben würde. „If measurements of TFP were entirely accurate and not subject to any controversy whatsoever, we would still argue against the use of the productivity offset in setting the X factor…Moreover, where economic profits exist, even when the X factor exceeds the “true” rather than the measured value of TFP, the company can still increase its profits. This is particularly apparent when real growth in demand or inflation are present” (217). Die Autoren weisen jedoch der Gesamtproduktivität als untere Grenze für den X Faktor aber auch
als vorhersehbare Regel eine Bedeutung zu.77
Littlechild (1988) stellt im Zusammenhang mit der Regulierung der Wasserwirtschaft Überlegungen zur Ausgestaltung von RPI-X auf ein „’permanent natural monopoly’ problem“ an. Er betont weiterhin, dass es nicht nur
ein „richtiges” X gibt, sondern dieses in einer Bandbreite liegt. Sein Lösungsvorschlag basiert im wesentlichen
auf zwei Pfeilern: (1) der Kontrolle durch den Kapitalmarkt und (2) einem exogenen X basierend auf durchschnittlichen Werten der Wasserindustrie. Der Zwang zur X-Effizienz soll vorrangig durch den Kapitalmarkt und
nicht durch ein scharfes X erfolgen. „A privatised authority must be prevented from extracting monopoly profit
in the form of inefficient management…The main pressure for efficiency must come from within; from the incentive of a private company to reduce costs so as to increase profits…An important role in securing efficiency
is played by competition in the capital market. The stock market sharpens the drive to efficiency because it provides such an immediate feedback on performance, both past and expected in the future…The stock market also
sharpens competition in the market for managerial talent. Top managers can more easily demonstrate success…The less able managers will be asked to step down” (51). Die Kontrolle erfolgt durch Übernahmen. „If the
incumbent management of a water authority is failing to operate efficiently, the takeover bid is precisely the
means whereby a more efficient management can replace it. It is a continuous test…A privatised water authority
which insist in ‘empire building’, when contracting out would be more cost-effective, will be more vulnerable to
takeover” (52). Damit diese Übernahmen nicht gehindert werden, spricht sich Littlechild (1988) für einen gänzlichen Rückzug der öffentlichen Hand aus diesen Unternehmen aus.
Bei der Neufestsetzung des X Faktors muss sichergestellt werden, dass das eigene Verhalten des Unternehmens
auf die Höhe des eigenen X Faktors keine Auswirkung hat, da sonst der Anreiz zu Kostenreduktionen gemindert
wird. Littlechild (1988) meint deshalb, dass „(t)he availability of ten water authorities means that the maximum
price increase allowed to each authority could be based, not on changes in that authority’s own costs and performance, but on changes in cost and performance in the water industry as a whole” (48). „To avoid blunting the
incentive to efficiency, it is necessary to base the revision of X on factors outside the direct control of each authority, but none the less relevant to that authority’s situation. An ‘industry yardstick’, reflecting performance
and prospect in the industry as a whole could be developed for this purpose. Each authority then knows that the
future level of X is essentially independent of its own performance. If it fails to maintain comparable efficiency
to the rest of the industry, it loses profits and its shareholders suffer. If it performs above average, it keeps the
profits and its shareholders benefit. Future levels of X will reflect the past and the expected future performance
of the water industry as a whole” (59). Da die neu festgesetzten X Faktoren auch die zukünftige Entwicklung
widerspiegeln sollen, „…the economic regulator needs to examine the company’s production methods and investment programme. He must ascertain the scope for cost and price reductions through increased productivity
and efficiency, and the need for capital expenditure. He needs to predict the consequences of different levels of X
on what the company will do, how it will do it, how consumers will be affected, and how consumers and others
will react… It should now be evident that rate of return considerations are necessarily implicit in setting and
resetting X” (59-60). Bei der Neufestsetzung von X ist speziell darauf zu achten, dass die Kosten nicht zu sehr
von den Preisen abweichen, d.h. die allokativen Ineffizienzen nicht zu groß werden. Sowohl die einfache Admi-
77
Vgl. hiezu Kapitel 3.3.2.
Öffentliche Unternehmen
205
nistrierbarkeit als auch die Entkoppelung der RPI-X Regulierung von den Kosten wird somit relativiert.78 Die
von Beesley/Littlechild (1989) angeführten Hauptargumente gegen RPI-X werden somit schlagend. „The main
counterargument against the incentive and efficiency claim may be summarized as follows. The level of X must
in practice be set, and repeatedly adjusted to secure a reasonable rate of return. If not, allocative inefficienencies
will arise (from prices being out of line with costs), and there will be political pressures from company or consumers. If the criteria for revising X are left unclear, this will increase the cost of capital and/or discourage investment. Clear guidelines must therefore be laid down, or must emerge from precedent, for resetting X. These
guidelines will have to embody an explicit feedback from cost reduction to (eventual) price reduction. This will
negate the superior incentive effects claimed for RPI-X…In this view, RPI-X is merely a special form of rate-ofreturn control, embodying no significant net advantage over the U.S. approach on grounds of economic efficiency” (456).
Wirl (1991) hinterfrägt, inwieweit man von der Annahme exogener Preisgrenzen ausgehen kann und insbesondere wie sich Regulierungsbehörde und Politik an solche Versprechen immer gebunden fühlen, egal was komme.
Weisman (2002) greift diesen Aspekt wieder auf, in dem er sich auf den Fall Hope, ein Gasversorgungsunternehmen, als Präzedenzfall für weitere Regulierung bezieht.
Professor Littlechild sieht nach persönlicher Kommunikation auch heute noch in seiner Preisobergrenzenregulierung primär einen Anreiz, um auf Unternehmensebene Suchprozesse zur
Kostenreduktion und zur Vermeidung von Verschwendung auszulösen und keinerlei Versprechen A-Effizienz zu erreichen. Dies steht jedoch im Widerspruch zu seinen Vorschlägen im
Zusammenhang mit der Regulierung der britischen Wasserindustrie, wo er meinte, dass
„(a) permanent RPI-X system must nevertheless provide for periodic revisions of X, to
prevent prices and costs getting too far out of line“ (Littlechild, 1988: 60).
Zieht man jedoch den Kapitalmarkt als erweiterte Ergänzung zu RPI-X heran, so könnte man
in der Tat argumentieren, dass selbst bei stark falschem Setzen des X-Faktors (d.h. zu niedriges X, sodass die Gewinne des regulierten Unternehmens zu Lasten des Konsumentengewinnes steigen) für die Konsumenten durch gleichzeitigen Erwerb von Aktien des regulierten
Unternehmens die Möglichkeit besteht, sich gegen diesen Fall zu versichern.
10.4.2 Bestimmung des X-Faktors nach Bernstein/Sappington (1999)
Die theoretische ökonomische Grundlage für den Vorschlag der ECG basiert auf einem Artikel von Bernstein/Sappington (1999), der sich als erster und bis dato als einziger mit einer
„ökonomisch wissenschaftlichen“ Festlegung des X Faktors beschäftigt. Die Autoren selbst
beschreiben aber nur die amerikanische Praxis der Federal Communications Commission
(FCC) bei der Festlegung der X Faktoren im Zusammenhang mit der Regulierung der Tele-
78
Interessant erscheint in diesem Zusammenhang, dass sich bei der konkreten Ausgestaltung der Regulierung
der Wasserwirtschaft, die sich sehr an die Vorschläge von Littlechild (1988) gehalten hat, eine Unterteilung des
X Faktors in einen unternehmensindividuellen und einen generellen findet. „As a result of the efficiency review
undertakers were placed in four efficiency bands and the banding determined the assumed reduction in operating
costs. In addition it was assumed that a benchmark saving of 1 per cent per annum was achievable by all undertakers ‘to cover the spur to efficiency associated with privatisation and technological change in the future’”
(Cowan, 1999: 124, in Matthew Bishop/John Kay/ Colin Mayer, Privatization and economic performance”) Die
die Werte festlegende Monopoly and Merger Commission gab den Prozess zur Ermittlung des generellen X
Faktors nicht bekannt.
Öffentliche Unternehmen
206
fontarife, das heißt eine tatsächlich bei der Regulierung von Netzwerkindustrien angewandte
Methode.7980
Eine pointierte Beschreibung der allgemeinen Auswirkung von Wettbewerb auf Unternehmen
und den sich daraus ergebenden Zusammenhang mit der Festlegung des X Faktors findet sich
bei Bernstein/Sappington (2000):
„Competitive forces compels firms to realize productivity gains and to pass these gains
on to their customers in form of lower prices, after accounting for unavoidable increases in input prices. Therefore, if all industries in an economy were competitive,
output prices in the economy would grow at rate equal to the difference between the
growth rate of input prices rise and the rate of productivity growth.” (Bernstein/Sappington, 2000: 64)
Bernstein/Sappington (1999) meinen jedoch relativierend, dass ihre Ausführungen nur als
„useful guidelines for setting the X factors“(7) dienen. Und in der Folge schränken sie ein,
dass bei der Setzung von X auch andere Aspekte berücksichtigt werden müssen und „(t)he
ideal X factor is typically difficult to estimate precisely“(7). In diesem Zusammenhang verweisen die Autoren auf Beesley/Littlechild (1989) und betonen diese Einschränkung am Ende des Artikels erneut!
„Before concluding, we repeat our earlier caveat that our analysis provides a framework for determining the most appropriate X factor, rather than a formula that specifies exactly the ideal X factor in every conceivable setting.” (Bernstein/Sappington,
1999: 23)
Ausgangspunkt ist ein reguliertes Unternehmen, das auf einen Gewinn von Null
Gewinn (П) = Umsatz (R) – Kosten (C) = 0
(4)
beschränkt werden soll, wobei der Rest der Ökonomie (indiziert mit E für elsewhere) kompetitiv sei und daher ebenfalls keine (Super- bzw. ökonomischen) Gewinne machen kann:
ПE = RE – CE = 0.
(5)
Für die Beziehung (4) gilt nun folgende notwendige, aber nicht hinreichenden Bedingung, für
aggregierte Outputs und Inputs. Das Wachstum der Outpreise in % ( P̂ ) ist gleich dem Inputkostenwachstum in % ( Ŵ ) weniger der Produktivitätssteigerung in % ( T̂ ) oder kurz
79
Vgl. Lowry/Kaufmann, 1994, Price Cap Designer’s Handbook
Eine Diskussion zur Anwendung der Methode der Federal Communications Commission auf die Regulierung
der Verteilnetzbetreiber in New South Wales (Australien) findet sich in IPART (1999), wo explizit auf
Crew/Kleindorfer (1996) Bezug genommen wird. „TFP can make a potentially significant contribution to the
regulatory process (and one that may increase over time) by providing important information on operational
efficiency, but it is not a ‘magic bullet’. Nor is it the only source of such information” (IPART, 1999: 17).
80
Öffentliche Unternehmen
207
Pˆ  Wˆ  Tˆ
(6)
Zur Bestimmung der für das Unternehmen wichtigen Kostenerhöhungen kann ein üblicher
Laspeyre-Index verwendet werden:
m
Wˆ 
p x
it i 0
i 1
m
p
1 ,
(7)
i 0 xi 0
i 1
wobei pit die Preise für die i = 1, ... , m Inputs xit zum Zeitpunkt t, t = 0 ist die Basisperiode,
bestimmt. Beachte, dass ein solcher Laspeyreindex den Kostendruck überschätzt81, weil implizit durch die fixen Gewichte jede Substitution innerhalb der Inputs unberücksichtigt bleibt.
Diese Darstellung, Preiswachstum auf der Basis der gesamten Faktorproduktivität (TFP =
total factor productivity) entspricht auch dem Vorschlag von Crew/Kleindorfer/Sudit
(1979), der als Vorläufer der PCR anzusehen ist.
Beachte, dass die Beziehung (6) für das Unternehmen daher der sinnvollste Ausgangspunkt
für eine flexible, beide Seiten zufriedenstellende Vertragspreisbestimmung in einem langfristigen Liefervertrag ist, denn was anderes im rechtlichen Sinne sollte eine Regulierung nicht
sein (aber wahrscheinlich bedingt durch den politischen Einfluss und die staatlich koerziven
Maßnahmen doch ist). In der Tat sind solche Verträge mit Preisgleitklauseln üblich und auch
stabil, etwa im Erdgasgeschäft mit noch dazu weitaus längerer Laufzeit als für eine Regulierung je in Erwägung genommen wurde. Auf diesen Punkt, dass eigentlich (6) die Grundlage
eines Regulierungsvertrages bilden sollte, kommen wir nochmals zurück.
Eine analoge Beziehung gilt für den Rest der Ökonomie, zumindest wenn dieser kompetitiv
ist (was für Österreich cum grane salis zutrifft):
Pˆ E  Wˆ E  Tˆ E .
(8)
Dabei steht auf der linken Seite mit P̂ E ein ökonomieweiter Deflator (vielleicht auch nur
durch den Konsumentenpreisindex approximiert), wenn der Einfluss der regulierten Branche
auf die Gesamtwirtschaft vernachlässigbar ist, und auf der rechten Seite (a) die Änderungsrate
der Gesamtinputkosten, Ŵ E , und (b) die Verbesserung der gesamtwirtschaftlichen Faktorproduktivität – kurz die Rate des (technischen) Fortschritts – definiert als (gewichtetes) %Wachstum der Outputs weniger dem (gewichteten) %-Wachstum aller Inputs, T̂ E .
Diese Beziehung (8) hat folgende wichtige Implikation, die aus der RPI – X Formulierung von
Littlechild nicht unmittelbar sichtbar und auch nicht erwähnt wird. Verwendet man wie von
Littlechild ursprünglich vorgeschlagen einen Gesamtdeflator (z.B. den GDP-Deflator
81 Die Überschätzung der Inflation durch den Konsumentepreisindex spielt eine große Rolle in der politoökonomischen Diskussion, weil zahlreiche Transferzahlungen (z.B. Pensionen) daran gekoppelt sind. Hausman
(2002) ist eine jüngste Analyse zu den Gründen dieser Verzerrung (u.a. neue Produkte, Qualitätsverbeserungen).
Öffentliche Unternehmen
208
oder auch den Konsumentenpreisindex), dann wird implizit der regulierten Branche bereits eine Produktivitätssteigerung im Ausmaß der gesamten Wirtschaft unterstellt und
jedes X > 0 verlangt darüber hinaus noch weitere Effizienzsteigerungen.
Zieht man die beiden Beziehungen für das Preiswachstum voneinander ab und arrangiert in
der Form, dass auf der linken Seite das Wachstum der zu regulierenden Preise und auf der
rechten Seite die Inflationsrate P̂ E stehen, dann erhält man:

 

ˆ E Wˆ .
Pˆ  Pˆ E  
Tˆ

Tˆ E
W
 

(9)
X
Das heißt der X-Faktor setzt sich aus zwei Differenzen zusammen, inwieweit das Wachstum
der Faktorproduktivität im regulierten Bereich höher Tˆ  Tˆ E und das Wachstum der Inputpreise niedriger als in der Gesamtwirtschaft, Wˆ E  Wˆ , ist. Beachte, dass diese Darstellung




des Wachstums der Preisobergrenzen weder eine Vereinfachung darstellt noch geringere Information verlangt. Ganz im Gegenteil: Es sind neben T̂ und Ŵ äquivalente Werten für die
Gesamtwirtschaft zu berechnen. Die Gefahr, dass durch Schätzfehler das Endergebnis verzerrt
wird, steigt natürlich an, speziell wenn die ermittelten Zahlen sehr gering sind und ein an sich
kleiner Schätzfehler von 0,5% erhebliche Auswirkungen haben kann!
10.4.3 Beispiele internationaler Anwendungen
10.4.3.1 England
In England sind zwei Stufen bei der Festsetzung der X Faktoren zu unterscheiden: (i) die
erstmalige und (ii) die darauffolgende Festsetzung.
Ziel der ersten Regulierungsperiode von 1990/1 bis 1994/5 war, die 12 Regional Electricity
Companies (RECs) im Hinblick auf die Privatisierung im Dezember 1990 als gewinnversprechendes Kaufobjekt zu positionieren. Bei der Erstfestsetzung handelte es sich um einen exogenen Fixpreisvertrag mit – im nachhinein betrachtet – sehr großzügig gewählten X Faktoren
für die Netzentgelte zwischen 0 und -2,5%, d.h. die Unternehmen durften die Tarife im
Durchschnitt um 2% über die Inflationsrate anheben! Tatsächlich entpuppten sich die RECs
als höchstprofitable Investments und während der ersten Regulierungsperiode lag der durchschnittliche interne Zinsfuß bei 33%, mehr als doppelt so hoch wie die geschätzten Kapitalkosten für die RECs von 6-9% (Parker, 1997).
Bei der Neufestsetzung stand man vor dem Problem, ob die Performance der RECs der ersten
Regulierungsperiode berücksichtigt werden, mit dem negativen Effekt, dass dadurch die Anreize zu Kosteneinsparungen gemildert werden, oder ob das X weiterhin auf unternehmensexogen Faktoren beruhen soll. Im August 1994 verfügte der damalige Direktor von OFFER,
Littlechild, eine einmalige Reduktion der Preise zwischen 11 und 17% für das Jahr 1995/6
und die nachfolgenden Jahre ein (RPI – 2). Diese als zu gering empfundenen Reduktionen
lösten in der Öffentlichkeit eine heftige Diskussion über die „zu hohen“ Gewinne der RECs
und deren Verteilung an die Konsumenten aus. Verstärkt wurde die Diskussion noch durch
den Umstand, das auch der Kapitalmarkt die neue Regulierung als sehr generös für die RECs
Öffentliche Unternehmen
209
betrachtete, da deren Aktienkurse in der Folge anstiegen. Darüber hinaus bot Northern
Electric im Zuge einer Übernahmeabwehr seinen Aktionären große Bonuszahlungen an.
Der öffentliche Druck und die durch den Kapitalmarkt bereitgestellt Information über die Profitabilität der RECs führte zu einer von niemanden wirklich erwarteten – speziell weil der
Regulator Littlechild hieß! – Wiederaufnahme des Regulierungsverfahrens im März 1995:
„(The) regulator considered that his determination of the cap a few months earlier had
been ill-judged.“ (Parker, 1997: 303)
OFFER verschärfte die ein Jahr vorher festgelegte Regulierung und verfügte 1996/7 eine weitere einmalige Reduktion der Preise um 10-13% und ein RPI-3 für 1997-2000. Also selbst der
Erfinder von RPI-X, Littlechild als Direktor von OFFER, brach zumindest einmal sein für die
zweite Regulierungsperiode ex-ante abgegebenes Versprechen.
Trotzdem verstummte in der öffentlichen Diskussion nicht die Kritik an den Gewinnen der
RECs bzw. aller privatisierten Unternehmen. Trotz realer Preisrückgänge für Telefon, Gas
und Strom seit der Privatisierung hat Tony Blair (als neuer und moderate Führer der LabourParty) zuerst eine Steuer für Versorgungsunternehmen angekündigt, um diese „hohen“ Gewinne für die Gesellschaft wiedereinzuholen (The Economist, August 13th, 1994, S68), und
dies dann auch tatsächlich 1997 durchgeführt. 24 Unternehmen hatten eine windfall tax in
Höhe von £ 5,2 Mrd. zu bezahlen, £ 1,25 Mrd. die RECs.
Die Netztarifkontrolle im Jahre 2000 brachte eine weitere Reduktion der Netztarife. Die Preise wurden im Jahre 2000/1 einmalig um durchschnittlich 26% gesenkt. Davon entfielen 2%
auf die Kapitalkosten, 9% auf die Reallokation von Kosten vom Netz zum Vertrieb, 11% auf
realisierte Reduktionen der variablen Kosten, OPEX (kurz für operating expenditures), und
4% auf zukünftige Reduktionen der OPEX zur Erreichung einer Effizienzgrenze. Die Effizienzgrenze ergibt sich aus einem Benchmarking der OPEX der 12 RECs. Die Unternehmen
auf dieser Grenze werden zweifach belohnt. Einerseits wird die Effizienzgrenze auf dem Niveau von 1997/98 belassen, d.h. kein frontier shift verlangt, und somit verbleiben die Gewinne aus einer Verschiebung in der folgenden Regulierungsperiode zur Gänze bei den Unternehmen. Andererseits wird auf die zulässigen beeinflussbaren OPEX für die nächste Periode
ein Aufschlag von 1% gewährt. Es darf jedoch nicht der Eindruck bestehen, dass die effizientesten Unternehmen auf dem Status Quo verbleiben können, müssen sie doch zumindest wegen der oben genannten Eigenschaft von RPI-X die Produktivitätssteigerungen der Gesamtwirtschaft erreichen. Für die Periode von 2001/2-2004/5 wurde ein RPI-3 festgelegt.
In England hat sich RPI-X im Laufe der drei Regulierungsperioden doch erheblich verändert.
Von einem exogenen Fixpreisvertrag kann nur mehr bedingt die Rede sein, da bei der Neufestsetzung sehr wohl das vergangene Verhalten der Unternehmen bei der Bestimmung des X
berücksichtigt wird. Weiters stellt die Regulierungsbehörde basierend auf den Daten der Vergangenheit Schätzungen der zukünftigen Kapital- und operativen Kosten an und leitet daraus
die zulässigen jährlichen Umsätze in der folgenden Regulierungsperiode ab. Das Verfahren
selbst erweckt aber nicht den Eindruck der „Wissenschaftlichkeit“, sondern stellt vielmehr
eine mit Zahlen unterlegte pragmatische „Daumenregel“ dar (vgl. OFGEM, 1999).
Öffentliche Unternehmen
210
Das Beispiel England weist auf die Probleme im Zusammenhang mit der Bindung des Regulators bzw. des politischen Marktes hin. Natürlich waren die Gewinne der RECs nach der Privatisierung massiv und die öffentliche Forderung nach einer Aufteilung verständlich, jedoch
stellt sich die Frage, ob die Unternehmen, wenn sie gewusst hätten, dass ihnen die „hohen“
Gewinne ex post weggenommen werden, ähnliche Gewinne und Produktivitätssteigerungen
überhaupt produziert hätten? Andererseits kann man natürlich auch fragen, inwieweit der öffentliche Druck vermieden hätte werden können, wenn nicht generell als zu „lax“ empfundene
X Faktoren zu Beginn der Regulierung gesetzt worden wären?
10.4.3.2 Niederlande
Eine PCR mit einem X-Faktor bestehend aus einem allgemeinen und unternehmensspezifischen Teil findet sich bei der niederländischen Regulierung der Netzbetreiber. Dort heißt es:
“The final estimates of X will be partially made up of a combination of the estimate of likely
productivity growth rate for the most efficient firm (the ‘frontier shift’ effect) and the rate at
which the relative inefficiency for the given firm(the ‘catch up’ effect) can be eliminated.”(DTe, 1999: 35)
Der Aufholbedarfs (‚catch up’ effect) der einzelnen Unternehmen wurde mittels eines
Benchmarking ermittelt, wobei sich der Regulator, DTe, für eine DEA entschieden hat. Bei
der DEA besteht der formale Ansatz darin, die beobachteten Input- und Outputdaten der Unternehmen durch eine Produktionsmöglichkeitsgrenze (Effizienzgrenze), welche von den „relativ“ effizientesten Unternehmen gebildet wird, zu umschließen. Unternehmen, welche nicht
auf der Grenze liegen, gelten als relativ ineffizient. Bei dieser Methode wird keine optimale
Produktionstechnologie für die Unternehmen auf der Effizienzgrenze geschätzt, sodass über
die Effizienz der Unternehmen auf der Effizienzgrenze nichts ausgesagt wird. Im Zuge der
DEA wurde die Frage aufgeworfen, ob ein Model mit variablen oder konstanten Skalenerträgen angenommen werden sollte, wobei sich DTe dem Ratschlag von Frontier Economics
(2000) folgend für konstante Skalenerträge entschlossen hat82. Auf Grundlage der Ergebnisse
des Benchmarking und der Schätzung der zukünftigen optimalen Kapitalkosten wird mittels
eines nicht näher zu beschreibenden Finanzmodell der Umfang des Aufholbedarfs in einen
unternehmensspezifischen Teil für den X Faktor umgelegt. Im Finanzmodel wird auch der
frontier shift Effekt berücksichtigt (DTe, 1999).
Der frontier shift, den auch die relativ effizienten Unternehmen vornehmen müssen, wird
hauptsächlich mit dem Hinweis, dass die Unternehmen in einem internationalen Vergleich
nicht relativ effizient sind, begründet. Während jedoch für die Berechnung des catch up Effekt eine genaue Methode, abhängig von der relativen Ineffizienz der Unternehmen, angegeben wird, findet sich nichts ähnliches für den frontier shift Effekt. Die Heranziehung der historischen TFP wird implizit abgelehnt, wenn DTe bei der allgemeinen Diskussion, ob der X
Faktor auf exogenen oder unternehmensindividuellen Daten basieren soll, meint:
82
7)
„(S)cale is a factor that the companies can control through changes in ownership.”(Frontier Economics, 2000:
Öffentliche Unternehmen
211
„The simplest form of CPI-X would set the X equal to the actual or lagged value of the
chosen TFP index’s rate of growth…The disadvantage of this measure is that it does
not take into account any company specific information on initial cost inefficiency and
hence the scope for cost reduction…The DTe is of the view that setting X equal to a
measure of TFP growth is not desirable for the first regulatory review period.”(DTe,
1999: 30)
Die vorhanden Daten über die TFP am Anfang der Regulierungsperiode reichen für eine Verbindung mit dem allgemeinen X somit für DTe nicht aus. Dies gilt jedoch nicht für alle Zukunft, da die während der ersten Regulierungsperiode ermittelten Unternehmensdaten bei der
Festlegung in der zweite sehr wohl herangezogen werden (DTe, 2000: 14).
Der Wert des ersten frontier shift Effekt in der Höhe von 2% durch DTe war vielmehr Ergebnis einer „Daumenregel“, was aus dem Abschlussbericht von Frontier Economics (2000) gut
ersichtlich wird:83
„From the limited information available, DTe has decided to presume that a reasonable level for frontier shift is 2% per year. This is smaller than the figure suggested by
the analysis of U.S. companies and is consistent with the view that half of the productivity growth in the UK are due to frontier shift.” (Frontier Economics, 2000: 30)
Darüber hinaus finden sich ähnliche Argumente wie bei Beesley/Littlechild (1989). Der geänderte Regulierungsrahmen sollte selbst dem relativ effizienten Unternehmen eine Erhöhung
der Produktivität ermöglichen. Sind sie erfolgreich, wird der Unternehmenswert steigen und
der Konsument als Steuerzahler beim Verkauf von öffentlichen Anteilen an den Unternehmen
profitieren:
„The exact rate of the frontier shift in the Netherlands is probably, therefore, not too
important, providing that the target level is not set too high.”(DTe, 2000: 14)
Wesentlich ist jedoch, dass bei einer Übererfüllung des allgemeinen X Faktors nicht ex post
der „exzessive“ Gewinn abgeschöpft wird (DTe, 2000: 14).
Das niederländische Regulierungsmodell ist als zwei Stufenmodell geplant. Die erste Stufe
von 2000-2003 dient dazu alle Unternehmen auf ein einheitliches neues Effizienzniveau zu
bringen und bedient sich hierbei des oben beschriebenen zweigliedrigen X Faktors (catch up
und frontier shift). In der zweiten Stufe ist jedoch geplant die regulierten Preise von den individuellen Kosten der einzelnen Unternehmen zu entkoppeln. Dies soll durch eine Yardstick
Regulation84 erfolgen, bei der aus den vorhanden Daten durchschnittliche Kosten für Netzanschluss, kWh, KW usw. bestimmt und daraus angemessene Preise für das Durchschnittsunternehmen ermittelt werden. Auf individuelle Effizienzverbesserungsziele wird verzichtet und
auf einheitliche branchenbezogene übergegangen. Es ist zu erwarten, dass auf der Grundlage
der Daten der ersten Regulierungsperiode zur Bestimmung der branchenbezogenen X Faktoren Malmquist-Produktivitätsindizes herangezogen werden.
83
84
vgl. DTe (2000: 14)
Zur Darstellung der Yardstick Regulation siehe Shleifer, 1985.
Öffentliche Unternehmen
212
Zusammenfassend gilt, dass in den Niederlanden die Zweiteilung des X Faktors nur eine Vorstufe, zum Zwecke der Angleichung aller Unternehmen auf ein Effizienzniveau, für eine
Yardstick Regulierung mit einheitlichem X darstellt. Des weitern gilt, dass die erstmalige
Festlegung des generellen X Faktors in der Höhe von 2% eher im Sinne von Littlechild erfolgt
ist: Es ist nicht notwendig, das „richtige“ X zu finden!
10.4.3.3 Norwegen
In Norwegen wurde nach der ersten Phase mit einer kostenorientierten Regulierung (19921996) zum Teil auch auf Wunsch der Unternehmen selbst – wenn sie schon reguliert werden,
wollten sie auch die Möglichkeit haben, durch Produktivitätssteigerungen höhere Gewinne zu
realisieren – auf eine anreizorientierte Regulierung umgestellt. Im Unterschied zu England
und den Niederlande entschied sich Norwegen jedoch nicht für eine Preisobergrenzen-, sondern Erlösobergrenzenregulierung. Als Ziel für die neue Regulierung (1997-2001) wurde die
Steigerung der Kosteneffizienz genannt.
1997 wurde ein DEA Benchmarking der Unternehmen durchgeführt. Im Unterschied zu den
Niederlande wurden die Ergebnisse jedoch nicht eins-zu-eins für die Berechnung der Produktivitätsabschläge verwendet, sondern dienten der Einteilung der Unternehmen in Effizienzgruppen, aus denen individuelle jährliche Abschläge von 0-3% abgeleitet wurden. Darüber
hinaus wurde ein allgemeiner jährlicher Abschlag von 1,5% festgelegt. Die Erlösobergrenzen
werden jährlich aufgrund der Inflationsentwicklung (Konsumentenpreisentwicklung) sowie
aufgrund der Nachfrageentwicklung angepasst. In der laufenden Regulierungsperiode (20022006) wurde der allgemeine Abschlag erneut auf 1,5% und die individuellen – wieder basierend auf einem DEA Benchmarking – zwischen 0-5,2% festgelegt.
Als Vorstufe zum Übergang auf die neue anreizbasierte Regulierung hat der norwegische Regulator eine Studie über die Produktivitätsentwicklung der Verteilungsunternehmen für die
Zeitperiode 1983-1989 in Auftrag gegeben.
„When selecting a regulatory regime, and in particular for productivity improvement
targets, for Norwegian electric distribution utilities it is of great interest to have information on the past productivity record.” (Forsund/Kittelsen, 1998: 208)
Førsund/Kittelsen (1998) stellen für diese Zeitperiode eine jährliche Steigerung der TFP von
durchschnittlich 1,9% fest, wobei der frontier shift mit 1,7% den catching up Effekt mit 0,1%
überwiegt. Im Zusammenhang mit dem generellen Abschlag ist jedoch nur der frontier shift
bedeutsam. Der Wert von 1,5% kommt den 1,7% somit sehr nahe, wodurch angenommen
werden kann, dass der Regulator bei dessen Bestimmung sehr wohl auf die Produktivitätsstudien Bezug genommen hat. In diesem Zusammenhang muss aber erwähnt werden, dass die
verlangte generelle Produktivitätssteigerung von 1,5% noch um die in der Inflationsrate versteckte gesamtwirtschaftliche Produktivitätssteigerung erhöht werden muss. Ist
Wˆ E Wˆ  0 aber Tˆ E  0 so müssen die Unternehmen einen höheren frontier shift als in der
Periode 1983-1989 erreichen. Ein Umstand der jedoch akzeptiert wurde.


Das norwegische Beispiel zeigt, dass es sehr wohl im Interesse der regulierten Unternehmen
selbst sein kann, auf ein für Regulator, Konsumenten und Unternehmen akzeptables neues
Öffentliche Unternehmen
213
Regulierungsregime rasch überzutreten, damit die Unternehmen ausgestattet mit einem klaren
Planungshorizont sich auf die Führung des Unternehmens und nicht auf die Auseinandersetzungen mit dem Regulator konzentrieren können.
10.5 Vergleichende Konkurrenz
Ein zentrales Problem vieler Anreizregulierungen ist, dass sie vom eigenen historischen Verhalten abhängen. Dies wiederum provoziert strategisches Verhalten und dadurch Ineffizienz,
siehe folgendes Unterkapitel. Eine Möglichkeit, dieses Verhalten zu unterbinden, ist, dass die
Prämie abhängt vom Verhalten anderer und vergleichbarer Unternehmen anstatt vom eigenen.
Zum Beispiel wird dem Unternehmen ein Preis vorgeschrieben, der die Durchschnittskosten
vergleichbarer Konkurrenten (z. B. anderer Landesgesellschaften und Stadtwerke) beschreibt.
Dies führt (in einem nichtkooperativen Spiel mit Nash-Gleichgewicht, siehe Anhang F) zu
Kostenminimierung und Effizienz. Der Grund ist, dass es einem Unternehmen nichts nützt,
sich strategisch zu verhalten. Aus diesem Grund kann man den Zutritt von zusätzlichen Firmen selbst bei natürlichen Monopolen verteidigen, um Information über Kosten zu gewinnen
und Anreize zur Kostenminimierung zu geben. Dieses Effizienzergebnis gilt jedoch nur, wenn
die regionalen Märkte hinreichend ähnlich sind. Zu unterschiedliche Marktbedingungen (zusätzlich zu imperfekter Information) - was realistisch erscheint - führen dann zu Schlupf, auch
bei einem optimalen (principal-agent) Kontrakt. Weiter kann kollusives Verhalten des Managements die Effizienz dieser Regulierung unterlaufen, insbesondere bei Beibehaltung der
Marktstrukturen und des Managements, das in der Elektrizitätswirtschaft nicht gerade in
Konkurrenz trainiert ist.
Eine naheliegende, praktikable Anwendung zumindest einer gemilderten Form dieser Regulierungsform bietet sich für Stadtwerke an, weil hier im großen und ganzen ähnliche oder vergleichbare Bedingungen gegeben sind und daher zumindest Abschätzung über die Effizienz
der jeweiligen Gesellschaft möglich ist: So müßten Gesellschaften mit höheren Abnahmedichten billiger sein, ceteris paribus, weil dieser Markt durch wachsende Skalenerträge charakterisiert wird. Auch in den jüngsten Erfahrungen mit den regionalen britischen Stromvertriebsgesellschaften moniert der Economist, August 13th, 1994, das Fehlen selbst verbalen
Anprangerns ineffizienter Gesellschaften.
Die folgende Darstellung verwendet das in Shleifer (1985) entwickelte principal-agent Modell. Angenommen, n Firmen, etwa regionale Gesellschaften, sind mit dem Angebot einer
Dienstleistung betraut. Die Regulierungsbehörde kann die Stückkosten (ci) zwar beobachten,
aber weiß nicht, ob diese Kosten durch Aufwand und Fleiß des Managements (ai) zustande
kommen oder durch glückliche Umstände, Õi.
Ci = i-ai, i = 1,...,n.
(1)
Für ein individuelles, unreguliertes Unternehmen ergibt sich folgendes Ziel:
U = [p - c]q - (a),
(2)
Öffentliche Unternehmen
214
zu maximieren, d. h., die Unternehmensführung liebt Profit, aber haßt Anstrengungen. Dabei
sind alle Firmen als sehr ähnlich vorausgesetzt, so dass die Indizierung nach Unternehmen, i =
1,...,n unterbleiben kann. Das soziale Wohlfahrtskalkül lautet:
W = S(q) - ( - a)q - (a).
(3)
Maximierung von W (respektive q und a) liefert folgende erstbeste Bedingungen:
p = -a,
(4)
'(a) = q.
(5)
Diese Lösung kann jetzt auch dezentral und ohne Kenntnis von  installiert werden. Die
Grundidee ist, dass die Preisvorschriften vom Verhalten der anderen Unternehmen abhängig
gemacht werden, etwa für Firma i:
_ ┌
┐
pi = ci :=   cj /(n-1).
j≠i 
(6)
Individuelles Optimieren der Firmenzielfunktion Ui durch die Wahl des Aufwandes ai bei
vorgegebenem Preis pi nach (6) liefert folgende notwendige Bedingung:

q(ci) = '(ai).
(7)
In einem Nash-Gleichgewicht muss die Bedingung (7) für alle Firmen i, i = 1,...,n, gleichzeitig erfüllt sein. In einem symmetrischen Nash-Gleichgewicht muss daher die erstbeste Lösung ' = q gelten.
Eine Implikation des Ansatzes von Shleifer ist das Benchmarking vergleichbarer oder ähnlicher Einheiten wie Elektrizitätsversorgungsunternehmen, Spitäler, Schulen, Gefägnisse, etc.
Der wichtigste empirische und praktische Ansatz dazu ist die Data-Envelopment Analyse, die
im folgenden Kapitel kurz beschrieben wird.
10.6 Data Envelopment Analysis (DEA)85
This section is an introduction to Data Envelopment Analysis (DEA) for people unfamiliar
with the technique. For a more in-depth discussion of DEA, the interested reader is referred to
Seiford and Thrall [1990] or the seminal work by Charnes, Cooper, and Rhodes [1978].
DEA is commonly used to evaluate the efficiency of a number of producers. A typical statistical approach is characterized as a central tendency approach and it evaluates producers relative to an average producer. In contrast, DEA is an extreme point method and compares each
85
http://www.etm.pdx.edu/dea/homedea.html#Intro_to_DEA
Öffentliche Unternehmen
215
producer with only the "best" producers. By the way, in the DEA literature, a producer is usually referred to as a decision making unit or DMU. Extreme point methods are not always the
right tool for a problem but are appropriate in certain cases.
A fundamental assumption behind an extreme point method is that if a given producer, A, is
capable of producing Y(A) units of output with X(A) inputs, then other producers should also
be able to do the same if they were to operate efficiently. Similarly, if producer B is capable
of producing Y(B) units of output with X(B) inputs, then other producers should also be capable of the same production schedule. Producers A, B, and others can then be combined to
form a composite producer with composite inputs and composite outputs. Since this composite producer does not necessarily exist, it is sometimes called a virtual producer.
The heart of the analysis lies in finding the "best" virtual producer for each real producer. If
the virtual producer is better than the original producer by either making more output with the
same input or making the same output with less input then the original producer is inefficient.
Some of the subtleties of DEA are introduced in the various ways that producers A and B can
be scaled up or down and combined.
The procedure of finding the best virtual producer can be formulated as a linear program. Analyzing the efficiency of n producers is then a set of n linear programming problems. The following formulation is one of the standard forms for DEA. lambda is a vector describing the
percentages of other producers used to construct the virtual producer. lambda X and lambda Y
and are the input and output vectors for the analyzed producer. Therefore X and Y describe the
virtual inputs and outputs respectively. The value of theta is the producer's efficiency.
DEA Input-Oriented Primal Formulation
It should be emphasized that an LP of this form must be solved for each of the DMUs. There
are other ways to formulate this problem such as the ratio approach or the dual problem but I
find this formulation to be the most straightforward. The first constraint forces the virtual
DMU to produce at least many outputs as the studied DMU. The second constraint finds out
how much less input the virtual DMU would need. Hence, it is called input-oriented. The factor used to scale back the inputs is theta and this value is the efficiency of the DMU.
Öffentliche Unternehmen
216
Simple Numerical Example
A simple numerical example might help show what is going on. Assume that there are three
players (DMUs), A, B, and C, with the following batting statistics. Player A is a good contact
hitter, player C is a long ball hitter and player B is somewhere in between.
Player A: 100 at-bats, 40 singles, 0 home runs
Player B: 100 at-bats, 20 singles, 5 home runs
Player C: 100 at-bats, 10 singles, 20 home runs
Now, as a DEA analyst, we play the role of Dr. Frankenstein by combining parts of different
players. First let us analyze player A. Clearly no combination of players B and C can produce
40 singles with the constraint of only 100 at-bats. Therefore player A is efficient at hitting
singles and receives an efficiency of 1.0.
Now we move on to analyze player B. Suppose we try a 50-50 mixture of players A and C.
This means that lambda=[0.5, 0.5]. The virtual output vector is now,
lambda Y = [0.5 * 40 + 0.5 * 10, 0.5 * 0 + 0.5 * 20] = [25, 10]
Note that X = 100 = X(0) where X(0) is the input(s) for the DMU being analyzed. Since
lambdaY > Y(0) = [20, 5], then there is room to scale down the inputs, X and produce a virtual
output vector at least equal to or greater than the original output. This scaling down factor
would allow us to put an upper bound on the efficiency of that player's efficiency. The 50-50
ratio of A and C may not necessarily be the optimal virtual producer. The efficiency, theta,
can then be found by solving the corresponding linear program .
It can be seen by inspection that player C is efficient because no combination of players A and
B can produce his total of 20 home runs in only 100 at bats. Player C is fulfilling the role of
hitting home runs more efficiently than any other player just as player A is hitting singles
more efficiently than anyone else. Player C is probably taking a big swing while player A is
slapping out singles. Player B would have been more productive if he had spent half his time
swinging for the fences like player C and half his time slapping out singles like player A.
Since player B was not that productive, he must not be as skilled as either player A or player
C and his efficiency score would be below 1.0 to reflect this.
This example can be made more complicated by looking at unequal values of inputs instead of
the constant 100 at-bats, by making it a multiple input problem, or by adding more data points
but the basic principles still hold.
Graphical Example
The single input two-output or two input-one output problems are easy to analyze graphically.
The previous numerical example is now solved graphically. (An assumption of constant returns to scale is made and explained in detail later.) The analysis of the efficiency for player B
looks like the following:
Öffentliche Unternehmen
217
Graphical Example of DEA for Player B
If it is assumed that convex combinations of players are allowed, then the line segment connecting players A and C shows the possibilities of virtual outputs that can be formed from
these two players. Similar segments can be drawn between A and B along with B and C.
Since the segment AC lies beyond the segments AB and BC, this means that a convex combination of A and C will create the most outputs for a given set of inputs.
This line is called the called the efficiency frontier. The efficiency frontier defines the maximum combinations of outputs that can be produced for a given set of inputs. The segment
connecting point C to the HR axis is drawn because of disposability of output. It is assumed
that if player C can hit 20 home runs and 10 singles, he could also hit 20 home runs without
any singles. We have no knowledge though of whether avoiding singles altogether would allow him to raise his home run total so we must assume that it remains constant.
Since player B lies below the efficiency frontier, he is inefficient. His efficiency can be determined by comparing him to a virtual player formed from player A and player C. The virtual
player, called V, is approximately 64% of player C and 36% of player A. (This can be determined by an application of the lever law. Pull out a ruler and measure the lengths of AV, CV,
and AC. The percentage of player C is then AV/AC and the percentage of player A is
CV/AC.)
The efficiency of player B is then calculated by finding the fraction of inputs that player V
would need to produce as many outputs as player B. This is easily calculated by looking at the
line from the origin, O, to V. The efficiency of player B is OB/OV which is approximately
68%. This figure also shows that players A and C are efficient since they lie on the efficiency
frontier. In other words, any virtual player formed for analyzing players A and C will lie on
players A and C respectively. Therefore since the efficiency is calculated as the ratio of
OA/OV or OC/OV, players A and C will have efficiency scores equal to 1.0.
The graphical method is useful in this simple two dimensional example but gets much harder
in higher dimensions. The normal method of evaluating the efficiency of player B is by using
an LP formulation of DEA.
Öffentliche Unternehmen
218
Returns to Scale
Since this problem uses a constant input value of 100 for all of the players, it avoids the complications caused by allowing different returns to scale. Returns to scale refers to increasing or
decreasing efficiency based on size. For example, a manufacturer can achieve certain economies of scale by producing a thousand circuit boards at a time rather than one at a time - it
might be only 100 times as hard as producing one at a time. This is an example of increasing
returns to scale (IRS.)
On the other hand, the manufacturer might find it more than a trillion times as difficult to produce a trillion circuit boards at a time though because of storage problems and limits on the
worldwide copper supply. This range of production illustrates decreasing returns to scale
(DRS.) Combining the two extreme ranges would necessitate variable returns to scale (VRS.)
Constant Returns to Scale (CRS) means that the producers are able to linearly scale the inputs
and outputs without increasing or decreasing efficiency. This is a significant assumption. The
assumption of CRS may be valid over limited ranges but its use must be justified. As an aside,
CRS tends to lower the efficiency scores while VRS tends to raise efficiency scores.
The CRS assumption can be made in the case of baseball batting since each at-bat is relatively
independent and the cumulative batting statistics are then the sum of individual events. For
example, it is expected that doubling the number of at-bats or plate appearances will double
the number of home runs that a player hits which implies that the CRS assumption can be
used. Therefore other situations such as VRS, IRS, and DRS are not covered here. This also
explains why most of the examples concentrate on cases with equal inputs. In the one input
model, the CRS assumption allows players to be scaled up or down and so the multiplication
of player inputs to achieve some constant value is implied in some cases.
10.7 Strategisches Managementverhalten
Der Optimismus verbunden mit verschiedenen Anreizregulierungen ist möglicherweise unbegründet. Denn die Präferenzen des Managements (für "Trägheit") und die Tatsache, dass nur
ein Teil des Erfolges einbehalten werden darf, impliziert, dass die X-Ineffizienz regulierter
Unternehmen nie gänzlich eliminiert werden kann. Präziser, mit Ausnahme der vergleichenden Konkurrenz, hängen viele Anreizmechanismen - z. B. Price-Caps, Vogelsang-Finsinger
Anreiz - vom historischen, eigenen Verhalten ab. So zeigt bereits Sappington (1980), dass das
V-F Schema strategisches Verhalten des Unternehmens provoziert, d. h., das Unternehmen
produziert zu Beginn bewusst ineffizient; ratchet effect.
Hollander-Haurie-L'Ecuyer (1987) zeigen noch drastischere Konsequenzen aus strategischem
Managementverhalten auf, wenn die Anreizregulierung vom historischen Verhalten abhängt
und das Management in Voraussicht das Schema unterläuft. Dann kann nicht nur die durchschnittliche Performance verschlechtert werden, sondern das führt zu einem sogenannten
"Drehtür-Effekt": Das Management schwankt zwischen Effizienz und Ineffizienz, um abwechselnd für Verbesserungen belohnt werden zu können. Dies ist kurz im Anhang G ausgeführt. Die Lehre, die aus dieser Untersuchung zu ziehen ist, ist, dass bei jedem, oft an
Hand eines statischen Modelles vorgeschlagenen Anreiz auch untersucht wird, wie das
Öffentliche Unternehmen
219
Unternehmen langfristig die Daten des Anreizsystems zu seinen Gunsten manipulieren
kann. Daher ist mit vielen bis dato vorgeschlagenen Anreizen vorsichtig umzugehen und
ihre statisch gegebene Effizienz selten auf die dynamische Praxis übertragbar.86
86Diese Möglichkeit wird leider in aktuellen Politik (etwa in der Sozialpolitik, aber auch bei EVU-Sparprogrammen, vgl. Wirl, 1994), bewusst oder unbewusst unterlassen mit teilweise dramatischen finanziellen Konsequenzen.
Öffentliche Unternehmen
220
11 Eine ökonomische Theorie der Deregulierung
Drei unterschiedliche Regime gegenüber öffentlichen Unternehmen sind prinzipiell denkbar:
- freier Markt,
- öffentliches Eigentum, Bürokratie unter politischer Kontrolle,
- privates Eigentum mit öffentlicher Regulierung.
Die erste Variante wurde bis vor kurzem mit dem Argument Marktversagen kaum probiert.
Jedoch auch die beiden anderen Arrangements konnten nicht ganz für Marktimperfektionen
korrigieren. Die Firmen im öffentlichen Eigentum produzieren ineffizient, vergleiche Borcherding-Pommerehne-Schneider (1982), bedingt durch bürokratisches Verhalten, fehlende
Eigentumsrechte87 und politischen Druck. Aber auch private, regulierte Unternehmen produzieren ineffizient aufgrund des bereits erwähnten Averch-Johnson Effektes. Aus diesem Dilemma ineffizienter Industriestrukturen scheint es kein Entkommen zu geben. Jedoch die in
den 70er und achtziger Jahren entwickelte Theorie anfechtbarer Märkte (theory of contestable
markets) in Baumol-Panzar-Willig (1982, 1989)88 beschreibt Märkte weit weg vom Ideal der
perfekten Konkurrenz, z. B.: Industrien mit sehr wenig Firmen, in denen die sozial angenehmen Eigenschaften von Konkurrenzmärkten gelten. In anderen Worten, der Wirkungsbereich
der unsichtbaren Hand von Adam Smith hat einen weit größeren Wirkungsbereich, als traditionell angenommen wurde. Wichtiger Vorläufer dieser Theorie sind Bertrand (1883) mit seiner Kritik an der Lösung des Oligopol-Modells durch Cournot und Demsetz (1968), "Why
Regulate Utilities?".
Ein anfechtbarer Markt ist durch folgende Voraussetzungen charakterisiert:
- die Produktionstechnologie ist bekannt
Fixkosten sind reversibel - keine sunk costs
und
allgemein
zugängig,
und
alle
- die am Markt befindlichen Firmen können die Preise nur langsam ändern,
- die Konsumenten können relativ schnell auf Preise reagieren.
- keine Annahmen über Skalenerträge!
Diese Randbedingungen - die Autoren nennen es kurz und illustrativ hit and run - führen auch
für Märkte mit wenigen Firmen zu sozial optimaler Allokation und ab zwei Firmen zu erstbesten Preisen (Grenzkostentarifen). Dieses Ergebnis ist unabhängig von Voraussetzungen
über die Produktionstechnologie, außer der Abwesenheit von sunk costs. Im Gegensatz dazu
87Private
Eigentümer müssen und setzen sich auch intensiver mit dem principal-agent Problem auseinander und
geben dem Management entsprechende Anreize. Bei öffentlichen Unternehmen fehlt schon die Grundlage der
Bemessung sozial optimalen Verhaltens.
88Kompaktere Darstellungen findet man etwa in Baumol (1982), Bailey-Friedlaender (1982), Spence (1983) und
Waterson (1987).
Öffentliche Unternehmen
221
verlangt die traditionelle Analyse von Konkurrenzmärkten, dass die Skalenerträge beschränkt
und die Anzahl der Unternehmen groß ist.
Dieser Ansatz der anfechtbaren Märkte erweitert die Konkurrenz auf Firmen, die momentan
noch außerhalb des Marktes stehen, die aber bei günstigen Bedingungen in den Markt eintreten können, die Technologie duplizieren und dabei einen Gewinn realisieren können. Bei Änderung des Verhaltens der im Markt befindlichen Firmen wird die Operation wieder abgeschlossen, und der Eindringling zieht sich vom Markt zurück. Diese potentielle Drohung
diszipliniert die im Markt operierenden Firmen. Somit sind günstige Bedingungen des Ein-,
aber auch des Austritts kritisch für die Existenz eines anfechtbaren Marktes. Die Existenz von
sunk costs ist ein gewichtiges Argument, dass ein anfechtbarer Markt nicht gegeben ist.
11.1 Eigenschaften von Kostenfunktionen (eindimensional)
Definitionen:
c(y)
= Gesamtkosten, die bei der Produktion von y Outputeinheiten anfallen.
c(y)/y = Durchschnittskosten (average cost, ac), also die Gesamtkosten pro Stück
c’(y)
= Grenzkosten (marginal cost, mc)
Skalenertrag:
S
c( y )
1
 ,
c' ( y ) * y  c
wachsend, wenn S > 1, konstant wenn S = 1 und fallend, wenn S < 1.
Eine Kostenfunktion ist subadditiv, wenn gilt:
c(y + z) < c(y) + c(z)
für alle Zerlegungen/Aufteilungen des Gesamtoutputs y + z. Das heißt, wenn eine gemeinsame Produktion in jedem Fall billiger kommt als getrennt.
Eigenschaften (siehe dazu das folgende Beispiel):

Das Vorliegen einer subadditiven Kostenfunktion ist das Kriterium für das Vorliegen
eines natürlichen Monopols. Es bedeutet, dass technisch die Kosten so sind, dass sie
ihr Minimum haben, wenn nur ein Unternehmen am Markt ist, und den ganzen Output
allein produziert.

Meist werden natürliche Monopole mit wachsenden Skalenerträgen verbunden. Diese
sind aber weder notwendig noch hinreichend für das Vorliegen eines solchen.

Weiters impliziert ein natürliches Monopol nicht, dass die Durchschnittskosten fallen.
Öffentliche Unternehmen
222
11.2 Einführung an Hand eines Beispiels (Einproduktunternehmen)
Die folgende Diskussion verwendet eine U-förmige Form der Durchschnittskosten zur Illustration: Fixkosten (f) und quadratische variable Kosten mit dem Koeffizienten (v); d.h. die
Grenzkosten haben den Anstieg 2v. Die Produktionskosten einer Firma i bei Produktion yi
sind somit durch
2
C(yi) = f + vyi
(1)
bestimmt. Die minimalen Durchschnittskosten liegen dann beim Output y*=(f/v)½ jeder Firma bzw. bei ganzzahligen Vielfachen davon für die gesamte Industrie.
Die kostenminimale Aufteilung des Gesamtoutputs auf 2 Firmen verlangt, daß jede Firma
genau die Hälfte produziert: yi = Y1/2, i=1,2. Die Verallgemeinerung auf m Firmen ist analog.
Ein unmittelbares Korollar der obigen kostenminimierenden Aufteilung auf m Firmen ist, daß
dabei dieselben Grenzkosten bei jeder Firma anfallen.
Im Falle eines natürlichen Monopols muß die Kostenfunktion subadditiv sein, also bei gegebener Marktnachfrage Y1, muß jede Aufteilung der Nachfrage Y1 auf zwei oder mehr Firmen
die Produktionskosten erhöhen, also:
C(Y1) < 2C(Y1/2).
(2)
Dies ist dann und nur dann der Fall, wenn:
Y1 < (2f/v)½.
Dieser subadditive Bereich (und damit der Bereich ein natürliches Monopol) ist in Abb. 11.1
eingetragen. Für höhere Outputs ist die Aufteilung auf mehrere Firmen kostenminimal. Aber
trotzdem sind in einem Teilbereich
(f/v)½ < y < (2f/v)½
dieses sub-additiven Bereichs die Durchschnittskosten,
C(y)/y = (f/y + vy),
steigend und auch die Skalenerträge
S = C/(C’y) = (f + vy2)/(2vy2),
fallend.
Abb. 11.1 zeigt die durchschnittlichen Produktionskosten der einzelnen Firmen (strichlierte
Parabel). Diese Kostenfunktionen sind an den Punkten jy* (minimaler Produktionskosten)
positioniert. Die durchgezogene Kurve zeigt die Durchschnittskosten der gesamten Industrie
Öffentliche Unternehmen
223
bei effizienter Konfiguration. Diese Funktion umhüllt die Kostenfunktionen der einzelnen
Unternehmen. Weiters sind zwei inverse Nachfragefunktionen P1 und P2, um unterschiedliche Industriegleichgewichte zu charakterisieren. Bei der Marktnachfrage P1 liegt das Gleichgewicht im subadditiven Bereich. Daher stellt ein Monopol die effiziente Industriestruktur
dar. Steigt jedoch die Nachfrage auf das Niveau P2, dann sind zwei Firmen (also ein Duopol)
optimal.
Durchschnittskosten.
3
zwei
Grenzkosten
2.5
2
ein Unternehmen
1.5
1
0.5
P2
P1
Y
0
0
0.5
1
1.5
2
2.5
3
3.5
4
f = ½, v = 1
Abb. 11.1: Beispiel (1) für eine Industrie abhängig vom Gesamtbedarf Y
Aus dieser Abbildung lassen sich bereits fogende interessante Konsequenzen der Theorie ablesen:
- Die optimale Industriestruktur, das ist die kostenminimale Anzahl von Firmen (m*), kann
unmittelbar bestimmt werden. Die optimale Firmenanzahl m* ist bestimmt durch Y/y*, wenn
der Quotient ganzzahlig ist bzw. durch eine der benachbarten ganzen Zahlen: m* = (Y/y*)Ý1.
- Je höher die Marktnachfrage ist, desto mehr nähert sich die Kurve der Durchschnittskosten
der gesamten Industrie, auch bei beliebigen Outputs, den minimalen Kosten an, die bei den
Outputs j(f/v)½ (j-mal die kostenminimale Firmengröße, j natürliche Zahl) anfallen; und diese
Annäherung ist rasch. Somit gilt bereits ab wenigen Firmen die übliche Nullprofitbedingung
perfekter Konkurrenzmärkte. Ersetzt man den Bereich minimaler Durchschnittskosten durch
einen Bereich konstanter Grenzkosten, erhält man auch für sehr geringe Marktteilnehmer bereits "erst-beste" Resultate: Preis = Grenzkosten = minimale Durchschnittskosten.
- Wachsende Durchschnittskosten können durchaus konsistent mit einem natürlichen Monopol sein (z.B. für (f/v)½ < Y < (2f/v)½ in der Kostenfunktion (1))
Öffentliche Unternehmen
224
- Die Bedingung für die Existenz eines natürlichen Monopols hängt nicht nur von der Kostenstruktur und Technologie, sondern auch von der Nachfrage ab; erhöht sich z.B. die Nachfrage
auf P2 und Output Y2, dann produzieren zwei Unternehmen effizienter; deshalb ist eine einmalig - durch den Beweis, daß die Bedingungen eines natürlichen Monopols gegeben sind gewährte Sonderstellung regelmäßig bei wachsender Nachfrage (aber auch bei Technologieänderungen) zu überprüfen.
- Grenzkostenpreise müssen (auch bei einem natürlichen Monopol) kein Defizit implizieren.
- Ein natürliches Monopol ist möglicherweise nicht gegen einen nichtinnovativen Eintritt gewappnet, sodaß fehlende legale Eintrittshürden zu Ineffizienz führen können. Das bedeutet, es
existiert im allgemeinen kein Marktgleichgewicht.
11.3 Ergebnisse
Ein Gleichgewicht eines (perfekt) anfechtbaren Marktes hat folgende - durchweg sozial
angenehme - Eigenschaften:
-
effiziente Industriestruktur, d.h. kostenminimale Bereitstellung der nachgefragten Mengen - keine X-Ineffizienz,
-
kein Profit für die im Markt operierenden Firmen,
-
sozial-optimale Preise: (erstbeste) Grenzkosten ab einem Duopol, (zweit-beste)
Ramsey-Preise in einem Monopol (weak invisible hand theorem, Baumol-BaileyWillig, 1976), also allokative Effizienz,
-
keine Quersubventionen.
Diese Theorie hat neben den oben skizzierten Ergebnissen andere interessante Facetten. Sie
unterstreicht die Notwendigkeit, dass natürliche Monopole und damit verbundene Lizenzen zu
unterschiedlichen Zeitpunkten (höhere Nachfrage, neue Technologien) kritisch zu untersuchen sind. Eine andere wichtige Erweiterung dieser Theorie ist die Analyse von Multiproduktunternehmen. Auf diese interessanten Details soll hier nicht näher eingegangen werden.
Die prinzipielle und wirtschaftspolitische Aussage dieser Theorie ist: Die Beseitigung von
Zutrittsrestriktionen in anfechtbaren Märkten ermöglicht durch potentielle Konkurrenz die Entwicklung effizienter Industriestrukturen auch in dünn besetzten Märkten.
Damit ist, zumindest für anfechtbare Märkte, das eingangs erwähnte Politikdilemma
lösbar: unregulierte Märkte garantieren Effizienz.
11.4 Gleichgewicht und dessen Nachhaltigkeit
Ein anfechtbarer Markt ist dann im Gleichgewicht, wenn für keinen (potentiellen) Eindringling eine Profitopportunität besteht (sustainability). Die Existenz dieses Gleichgewichtes
ist im allgemeinen nicht gesichert. Das heißt, selbst ein effizientes und nur Durchschnittspreise verrechnendes Unternehmen ist nicht vor dem Eintritt eines nicht-innovativen
Konkurrenten gefeit. Abb. 11.1 zeigt die Durchschnittskosten eines Versorgungsunternehmens, z. B. der Wasserversorgung vis a vis der Anzahl an Anschlüssen (N). Die Durch-
Öffentliche Unternehmen
225
schnittskosten fallen bis zur Anschlussdichte N1. Weitere Ausdehnung des Netzes erhöht die
Durchschnittskosten, z. B. durch geringere Dichte und/oder geringeren Bedarf der zusätzlichen Abnehmer. Die Marktnachfrage sei durch die fallende Kurve beschrieben, die die
Durchschnittskostenkurve bei N2 schneidet. Selbst wenn das Unternehmen nur den Durchschnittstarif P2 verrechnet, kann ein anderes Unternehmen einen Preis Pe < P2 verlangen, den
Output bis N1 anbieten und einen Profit (schraffiertes Rechteck in Abb. 11.2) realisieren.
P2
Pe
N
N1
N2
Abb. 11.2: Durchschnittskosten vis a vis Anschlüssen (N)
Die allgemeine Ansicht ist, dass dieses Problem in der Regulierung von Monopolen weniger
bedeutend ist, als im ersten Moment scheint. Denn kaum ein Markt ist wirklich perfekt anfechtbar. Und im Falle von Eintrittskosten kann der Monopolist meist noch einen Preis finden, der den Eintritt verhindert (allerdings für den Preis einer reduzierten Rente). Weiter stellt
die Hypothese eines preisfixierenden Monopols die angenehmste Situation für einen potentiellen Eindringling dar (deshalb auch die hohe Disziplinierung bei bereits sehr wenigen Marktteilnehmern). Brock-Scheinkmann (1983) zeigen, dass im Falle eines mengenfixierenden Monopols (und alle Kosten sind versunken) dieses Problem der Marktzutrittsresistenz effizienter
natürlicher Monopole verhindert werden kann. Insbesondere wird dieses theoretische Problem
- auch effiziente natürliche Monopole benötigen begleitende Zutrittsrestriktionen - nicht als
Rechtfertigung für legale Barrieren angesehen. Denn juristische Beschränkungen können
nicht zwischen sozial wertvoller, innovativer Konkurrenz und "Rosinenpicker" unterscheiden.
Die Bedeutung potentieller Herausforderung an ein öffentliches Monopol braucht wohl keine
zusätzliche Begründung, wenn man sich die rasch ändernden technologischen Bedingungen
unserer Zeit vor Augen führt.
Öffentliche Unternehmen
226
12 Internationale Vergleiche von Regulierungen und Erfahrungen
mit Deregulierung und Privatisierung
12.1 International89
Adam Smith (1723 – 1790), The Wealth of Nations, I Book V Chapter II Part II, 1776: “In
every great monarchy of Europe the sale of the crown lands would produce a very large sum
of money, which, if applied to the payment of the public debts, would deliver from mortgage
a much greater revenue than any which those lands have ever afforded to the crown (...).
When the crown lands had become private property, they would, in the course of a few years,
become well-improved and well-cultivated (...) the revenue which the crown derives from the
duties of customs and excise, would necessarily increase with the revenue and consumption of
the people.”
Figure 12.1: Privatisations in the world90
The process began in the late Seventies, with the Thatcher government in Great Britain but it
quickly spread across countries and continents to become a distinguishing feature of fin de
siècle capitalism. In a cross-country analysis Bortolotti, Fantini, Siniscalco and Vitalini (1997,
2nd draft: 1998) provide data and figures for the period of 1977 to 1996 which also clearly
indicate that privitization has become a major trend in industrial countries, transition economies and emerging countries (Figure 12.1).
Their investigations also show that privatizations are now common to most countries and occur across geographical regions (Figures 12.2 and 12.3) and sectors (Figure 12.4).
89
Based on the seminar paper of Gabriele Benisek, 2003.
Source Bernardo/Fantini, Marcella/Siniscalco, Domenico/Vitalini, Serena, "Privatisations and Institutions: A
Cross-Country Analysis", Fondazione Eni Enrico Mattei, Nota di Lavoro 67.97, September 1997, Second Draft,
March 1998 (www.feem.it/web/resun/wp/67-97.html).
90
Öffentliche Unternehmen
227
In another study Bortolotti, Fantini and Siniscalco (November 1998) find that privatization
processes around the world usually follow the same pattern: Typically, privatization starts
with small scale operations in non strategic sectors (f.e. agriculture, industry, banking, etc.).
At a second stage, privatization spreads into utilities and network industries (gas, electricity,
TLC, transports, etc.), often sold in various tranches due to the dimension of corporate assets.
Despite this common trend, privatization processes evolve at different speed – some governments have decided to transfer ownership and relinquish control in utilities and other SOEs
while other have stuck to partial privatization. (While the UK and Argentina went the farthest
in privatization in the shortest time, f.e. France and Italy experienced an abrupt interruption in
the mid-eighties.) Reasons for that might be the particular legal and regulatory framework of a
country.91
Figure 12.2: Sales by Area (Source: Bortolotti et al., 1998)
Figure 12.3: Revenues by Area (Source: Bortolotti et al., 1998)
91
See www.feem.it/web/active/newsl/398/r6.html [4th April, 2003]and Bortolotti/Fantini/Siniscalco: Regulation
and Privatization: The Case of Electricity, 1998.
Öffentliche Unternehmen
228
Figure 12.4: Privatizations 1977 – 1996: Sectors (Source: Bortolotti et al., 1998)
12.2 Privatization: Definitions, Pros and Cons
After these introducing words which obviously furnished evidence for the fact that privatization plays an important role in restructuring economies throughout the world, one might ask
oneself what the term "privatization" actually refers to.
Merely defining "privatization" is difficult as it is a very broad term and there exist numerous
definitions in the literature.92 Among others a very general definition of the term is: "Any process aimed at shifting functions and responsibilities, in whole or in part, from the government
to the private sector."93
Narrowly defined, "privatization" simply means a transfer of ownership from the state to private companies or individuals. More broadly, it means the transfer of state or public sector
functions and responsibilities. More broadly still, its definition can include a range of
measures – otherwise termed commercialisation – aimed at introducing more market-like
methods, structures and cultures into public activities.
One problem with defining privatization on an international scale is that different people
mean and understand different things by it:
92
i.e. see definitions at www.aft.org/privatization [4th April, 2003] or
www.privatization.org/database/WhatIsPrivatization.html [4th April, 2003].
93 See www.gao.gov/special.pubs/gg97121.htm [4th April, 2003].
Öffentliche Unternehmen
229
"Privatization is used to describe both a policy instrument applied to particular enterprises or
public services AND a more general economic and social policy: the term is used at the 'micro' and the 'macro' levels.
In terms of the 'micro' level Public Services International (1997) provide a scheme grouping
"privatization" into five categories, although particular measures can and often do manifest
more than one of them94:
1. Privatization of responsibility:
-
formal transfer to private organisation
-
transfer to user via abolition of service
-
transfer to user via reduction in service
-
liquidation of state-owned enterprise
-
liberalisation/deregulation of sector
2. Privatization of ownership:
-
share flotation
-
direct sale
-
auction sale
-
sale to investment fund
-
voucher privatization
-
restitution (to previous owners or in compensation)
-
transfer to management and/or employees
-
management buy-out
-
management and employees buy-out
-
disposal of land or other assets
94 Due to scarce place I can only give a short summery. For more detailed information on forms of privatization
please see www.world-psi.org/publications or for a detailed list of "Types and Techniques of Privatizations" see
www.privatization.org/Collection/WhatIsPrivatization/Privatization_techniques.html [both sources: 4th April,
2003].
Öffentliche Unternehmen
230
3. Privatization of provision:
-
contracting-out
-
lease
-
operating concession
-
management contracting
-
purchasing (i.e. private supply of goods/service)
4. Privatization of financing:
-
private finance for public infrastructure development
-
recapitalisation of public companies through private investment
-
joint venture
-
new or higher user charges
5. Commercialisation/marketisation:
-
competitive tendering between in-house and outside contractors
-
restructuring to create internal market; e.g. purchaser/provider split, client/contractor split
-
introduction of commercial goals
-
measures and techniques to create commercial ethos/culture
-
corporatisation: reconstituting enterprise in private form
Privatization was begun because of the recognition that SOEs perform badly (high costs, loss
making, old technology, exessive staffing etc.) in spite of various attempts to improve their
performance. Therefore perhaps the most important objective of privatization is to improve
the economic performance of privatized companies.95 Generally spoken the objectives of programmes and particular measures of privatization vary depending on a range of national characteristics (i.g. relative size of public and private sectors, degree of development, political and
industrial relations environments, etc.) and on the sector concerned. Some of the objectives at
the 'macro' level might be96:
95
See www.developmentgateway.org/node/130679 [6th April, 2003]
Again the distinctions between the categories are relative and the same object might fall into more than one.
See www.world-psi.org/publications [4th April, 2003].
96
Öffentliche Unternehmen
1. Political:
-
to adhere to pro-private and pro-market ideology
-
to comply with lender/donor conditionalities
-
to establish property rights
-
to win votes by cutting taxes
2. Macro-economic:
-
to liberalise the economy
-
to enable more integration into the international economy
-
to increase efficiency and competitiveness
-
to develop national capital markets
-
to develop a strong private sector as the engine of growth
-
to attract private capital for infrastructure development
-
to repay state debts and/or reduce borrowing
-
to redirect subsidies to other areas of state spending
3. Institutional:
-
to redirect the administrative capacity of the state
-
to undermine corrupt and parasitic use of state resources
-
to sever links between politicians and management
4. Micro-economic:
-
to increase efficiency, performance and productivity
-
to enable diversification
-
to gain access to international capital and markets
-
to introduce or increase competition
5. Managerial:
-
to commercialise management behaviour
231
Öffentliche Unternehmen
-
to gain access to external techniques, skills, knowledge
-
to provide personal incentives for managers, employees
-
to enable attacks on union organisation and agreements
-
to enable staff cuts and pay systems changes
-
to externalise problems of service efficiency and quality
232
6. Distributional:
-
to create profitable opportunities for politicians
-
to legitimise corrupt and parasitic use of state resources
-
to compensate for losses (to previous owners or others)
-
to enable higher salaries for executive and directors
-
to expand markets for private capital and companies
-
to widen share ownership
In addition to factors specific to particular countries or countries of particular types, there are
four related groups of factors which have been driving public sector change on an international scale97:
1. Globalisation (i.g. pressure of global competition for markets and capital is driving
national states to cut spending)
2. Changes in Technology & Technique (i.g. changing the nature of the labour market
and increasing the range and quality of skills required to produce high quality services
efficiently)
3. Public Sector Problems (i.g. concerning efficiency, effectiveness etc.)
4. Ideological pressure (i.g. general message of neo-liberalism: private is good - public
is bad, market forces are good – state regulation is bad)
Many recent empirical studies conclude that privatization will improve company performance
(f.e.: Megginson, Nash and van Randenborgh, 1994; Boubakri and Cosset, 1998; Megginson
and Netter, 1998; D'Souza and Megginson, 1999; Lízal and Svejnar, 2002) and especially
according to Megginson and Netter (1998), who give a comprehensive survey of empirical
studies on privatization, there is little doubt now that privatization “works”. Yet – privatiza-
97
For more details and further examples see www.world-psi.org/publications [4th April, 2003].
Öffentliche Unternehmen
233
tion is like any other political tool – it can work well or poorly, depending on how it is done.
And, like other policy tools, there is plenty of argument about its virtues and vices.
Generally the standard argument for privatization is that in most circumstances private ownership leads to the best possible economic performance of firms.98
According to Peter Young (1997)99 other common arguments for privatization are:
-
Reducing government debt: Privatization has reduced many governments’ need
to continue large subsidies to SOEs, significantly improving overall health.
-
Consumers benefit: Consumers benefit from privatization in the majority of cases. Efficiency improvements in regulated industries have been passed on to the
consumer in the form of lower prices. Consumers also enjoy greater access to
goods and services that previously had been unavailable to them.
-
Employing workers: Even this is a crucial point to put here as – we will see later
– it is often argued that employees do not benefit from privatization, Young finds,
that employees tended to benefit in three different ways: (1) employment levels
tended to increase after privatization; (2) remuneration packages tended to improve
after privatization; and (3) many employees bought shares in the privatized enterprises, further benefiting when the value of those shares increased.
-
Strengthening capital markets: Privatization has done much to strenghten capital
markets and widen the ownership of capital, although such effects are closely related to the methods of privatization pursued by individual countries.
-
More competition: Privatization has encouraged competition in most cases.
-
Increasing investment: Privatization has become an important means for countries to attract foreign investment.
The process of selling SOEs to private owners often elicits high emotions. Those who support
privatization tend to consider it one of the most important economic events of the millennium,
while those who oppose it are equally convinced that the process threatens the foundations of
the modern welfare state, if not of democracy itself.100
In this respect Public Services International101 (1997, The roots of privatisation) points out
that negative consequences of privatization are observable in many fields:
1. The effect of privatization on employment and pay:
98
Megginson, Nash and van Randenborgh (1994) and La Porta and Lopez-de Silanes (1999) for instance compare the pre- and post-privatization performance of privatized firms.
99 For more detailed information and examples see www.cipe.org/publications/ [28th March, 2003].
100 See Megginson, “The Impact of Privatization”, 1998
101 See www.world-psi.org/publications [4th April, 2003]
Öffentliche Unternehmen
234
Many jobs have undoubtedly been lost in the course of privatizations, particularly in the
former communist countries (i.g. 70.000 local government jobs have been lost in the U.K.
as a result of contracting-out and competitive tendering; one heavy engineering plant in
Russia reduced employment from 70.000 to 20.000 in the three years after privatization; a
Czech government survey of 572 privatized companies showed a significant decline in
employment; etc.)
2. Privatization and economic and social welfare:
 One of the most rigorous research programmes into privatization’s effects was carried out
at Oxford University in England, by a team led by former World Bank economist Percy
Mistry, who concluded that ‘the somewhat ambitious claims made for privatisation need
to be scaled down’ and that it could even be ‘counter-productive, especially in smaller developing countries’.
 Other evidence shows that regulation of privatized utilities is also no guarantee against
abuse. In the case of water privatization in the U.K., for example, services have failed to
improve or have got worse. Prices have risen much faster than inflation and ‘executives of
privatized companies have enriched themselves to an extent that has become a national
scandal’.
 The social impact of other forms of privatization, such as contracting-out, cuts in services
and new or higher user charges, has also often been catastrophic, especially for the poor.
Increasing user fees in health care is promoted by the World Bank – which spends nearly
twice as much on health-related projects each year as the World Health Organisation does
– on the grounds that fees stop people seeking medical attention they do not need. But a
study in Zaire found it was expectant mothers, under-fives and people on the lowest incomes who stopped going to the doctor when fees were raised. Similar effects have been
recorded in a number of other African countries.
3. Concentration of wealth and power:
Perhaps the greatest long-term menace to economic and social welfare, and to economic
and political democracy, arising from privatization is its contribution to the concentration
of wealth and power. The United Nations Development Programme (UNDP), in its 1993
Human Development Report, described the results in the poorest countries as ‘more of a
“garage sale” to favoured individuals and groups than a part of a coherent strategy to encourage private investment’.
In less poor countries too, the already rich and powerful have been the major beneficiaries. In Mexico, the 37 businessmen who already owned between them about a quarter of
the country’s gross national product were the main buyers in all but one of the sales or
liquidations of nearly 1.000 enterprises.
Öffentliche Unternehmen
235
Having observed all the pros and cons for/against privatization I’d like to finish this section
with a summarizing statement of a study carried out by the World Bank102 (Kikeri, Nellis and
Shirley, 1992). The authors of the study find that most privatization success stories come from
high-income and middle-income countries. Privatization is easier to launch and more likely to
produce positive results when the company operates in a competitive market, and when the
country has a market-friendly policy environment and a good capacity to regulate. The poorer
the country, the longer the odds against privatization producing its anticipated benefits, and
the more difficult the process of preparing the terrain for sale.
Having analysed the pros and cons for/against privatization in a study, most authors try to
derive some kind of lessons that can be drawn from their findings (among others: Young, ?;
Kikeri/Nellis/Shirley, 1992; Megginson/Netter, 1998). To give a few examples:
 Privatization works best when it is a part of larger program of reforms promoting efficiency.
 Regulation is critical to the successful privatization of monopolies.
 Governments must pay special attention to developing a social safety net.
 There is a clear need to bring new, entrepreneurially-oriented management into privatized
firms to maximize performance improvements.
 Governments use three basic techniques to privatize their SOEs: share issue privatization
(SIPs), asset sales, and voucher or mass privatizations. SIPs are generally preferred over
asset sales for large SOE divestitures, in countries with more developed capital markets,
and where income per capita is relatively high, while asset sales are preferred when a government is in greater need of immediate income from sales receipts. When asset sales are
used, it is generally better (more revenue is raised) to increase the number of bidders in an
open auction than to rely on direct negotiations with a smaller number of bidders. Voucher
privatizations are the least economically-productive divestment technique, but those governments adopting it generally have few other realistic options.
12.3 Deregulierung in den USA
Der Wulst an Regulierung der amerikanischen Wirtschaft beginnt mit Roosevelt's New Deal
vergleichsweise spät. Die Deregulierung begann bereits unter den Administrationen Ford und
Carter, wurde aber erst in der Administration Reagan energisch vorangetrieben (Time, July
6th, 1987). Eines der zentralen Anliegen der Administration Reagan's war es, die amerikanische Wirtschaft vom Ballast der öffentlichen Regulierung zu befreien. Bailey (1985) ist eine
der ersten kompetenten Zusammenfassungen der amerikanischen Erfahrung mit der Politik
der Deregulierung viel wichtiger, vormals regulierter Industriezweige zusammen. Die erste
Behauptung von Bailey lautet, dass die amerikanische Deregulierungspolitik auf einer zusammenhängenden Logik fußt. Das zu Grunde liegende Kriterium ist nicht wie einst die Prä-
102
See www.worldbank.org .
Öffentliche Unternehmen
236
senz zahlreicher Firmen und Konkurrenz in einem Markt, sondern das Kriterium der Anfechtbarkeit. Somit bildet die Theorie anfechtbarer Märkte (theory of contestable markets) eines
der theoretischen Fundamente und auch das Kriterium für eine erfolgreiche Deregulierung.
Die Theorie impliziert, dass in anfechtbaren Märkten nach einer Deregulierung die Quersubventionen aufhören (zumindest reduziert werden), die Preise sich in der Folge näher an den
Kosten orientieren, neue Produkte entstehen und durch effizientere Produktion (im Vergleich
zur ineffizienten Produktion bei Regulierung - Averch-Johnson Effekt) die Kosten abgesenkt
werden.
Der Aktienhandel wurde bis 1975 reguliert, so dass die Händler sich nicht über den Preis
konkurrenzieren konnten. Daher wurden in der Folge - durch Konkurrenz bedingt - zusätzliche Dienstleistungen dem Kunden kostenlos geboten. Diese Regulierung benachteiligte
die großen institutionellen Anleger und bevorzugte den kleinen Anleger (gemessen am Kostenaufwand) - also eine für Regulierungen übliche Quersubvention. Seit 1975 sind die Handelsbedingungen individuell aushandelbar. Im Jahre 1980 wurden zusätzlich Bankregulierungen aufgelassen. Dies erwies sich als notwendig, da die Banken durch die Konkurrenz von
Anlagefirmen, die höhere Renditen auf Anlagen gaben, als der geregelte Einlagezins der Banken, zusehends aus dem Markt gedrängt wurden.
Sowohl die Tarife als auch der Zutritt zu zwischenstaatlichen (im Sinne amerikanischer Bundesstaaten) Flugrouten wurde durch eine eigene Behörde, die Civil Aeronautics Board (CAB),
reglementiert. Die CAB entwickelte sich aus dem Civil Aeronautics Act aus dem Jahre 1938
zur Reglementierung der damals natürlichen Monopole der Luftpost (der geringe Passagierverkehr war damals vernachlässigbar). Panzar (1983), einer der Pioniere der Theorie der anfechtbaren Märkte und der Deregulierung der amerikanischen Luftfahrt, hält retrospektiv diese Entscheidung für richtig. Aber in den 60er und 70er Jahren änderte die Ausweitung des Bedarfes die Marktsituation. Die Unsinnigkeit der Regulierung kam dadurch auf, dass in den
zwei größten Staaten, insbesondere in Kalifornien, innerstaatliche Flüge unter dem entsprechenden CAB Tarif für dieselbe Streckenlänge (der zusätzlich noch auf versteckten Quersubventionen von den Langstreckendestinationen basierte) angeboten wurden. Trotz dieser niedrigeren Tarife waren die innerstaatlichen Fluglinien in einer besseren finanziellen Lage als die
kränkelnden großen Fluglinien. Da es sich um innerstaatliche Flüge handelte, konnte die CAB
nicht einschreiten. Somit ergab sich das Paradoxon, dass sowohl niedrige als auch hohe Tarife
kostendeckend sein können. Ähnlich dem obigen Beispiel des Aktienhandels ersetzte hier die
Qualitätskonkurrenz - viele Flüge und zu günstigen Zeitpunkten mit der Folge geringer Maschinenauslastung - die Preiskonkurrenz. Die Tarife wiesen eine starke Quersubvention von
den profitablen Langstrecken zu den oft unprofitablen Kurzstrecken auf. Die Deregulierung
war mit 1983 beendet. Am 1. Januar 1985 geschah etwas - für eine Behörde - Überraschendes: Die Civil Aeronautics Board schloss ihre Pforten. Die Sicherheitsvorschriften blieben
davon ausgenommen und werden von der Luftfahrtbehörde (Federal Aviation Administration)
wahrgenommen.
Die Regulierung des amerikanischen Transportgeschäftes durch die Interstate Commerce
Commission (ICC) führte zu einer "Balkanisierung"103. Die ICC ist die älteste Regulie-
103Zum
Beispiel durfte die Bahn Milch, aber nicht Joghurt und Eiscreme transportieren.
Öffentliche Unternehmen
237
rungsbehörde, sie wurde im Jahre 1887 zur Regulierung der Bahn etabliert und im Laufe der
Zeit auf die Konkurrenz LKWs und Luftfracht ausgedehnt. Im Jahre 1980 wurde eine teilweise Deregulierung dieses Wirtschaftsbereiches Gesetz. Abschätzungen zeigen, dass allein
die Deregulierung dieses Wirtschaftssektors den amerikanischen Konsumenten bis jetzt
US$ 72 Milliarden brachte. Monopolistische Nischen, etwa der Kohletransport über die Eisenbahn zu den Kraftwerken, bleiben nach wie vor reguliert. Dies ist eine klare Anwendung
des Prinzips anfechtbarer Märkte.
Das Fernmeldewesen schien lange Zeit als natürliches Monopol gesichert vor dem Marktzutritt unliebsamer Konkurrenten. Für diesen Vorteil nahm es gerne die öffentliche Regulierung
in Kauf. Mit dem Auftreten von neuen Technologien wurde das Monopol durch zahlreiche
Klagen bedroht und im Jahre 1984 im Rahmen (eines Vergleiches) bei einem Antitrust-Verfahren letztendlich aufgebrochen. So versuchte Microwave Communications Inc. (MCI) seit
mehr als einem Jahrzehnt in den Markt einzutreten und wurde schließlich mit US$ 1.8 Milliarden kompensiert. Dies ist deshalb interessant, weil mit der öffentlichen Regulierung das
Antitrust-Gesetz nicht außer Kraft tritt. Im Fernmeldewesen wurde zwar Marktzutritt gestattet
und das vormalige Monopolunternehmen AT&T zerschlagen, aber nicht dereguliert. Deshalb,
Crandall (1988), sind die Tarife nach wie vor durch (teilweise hohe) Quersubventionen charakterisiert.
Im gesamten erwiesen sich die Prognosen aus der ökonomischen Theorie als richtig. Als Folge der Deregulierung orientierten sich die Preise näher an den Kosten, z. B. wurden Langstreckenflüge billiger, während die Kurzstreckentarife leicht stiegen (so dass die Quersubventionen eliminiert wurden), Frachttarife fielen seit der Deregulierung um 25 % bei großen
LKW-Ladungen und geringer bei kleineren Ladungen und am wenigsten bei der Bahn. Abb.
12.5 zeigt die Entwicklung der Frachtraten und der Flugtarife basierend auf Tabellen von Bailey (1985).
Öffentliche Unternehmen
238
105
100
95
Bahn
LKW klein
LKW groß
Flug-meist benützter
billiger Tarif
90
85
80
75
70
1974
1976
1978
1980
1982
1984
Abb.12.5: Entwicklung der Tarife als Folge der Deregulierung in den USA Anfang der 80er
Jahre nach Bailey (1986).
Die Verbilligung ist tatsächlich noch bedeutender, wenn man anstatt der historischen Tarife
jene betrachtet, die in einem regulierten System gelten würden. Denn beide Sektoren erfuhren
durch den zweiten Ölpreissprung und die Deregulierung des amerikanischen Erdölmarktes
eine Kostenerhöhung weit über der allgemeinen Inflation. Die angebotene Produktpalette
wurde substantiell erweitert. So gibt es jetzt Diskontmakler und Makler, die alle Dienstleistungen anbieten, Ersteklasseflüge und Billigstflüge mit einem Minimum an Service. Entgegen
der Vermutung einer Einschränkung lokaler Flugverbindungen nach der Deregulierung, da
diese durch Quersubventionen begünstigt wurden, wurden diese Verbindungen nach der Deregulierung substantiell erweitert. Das ist damit begründet, dass die Fluglinien die wachsenden Skalenerträge aus einer höheren Auslastung von Maschinen nur dann ausnutzen konnten,
wenn regionale Flugverbindungen den Transport zu den Zentralflughäfen der betreffenden
Linie bewerkstelligten. Somit ermöglichte die Deregulierung nicht nur eine effizientere Struktur des amerikanischen Luftverkehrs, sondern verbesserte auch noch die Infrastruktur. Die
Tarife reflektieren jetzt auch Spitzenlastprobleme: Geschäftszentren mit Spitzenbelastungen
am Morgen und am Abend sind teurer als Touristenzentren, die über den ganzen Tag angeflogen werden können und Komfortdifferenzierung: Direktflüge sind teurer verglichen mit Flügen, die ein Umsteigen in zentralen Flughäfen (hub-and-spoke system) erfordern. Spätere
Analysen, Kahn (1988), Bailey-Williams (1988), bestätigen im großen und ganzen die positive Erfahrung mit der Deregulierung.
Ähnliche Effekte werden im Speditionsgewerbe beobachtet, wo Fusionen von Firmen und
neue Routen die wachsenden Skalenerträge jetzt voll nützen, so dass ein teilweise kompliziert
erscheinendes Routing alle Kostenvorteile ausnützt. Eine positive Bilanz ziehen auch BlairKaserman-McClave (1986) über die Deregulierungsmaßnahmen im Transportwesen. BlairKaserman-McClave (1986) finden, dass dadurch in Florida die Frachttarife im Durchschnitt
Öffentliche Unternehmen
239
um 14 % gefallen sind, aber bezweifeln, dass die Quersubventionen bereits gänzlich eingestellt wurden. Auch im traditionellen Bereich der Telekommunikation wurden neue Dienstleistungen kreiert. Dies betrifft insbesondere die weitverbreiteten Möglichkeiten von electronic mail und einfache Antwortdienstleistungen durch Operator.
Verlierer dieser Politik, findet Bailey (1985), gibt es nur wenige. Die Gewerkschaft der betroffenen Branchen ist sicher ein Verlierer. Die Regulierung begünstigte eine Monopolisierung. Dies ermöglichte den organisierten Arbeitsnehmerverbänden, einen Teil der Monopolprofite für ihre Mitglieder - in der Form höherer Löhne und anderer Vergünstigungen, die über
dem Niveau des amerikanischen Arbeitsmarktes lagen - herauszuschlagen. So fielen als Folge
der Deregulierung, insbesondere im Speditionsgewerbe und im Flugverkehr, die hohen Löhne
auf das übliche Niveau104.
Dieser Zwischenbericht von Bailey (1986) wird in zahlreichen später folgenden Untersuchungen bestätigt, die von Winston (1993) zusammengefasst wurden. Winston (1993)
sieht die amerikanische Deregulierung als großen Erfolg für die amerikanische Wirtschaft (und auch für seine Profession, die Mikroökonomie, deren Prognosen mehr oder
weniger eintraten), siehe Tabelle 2.2, die Bandbreiten für die abgeschätzten Gewinne
angibt. Der tatsächliche Gewinn der amerikanischen Deregulierung zu Beginn der 80er Jahre
ist noch höher, da aus unerklärlichen Gründen die Abschätzung von Winston (1993) die Gewinne aus der Deregulierung der absurden (vgl. Stalon (1986) und Broadman (1987)) Erdgasregulierung außer acht lässt mit weitreichenden positiven Folgen auf diesen Markt, der
durch freien Zutritt, unbundling der Kontrakte und Spotpreisen enorm an Konkurrenz und
dadurch an Effizienz gewonnen hat, vgl. Doane-Spulber (1994).
Tabelle 2.2: Jährliche Gewinne aufgrund der amerikanischen Deregulierung in Milliarden
1990-US$
Branche
Konsumenten
Produzenten
Total
öff.
Unterstützung
─────────────────────────────────────────────────────
Fluglinien
(8.8 - 14.8)
4.9
(13.7, 19.7)
69 %
Eisenbahn
(7.2, 9.7)
3.2
(10.4, 12.9)
LKW
15.4
- 4.8
10.6
Telekommunikation
(.73, 1.6)
(0.73, 1.6)
52 %
Kabelfernsehen
(.37, 1.3)
(0.37, 1.3)
42 %
TOTAL
(32.6, 43.0)
3.2
(35.8, 46.2)
─────────────────────────────────────────────────────
Quelle: Winston (1993).
Vor diesem Hintergrund scheint es mir wichtig vor jenen Stimmen zu warnen, die Regulierung wiederum fordern, weil möglicherweise nicht das gesamte Potential an Verbes-
104So
ermöglichte erst der Bankrott von Continental Airlines eine Neuverhandlung der Verträge und Senkung der Arbeitskosten.
Öffentliche Unternehmen
240
serungen ausgeschöpft wurde. Denn die Forderung nach Regulierung, die, wie klar bewiesen, große Verluste brachte, weil möglicherweise nicht alle Versprechungen der Theorie eingehalten werden konnten, ist absurd.
12.4 Deregulierung in Großbritannien
Die Analyse von Kay und Thompson (1986) über die britische Welle der Reprivatisierung
fällt kritischer aus als Baileys und Winstons Darstellung für die Vereinigten Staaten von
Amerika. Im Falle der britischen Privatisierung von mittlerweile 20 Branchen fallen 15 unter
die Kategorie kompetitiver Industrien, wo Staatsfirmen verkauft wurden (Stahl, Flugverkehr,
Autofirmen, Flugmotoren usw.) und nur 5 unter die Kategorie öffentlicher Monopole, die uns
hier vorwiegend interessieren. Kay-Thompson gehen von der Annahme aus, dass die Eigentumsstrukturen sekundär für die Effizienz von Firmen sind und dass nur Konkurrenz das Management diszipliniert und Ineffizienzen vermeidet. Diese Voraussetzung ist eine etwas extensive Interpretation der Übersicht in Borcherding-Pommerehne-Schneider (1983). Um die
Privatisierung durchzusetzen, verbündete sich die Regierung mit dem Management der vormals verstaatlichten Unternehmen. Dieses Management ist durch die Erfahrung in staatlichen
Monopolen einer Konkurrenz gegenüber traditionell feindlich eingestellt. Somit führt die Privatisierung dieser staatlichen Monopole zur Installation privater Monopole, anstatt ein entsprechendes Konkurrenzklima mit freien Marktzutritten zu gestatten.
Während Kay-Thompson (1986) der Meinung sind, dass diese Politik der Regierung Thatcher
schlechter ist als Nichtstun, kritisiert Brittan (1986) zwar auch das Vorgehen der britischen
Regierung, findet es aber trotzdem besser als die Ausgangssituation. Kay-Thompson limitieren ihre Analyse auf die Effizienzverbesserungen der Unternehmen, negieren aber (positive)
Nebeneffekte der Privatisierung, wie geringere Einflussnahme der Regierung auf private Unternehmen, Reduktion der Macht der Gewerkschaft öffentlicher Bediensteter, zusätzliche
Staatseinnahmen, breitere Streuung von Kapitalbesitz usw. Weiter beschränkt sich die Kritik
von Kay-Thompson auf die Privatisierung öffentlicher Monopole. Deshalb sind ihre Schlüsse
nicht gültig für jene reprivatisierten Unternehmen, die sehr wohl in einem stark konkurrenzierten Markt operieren, wie die Autofirma Jaguar, British Petrol, British Aerospace, National
Freight Consortium, u.s.w. Für die "kritischen" Unternehmen aber, wie etwa für Rolls Royce
(Flugzeugmotoren), wurden ohnedies Auflagen der (nationalen) Eigentümerschaft geschaffen.
Brittan deutet an, dass die britische Regierung die Reprivatisierung als ideologisches Substitut
für die Unfähigkeit, die Budgetausgaben zu senken, verwendet. Und im Gegensatz zur Budgetsanierung stieß die Privatisierung auf überraschend wenig Widerstand. Diese Gefahr ist
auch in anderen Ländern bei Reprivatisierungsbestrebungen zu berücksichtigen. Insbesondere
erlöst - wenn auch nur einmalig - der Verkauf von Staatsfirmen gigantische finanzielle Mittel,
die kurzfristig wieder vom Problem eines Budgetdefizits ablenken. So begann die britische
Deregulierung mit Aerospace im Jahre 1980 und erlöste seither (bis 1986, nach Andrews
(1987)) aus dem Verkauf (inklusive British Gas und British Telecom) £ 25 Milliarden.
Vickers und Yarrow (1988) geben einen profunden Überblick über die britische Privatisierung. Ähnlich wie Borcherding-Pommerehne-Schneider (1982) sind sie der Meinung,
dass Eigentumsstrukturen zwar wichtig sind, aber nur wenn gleichzeitig disziplinierende
Konkurrenz herrscht. Dies kreiert jedoch Probleme für eine Regierung, die sich der Privatisie-
Öffentliche Unternehmen
241
rung verschreibt. So ist es schwierig, die vormals staatlichen und wohlgebetteten Unternehmen ertragreich zu verkaufen, falls man sie in ein rauhes Konkurrenzklima entlässt. Mit einer
solchen Strategie setzt man sich dem (falschen) Vorwurf aus, "Familiensilber zu verschleudern". Diesen Weg vermied die britische Regierung. Den Preis für die "erfolgreiche" Reprivatisierung entsprechend den obigen Erlösen zahlt somit zumindest teilweise der Konsument.
Diese politisch bedingte Strategie - kein Familiensilber zu verschleudern - führte dann in einigen Fällen dazu, dass ein verstaatlichtes Unternehmem zuerst saniert werden musste, um es
dann erst zu privatisieren, anstatt von vornherein das Unternehmen zu veräußern und auf die
Disziplinierung des Marktes zu setzen.
Über diese bekannten Beispiele hinaus ist die Reprivatisierung und die Neuorganisierung von
öffentlichen Unternehmen ein internationaler Trend, der sogar die Entwicklungsländer erfasst.
Die Hauptursache für diesen Trend liegt hier höchstwahrscheinlich nicht (nur) bei ideologischen Motiven oder bei ökonomischen Effizienzüberlegungen, sondern resultiert aus den
Budgetdefiziten aller Länder und den Schwierigkeiten, die explodierenden Defizite des öffentlichen Sektors zu finanzieren.
Fig. Number of Deals and Revenues from Privatisation
Table: Investors’ Gain (internal rate of return, %) due to privatisation (Parker, 1997)
Begebung bis
Ende erster
Regulierungsperiode
British Telecom
British Gas
Water ()
RECs ()
19,9
18,4
24,0
33,0
Ende
erster Begebung
Handelstag bis 27.3.1997
Ende
erster
Regulierungsperiode
9,4
14,4
13,7
10,5
17,6
24,0
23,7
38,2
bis Ende
erster Beginn
der
Handelstag bis zweiten Regu27.3.1997
lierungsperiode
bis
27.3.1997
9,6
9,7
8,1
2,6
18,4
24,0
30,1
76,9
Öffentliche Unternehmen
242
13 Elektrizitätsmarkte: Spezifika und Erfahrungen mit Liberalisierungen
13.1 Spezifika der Elektrizitätsversorgung
Ein zentrales Charakteristikum der internationalen Energiewirtschaft, aber insbesondere der
Elektrizitätswirtschaft ist die staatliche Intervention, entweder direkt als Eigentümer oder indirekt über Regulierung. Der Wähler sollte der eigentliche Souverän in den westlichen Demokratien sein, und er delegiert in einer repräsentativen Demokratie seine Entscheidungen an
eine gewählte Regierung. Diese Regierung ist zwar typischerweise an Einfluss, aber nicht an
den Tagesfragen eines EVUs interessiert, sondern überträgt diese Aufgaben an ein Management. In den Vereinigten Staaten überwacht eine Regulierungsbehörde das EVU, da die Profitinteressen des EVUs von den öffentlichen Interessen abweichen. Im Falle der kontinentaleuropäischen Institution verstaatlichter oder quasi-verstaatlichter Unternehmen fehlt oft eine
formale Institution einer öffentlichen Regulierungsbehörde amerikanischen Ausmaßes, was
aber nicht notwendigerweise bedingt, dass das Management europäischer EVUs mehr Freiraum hat. Im Gegenteil, diese einseitige Abhängigkeit - Verlängerung des Managementkontraktes durch Politiker - garantiert den Polikern Wohlverhalten (etwa keine Tariferhöhungen vor Wahlen, vgl. Hubka-Obermann (1977)), aber erspart den Politikern Verantwortung
für unangenehme Eventualitäten und die Beschäftigung mit betrieblichem Detail. Was jedoch
typisch für das europäische, im Gegensatz zum amerikanischen, Unternehmen ist, ist das Fehlen von jeglichem Profitinteresse. Dieses fehlende Profitinteresse impliziert jedoch nicht allgemeine Interessenlosigkeit, sondern es treten andere, die eigentlichen und primären Ziele
eines jeden Managements in den Vordergrund, etwa die 3 Ps Niskanens (1971), pay, power,
prestige. Daraus folgt die Bedeutung von Geld, Einfluss und Macht, die gut mit physikalischen Größen, wie Anzahl der Untergebenen, Aktivitäten von Kraftwerksbauten (vgl. staatliche Energieanleihen und Förderung der Kernenergie), aber eventuell in Zukunft auch mit Sparinvestitionen korrelieren; Niskanen (1971) verwendet das dem Bürokraten zur Verfügung
stehende Budget als Approximation für die eigentlichen Ziele. Als letzter erscheint in dieser
Hierarchie der Konsument, der jedoch identisch mit dem Souverän Wähler ist, so dass sich
die Hierarchiekette in Abb. 13.1 schließt.
Die Ziele zwischen der Regulierungsbehörde und dem EVU müssen nicht notwendigerweise
differieren, wie Stigler (1971), theory of capture, argumentiert. Die öffentliche Regulierung
mag zwar ursprünglich mit der Intention einer Wohlfahrtsverbesserung kreiert worden sein,
aber dieses Ziel wird im Laufe der Zeit korrumpiert. Die eigentlich zu regulierenden Firmen
bekommen zusehends Einfluss auf die Regulierungsbehörde, und die Regulierung dient dann
den öffentlichen Monopolunternehmen etwa, um unliebsame Konkurrenz vom Markt fernzuhalten, anstatt sie zu disziplinieren. Ein Beispiel für dieses Verhalten war die amerikanische
Telefongesellschaft AT&T, die die Regulierung über Jahrzehnte hinweg benutzte, um den
Eintritt von unliebsamen Konkurrenten zu verhindern. Und natürlich müssen wegen des teilweise substantiellen Freiraums der Beteiligten in der obigen Hierarchie (etwa bedingt durch
asymmetrische Information) die Vorgaben der Regulierungsbehörde nicht mit den Interessen
des Souveräns identisch sein.
Diese obigen Unterstellungen mögen manchem Leser als unrealistisch und als übertrieben
erscheinen. Tatsächlich bleiben alle Ergebnisse qualitativ dieselben, wenn die hier postulier-
Öffentliche Unternehmen
243
ten Ziele auch nur inter alia einen Wert für Bürokratie und Politiker haben, siehe Buchanan
(1987): "The minimal critical assumption for the explanatory power of the economic theory of
politics is only that identifiable economic self interest (for example, net wealth, income, social
position) is a positively valued good. This assumption does not place economic interest in a
dominating position and surely does not imply imputing evil or malicious motives to political
actors; in this respect the theory remains on all fours with the motivational structure of standard economic theory of market behaviour."
Wähler
Parlament,
Regierung
Regulierungsbehörde
Management
des EVUs
Konsument
(=Wähler)
Abb. 13.1: Hierarchie öffentlicher Unternehmen
Die prinzipielle Schwierigkeit einer effizienten Reorganisation der Elektrizitätswirtschaft liegt
darin, dass der Bereich, in dem erfolgreich Marktbedingungen eingeführt werden können, zu
Beginn (upstream) des momentanen vertikalen Verbundes liegt. Die folgenden Bereiche, Verteilung und Vertrieb, sind natürliche, nicht anfechtbare Monopole (downstream). Das Monopol des Vertriebes ist letztendlich der Kontraktpartner für die Konsumenten. Denn selbst bei
einem perfekt funktionierenden Markt der Stromproduktion ist es ungewiss, ob Monopole des
regionalen Vertriebes - verstaatlichte oder private, aber regulierte Unternehmen - effiziente
Öffentliche Unternehmen
244
Tarife verlangen. Daher kann eine Änderung der Struktur dieser Industrie primär die Effizienz
in der Produktion - dort fällt allerdings der Großteil der Kosten an - verbessern.105 Diese Anordnung der Elektrizitätswirtschaft stellt ein echtes Hindernis dar, um erfolgreich Marktbedingungen einzuführen, und kontrastiert die Anordnung der in Bailey (1986) und Winston
(1993) beschriebenen erfolgreich deregulierten Märkte - die sunk costs liegen dort jeweils
upstream. Dieses Spezifikum des Strommarktes ist exemplarisch in Abb. 13.2 mit dem Transportwesen verglichen. Dieser Schluss wird verstärkt durch die Tatsache, dass Regulierung wie auch immer mit Anreizen versüßt - eine höchst imperfekte Angelegenheit bleibt und nur
in Ausnahmefällen (Möglichkeiten einer vergleichenden Konkurrenz unter Vertriebsgesellschaften, Auktionen für wohldefinierte Dienstleistungen) Effizienz ermöglicht.
upstream
downstream
Flughäfen
Straßen
Bahnhöfen, Schienennetz
└──────────┬──────────┘
sunk costs
Kraftwerke
└────┬────┘
"Markt"
Fluglinien
Spedition,
PKW,
Busse
Züge
(Fracht,
Person).
└──────────┬──────────┘
"Märkte"
Verteilung
Vertrieb
└───────────────┬────────────┘
sunk
costs
Abb.13.2: Vergleich des Transportmarktes mit dem Strommarkt
Die Rettung dieser an sich möglichen Effizienzgewinne in der Erzeugung für die Endabnehmer und die Anwendung effizienterer Tarifierung erfordert substantielle Änderungen der bestehenden Organisationsform. Manche werden den Vorschlag radikal finden.
Unabhängig vom Erfolg bzw. Mißerfolg der britischen Reprivatisierungswelle106 hat das Experiment der Regierung Thatcher jedoch gezeigt, dass die Reorganisation, d. h. im britischen
Fall Reprivatisierung, öffentlicher Einrichtungen auf relativ wenig Opposition in der Öffentlichkeit gestoßen ist. In diesem Lichte scheinen die hier unterbreiteten Vorschläge als nicht
radikal und durchaus realistisch. Tatsächlich ist eine schrittweise Deregulierung wirtschaftlich
ineffizient107, wenn auch oft politisch dienlich (vgl. dazu Wirl (1991b) und oft sogar kontraproduktiv, wie die vergangenen österreichische Schritte in eine Privatisierung. Eine Minimalforderung für den Strommarkt ist jedoch die vertikale Integration zu überdenken und Multiproduktunternehmen, deren Struktur nicht auf economies of scope basiert, zu entflechten, d.
h. eine Neuorganisation der Stadtwerke in einzelne Unternehmen (dies gilt aber auch für an-
105Dies
hat sich auch in England bestätigt, wie die große Unzufriedenheit mit den Vertriebsfirmen zeigt, siehe
The Economist, 13. August, 1994, S 34-35.
106Dazu vgl. Beesley (1994) und auch Abromeit (1988).
107Dies zeigte sich auch für den ersten britischen Versuch mit dem Energy Act 1983.
Öffentliche Unternehmen
245
dere Branchen wie Telekommunikation und Bahn108). Denn Quersubventionen sind ein hinreichender Indikator für rent seeking durch bestimmte Gruppen (Crew-Rowley, 1988), was zu
Ineffizienz (aber auch zu Unfairneß nach Faulhaber-Levinson (1981)) führt.
Die inhärenten Schwierigkeiten verbunden mit der Organisation der Elektrizitätsindustrie - die Marktelemente liegen zu Beginn in der Produktion - lassen es unvermeidlich erscheinen, dass zwar Imperfektionen verbleiben aber doch bestehende Ineffizienz gemildert werden könne. Wenn auch in anderen Branchen, insbesondere im
Transportsektor109 (etwa ÖBB, Busse), aber auch Telekommunikation, einer Deregulierung und einer eventuell begleitenden Reprivatisierung einfacher (und daher der unmittelbare gesellschaftliche Gewinn auch höher) sein mag als im Strommarkt, rechtfertigt dies keine Vertagung einer Reorganisation der Elektrizitätsindustrie, wegen deren
zentralen Bedeutung der Elektrizitätsindustrie für die Industrie und die gesamte Volkswirtschaft.
13.2 Privatisierung der englischen und walisischen Stromerzeugung
Die britische Stromerzeugng war typisch für ein europäisches Unternehmen organisiert (vgl.
Klopfer (1993)): Erzeugung und Übertragung wurden zentral vom Central Electricity Generating Board betrieben, während der Vertrieb in 12 sogenannte Area Boards organisiert war.
Der British Electricity Act aus dem Jahre 1989 restrukturierte die vormals zentralisierte britische Elektrizitätswirtschaft (Central Electricity Generating Board, CEBG) in vier Unternehmen: National Power, Power Gen (beide privatisiert) und Nuclear Electric (öffentliches
Eigentum) produzieren Elektrizität. Da Nuclear Electric aufgrund von Subventionen den Preis
unter den Grenzkosten der kalorischen Kraftwerke anbieten kann, werden die Kernkraftwerke
einen Teil der Grundlast decken während alle Schwankungen durch National Power und
Power Gen abgefangen werden müssen, Das heißt, Power Gen und National Power sind die
marginalen Anbieter, die den Marktpreis bestimmen. Die National Grid Company, sie ist Eigentum der 12 regionalen Elektrizitätsgesellschaften, bleibt ein Monopol, das das Angebot an
Strom mit der Nachfrage ausgleichen soll. Daneben existieren die regionalen Vertriebsgesellschaften weiter, wobei Konsumenten der direkte Zugang zum Netz gestattet ist. Das erste,
auffallende und wichtige Charakteristikum dieser Reorganisation ist die strikte Auftrennung
der vormaligen vertikalen Integration. Dies ist strikt durchgehalten: so darf zwar eine Vertriebsgesellschaft auch Lizenzen für Produktion erwerben, aber nur bei streng getrennter Gebarung.
Das Kernstück der Deregulierung ist der sogenannte Poolbetrieb, d. h. die Zuteilung der Produktion mittels Ausschreibung und Auktion. Am Vortag der täglichen Bezugsperiode werden
108So verstehe ich nur schwer, warum sich das Speditionsgewerbe permanent als der große Umweltsünder prügeln läßt, anstatt zu fordern, daß es die Spedition über die Bahn in Eigenregie und Eigeninitiative betreiben kann,
um damit die Kosten zu senken und die Umwelt zu entlasten.
109In der Tat ist es verwunderlich in den momentanen Klage über die Ineffizienz des Transportsektors und der
Bedeutung öffentlicher Verkehrsträger, wie die offensichtlichen und dramatischen Ineffizienzen dieser öffentlichen Unternehmen hingenommen werden, im Gegenteil, diesen Unternehmen weitere Milliarden offeriert werden, ohne Auflage die Effizienz zu steigern.
Öffentliche Unternehmen
246
die Angebote je Produktionsblock von den Betreibern eingeholt. Diese Angebote inkludieren
(neben der Leistung) die Startkosten und die Kosten je eingesetzte MW, die ihrerseits wiederum vom Auslastungsgrad abhängen können (bis zu drei unterschiedliche inkrementelle Preise dürfen dabei spezifiziert werden. Aufgrund der Lastprognose wird dann basierend auf den
Angeboten ein vorläufiger, halbstündiger Kraftwerkseinsatz bestimmt, der die erwartete Last
bei minimalen Systemkosten deckt. Noch am Abend vor der Bezugsperiode werden die so
errechneten, voraussichtlichen 48 Poolpreise, Systemgrenzkosten ("Schattenpreise"), veröffentlicht. Der tatsächliche Einsatz kann natürlich von diesem Plan abweichen, einerseits wegen der Berücksichtigung von Beschränkungen im Netz, andererseits wegen Abweichungen
von der nachgefragten Last und dem Ausfall von einzelnen Blöcken.
Unmittelbar nach der Bezugsperiode werden die Produzenten für die Lieferungen mittels dem
PIP, pool input price, entschädigt. Dieser Preis setzt sich aus den Grenzkosten des Systems
(System Marginal Price, SMP), basierend auf der Optimierung, und einem Kapazitätselement
zusammen. Das heißt die gelieferten kWh werden, unabhängig vom eigenen Angebot, zu den
Kosten der teuersten aber doch notwendigen Einheit kompensiert. Diese kurzfristige Grenzkostentariffierung wird in Bohn-Caramanis-Schweppe (1984) analysiert und vorgeschlagen.
Zu diesen kurzfristigen variablen Grenzkosten kommt eine Entschädigung für die Fixkosten
der Inbetriebnahme. Die zugrundeliegende Idee ist einfach: Während bei Kraftwerken die
Startpreise über den gesamten 24-h Zyklus aufgeteilt werden, werden diese Startpreise bei
Kraftwerken, die nur zu Spitzenlastzeiten eingesetzt werden, proportional umgelegt.
Dazu kommt noch ein Kapazitätselement. Dies Kapazitätselement berücksichtigt den Fall,
dass, wenn die Nachfrage das Angebot überschreitet, an sich Strom rationiert werden müsste,
value of lost load, VOLL. Die Differenz, VOLL-SMP (d. h. Zahlungsbereitschaft minus Kosten), stellt den sozialen Nutzen dar, wenn nicht rationiert werden müsste. Deshalb ergibt sich
dann das Kapazitätselement als: (VOLL-SMP)*LOLP, wobei LOLP (loss of load probability)
die Wahrscheinlichkeit beschreibt, dass die Nachfrage nicht gedeckt werden kann; diese
Wahrscheinlichkeit kann mittels gängiger statistischer Verfahren bestimmt werden. Abb. 13.3
schätzt dieses Kapazitätselement ab, wobei VOLL auf 2.285 Pfund je kWh gesetzt wurde, und
LOLP vernachlässigbar ist bei genügender Reservekapazität und erst bei knapper Überschusskapazität ansteigt. Abb. 13.3 stellt diese Elemente grafisch dar. Es kommt sowohl aus
dem merit order Prinzip - Einsatz der Kraftwerke aufsteigen sortiert nach Kosten (bzw. Angeboten) - als auch aus dem Kapazitätselement - der Umlegung der Startkosten auf Einsatzdauer - zu einer etwa 60 % zeitlichen Differenzierung der Poolpreise.
Öffentliche Unternehmen
247
Kapazitätselem ent (Pence/kWh)
Loss of Load Probability
0,05
12
0,045
10
0,04
0,035
8
0,03
6
0,025
0,02
4
0,015
0,01
2
0,005
0
0
0
2
4
6
Reserven in GW
8
10
12
0
2
4
6
8
10
12
14
16
R e se r v e n i n GW
Abb. 13.3: Abschätzungen für LOLP (loss of load probability) und Kapazitätselement als Bestandteil von PIP nach Klopfer (1993, Tabelle 4).
Die ökonomische Motivation dieser Auktion auf dem Pool ist die Behauptung oder Hoffnung,
dass die Unternehmen sich wie Bertrand-Oligopolisten konkurrenzieren, so dass aufgrund
dieser Preiskonkurrenz effiziente (für Details siehe Anhang) Tarife entsprechend den Grenzkosten resultieren. Technisch gesprochen entspricht diese Form der Ausschreibung einer
Konkurrenz in Angebotsfunktionen, siehe Klemperer-Meyer (1989). Dieser Produktionsbereich der Elektrizitätswirtschaft ist nicht reguliert und daher ist auch Zutritt möglich.
Da aber dieser Zutritt nicht von Heute auf Morgen stattfinden kann, ist in den Anfangsjahren
der Privatisierung das Oligopol, eigentlich ein Duopol (denn die Kernenergie stellt aufgrund
von Subventionierung nur Grundlast zur Verfügung ohne Einfluss auf den PIP). GreeneNewberry (1992) kritisieren nun diese Organisation als Duopol, weil hier eine Konkurrenz in
Angebotsfunktionen nicht notwendigerweise in Effizienz resultiert, wie konventionelle Betrand-Argumente vermuten lassen. Dieses Argument ist kurz im Anhang I dargestellt.
Die Erfahrung mit dem Poolbetrieb ist jedoch positiv, sind doch die Preise gegenüber der traditionellen, vergesellschafteten Organisation gefallen: um 37 % real bei dem niedrigsten und
um 20 % beim höchsten Preis 1990, Klopfer (1993, Tabelle 1)). Dies bedeutet nicht, dass partielle oligopolistische Gewinne ausgeschlossen werden können (weil gleichzeitig die private
Unternehmen die Kosten senken konnten, insbesondere durch Entlassungen von redundantem
Personal, aber auch der Bezug Kohle kam billiger110), aber dass trotzdem Effizienzgewinne
realisiert wurden. Ergänzt wird dieser Poolbetrieb durch Kontrakte (forward and futures), die
eine Versicherung gegenüber den schwankenden Poolpreisen bieten.
110Aber auch diese Tatsache muß den privaten Eigentümern zumindest teilweise zugute gehalten werden, weil
öffentliche EVUs ungleich weniger aktiv sind den Kohlebezugspreis zu senken, vgl. dazu die deutschen und
österreichischen EVUs.
Öffentliche Unternehmen
248
Die Übertragung und Verteilung als natürliche Monopole, und im obigen Sinne nicht anfechtbaren Monopole, sind nicht nach Wettbewerbsregeln organisiert. Der Normalfall des Grid
Operators, der zentralen Verbundgesellschaft, ist es, den berechneten optimalen (unconstrained) Kraftwerkseinsatzplan zu exekutieren. Es kommt jedoch regelmäßig davon zu Abweichungen, um den Sicherheitsstandard der Übertragung zu gewährleisten. Vom Standpunkt der
politischen Ökonomie und den charakeristischen Eigenschaften von Bürokratien ist diese
Entmachtung der vormaligen Zentralmacht des Central Electricity Generating Board bemerkenswert.
Auf der Konsumentenseite ist die gravierendste Änderung der freie Netzzutritt (mittels Erwerb einer Lizenz) ab einer Spitzenlast von 1MW. Dies Schranke wurde jedoch 1994 auf 0.1
MW reduziert und entfällt mit 1998 überhaupt. Dieser freie Zutritt von Konsumenten, soll die
regionalen Verteilungsgesellschaften disziplinieren. Da jedoch dieser Markt als 'nicht perfekt
anfechtbar' scheint, ist nach der Theorie potentielle Konkurrenz vermutlich ungenügend, um
Verteilungsunternehmen zu disziplinieren. Tatsächlich wurde diese Marktöffnung auf der
Vertriebsseite ausgiebig genützt, und die Vertriebsgesellschaften mussten starke
Markteinbußen in Kauf nehmen. Dies kam allerdings vorwiegend den Großabnehmern,
der Industrie, zugute, aber weniger den Haushalten; dies mag zwar kostengerecht sein,
populär ist es nicht. Deshalb sind die regionalen Vertriebsgesellschaften in jüngster Zeit heftiger Kritik ausgesetzt (siehe The Economist, 13th of August, 1994, p 34-35), und werden von
Stephen Littlechild, dem Erfinder der Price-cap-Regulierung und dem Regulierungsaufseher
des Strommarktes, genötigt die Preise real um 2 % per annum zu senken. Überraschend dabei
ist, dass auch hier keine Elemente der vergleichenden Konkurrenz einflossen und nicht einmal
das ineffizienteste Unternehmen (nach The Economist, 13th of August, 1994, p 34-35 machte
die Preissteigerung bei Eastern mehr als das dreifache jener von NORWEB aus).
Die bisherigen Erfahrungen sind weitgehend positiv. Dabei fällt besonders auf die dramatische Steigerung der (wirtschaftlichen) Effizienz. Abb. 13.4 zeigt die Entwicklung der Arbeitsproduktivität. Während die Arbeitsproduktivität der verstaatlichten Elektrizitätsindustrie,
CEGB, d. h. der gesamten Stromerzeugung und nicht nur die der Erzeuger, etwa gleich wie
jene der gesamten britischen Industrie verlief, konnte die Arbeitsproduktivität seit der Privatisierung um über 50 % gegenüber dem allgemeinen Wachstum angehoben werden. Für die
Erzeuger ist dies noch dramatischer: PowerGen, National Power und auch die staatliche Nuclear Electric konnten ihre Arbeitsproduktivität über den Zeitraum 1990 - 1995 um 98 %, 119
% und 117 % steigern. Dies unterstreicht den Schlupf des alten Systems.
Öffentliche Unternehmen
249
Abb. 13.4 Entwicklung der Arbeitsproduktivität der englischen Elektrizitätsindustrie im Vergleich zur gesamten britischen Industrie, entnommen aus Newberry-Pollitt (1995).
Auch die vorläufige Erfahrung mit dem Poolbetrieb ist jedoch positiv, sind doch die Preise
gegenüber der traditionellen, vergesellschafteten Organisation gefallen: um 37 % real bei dem
niedrigsten und um 20 % beim höchsten Preis 1990, Klopfer (1993, Tabelle 1)). Tabelle 2.1
zeigt die Entwicklung der Poolpreise. Dies bedeutet nicht, dass partielle oligopolistische Gewinne ausgeschlossen werden können (weil gleichzeitig die private Unternehmen die Kosten
senken konnten, insbesondere durch Entlassungen von redundantem Personal, aber auch der
Bezug von Kohle kam billiger), aber dass trotzdem Effizienzgewinne realisiert wurden. Ergänzt wird dieser Poolbetrieb durch Kontrakte (forward and futures), die eine Versicherung
ge-genüber den schwankenden Poolpreisen bieten.
Öffentliche Unternehmen
250
Eines der Hauptprobleme des Poolbetriebes betrifft die Kompensation für die Kapazität. Der
Grund ist die Tatsache, dass bei nur wenigen großen Erzeugern die strategische Möglichkeit
besteht, dass durch die Planung von Wartungsarbeiten, Verzögerungen bei der Reparatur (z.
B. die Reparatur ist technisch bereits abgeschlossen, aber aus strategischen Gründen wird
diese Einheit nicht rückgemeldet) die Kapazität strategisch verknappt werden kann. Dies erhöht die Kapazitätszahlungen über LOLP, die Wahrscheinlichkeit des Ausfalls ist eine nichtlineare Funktion der Differenz vorhandene Kapazität weniger Nachfrage. Diese strategische
Manipulation wird verstärkt durch die Tatsache, dass an den 15 Spitzentagen im Jahr 50 %
der gesamten Ausschüttung für Kapazität anfallen; an 11 Tagen übersteigen die Kapazitätszahlungen jene für die Arbeit. Tatsächlich bestätigt anekdotische Evidenz, dass Manipulationen vorkommen und auch jetzt verboten sind (aber zumindest ein strategisches Element für
Rückmeldung einer Einheit lässt). Weiter erklärt dies die Abmeldung von alten Einheiten; so
wurden 1994 - 95 8.1 GW alter Kapazität abgemeldet.
Das überraschende und damit die Kritik von Newberry und Greene etwas relativierende Ergebnis war der schnelle Eintritt von Konkurrenten. Diese unabhängigen Produzenten konnten
mit folgendem Paket - Gasturbinen (combined cycles gas turbines, CCGT), langfristige Verträge, Beteiligung von RECs - den Markt erobern, "So attractive was this package that within
a few months contracts had been signed for 10 GW of CCGT plant, which would displace
about 25 million tons of coal compared to the 1992 generation coal burn of 60 million tons",
Öffentliche Unternehmen
251
Newberry (1995, S 52). Mittlerweile ist der Kontraktpreis für solche Verträge 2.65 p/kWh auf
2.4 p/kWh, also 38 g je kWh (!) gefallen.
Die Übertragung und Verteilung als natürliche Monopole, und im obigen Sinne nicht anfechtbaren Monopole, sind nicht nach Wettbewerbsregeln organisiert. Der Normalfall des Grid
Operators, der zentralen Verbundgesellschaft, ist es, den berechneten optimalen (unconstrained) Kraftwerkseinsatzplan zu exekutieren. Es kommt jedoch regelmäßig davon zu Abweichungen, um den Sicherheitsstandard der Übertragung zu gewährleisten. Vom Standpunkt der
politischen Ökonomie und den charakeristischen Eigenschaften von Bürokratien ist diese
Entmachtung der vormaligen Zentralmacht des Central Electricity Generating Board bemerkenswert.
13.3 Die kalifornische Elektrizitätskrise111
Die Krise der kalifornischen Stromerzeugung manifestierte sich in zwei in der Öffentlichkeit
viel diskutierten Ereignissen:

Die hohen Preise Ende 2000 (siehe Abb. 13.5) , die in der Folge die preisgeregelten
Elektrizizätsversorger in den Bankrott trieb (etwa PG&E) und zu ökonomisch bedingten (weil die Stromproduzenten nichts mehr den zahlungsunfähigen Stromversorgern
lieferten) Ausfällen.

Technisch bedingte Ausfälle (black outs) und Abschaltungen (brown outs), ebenfalls
in Skandinavien, Italien, Griechenland.
Die folgende Darstellung beschränkt sich auf den ersten Aspekt der unmittelbaren ökonomischen Auswirkungen der kalifornischen Strommarktliberalisierung, weil dies oft auch als Totschlaginstrument für jede Liberalisierung verwendet wird.
Die Entwicklung:
111
-
1992 beginnt die California Public Utility Commission (CPUC) mit einem Umstruktierungsplan.
-
1996 wird dieser beschlossen (einstimmig!)
-
Bis zum Frühjahr 2000 funktioniert das liberalisierte System, bis im Herbst 2001 zur
Krise kommt.
-
Als Folge der langen Vorlaufzeit dieser Regulierung erlosch praktisch die Investitionstätigkeit, die jedoch mit der Liberalisierung wieder aufgenommen wird. Jedoch auf
Grund der langen Bauzeiten für Kraftwerke stehen diese dann in der Krise nicht zur
Verfügung, während die langjährige Absenz von Investitionen zu einer Kapazitätsknappheit bei ungünstigen Umständen führte.
Die folgende Darstellung basiert auf James L. Sweeney, The Califoirnia Electricity Crisis, 2002.
Öffentliche Unternehmen
252
Abb. 13.5 (aus Joskow (2001))
Abb. 13.6: Anträge für neue Kraftwerke (aus Sweeney 2002).
Die Motivation für das Abgehen von der traditionellen Renditenregulierung (75% der kalifornischen Stromversorgung erfolgte durch private Unternehmen, investor owned utilities) waren
die relativ hohen kalifornischen Strompreise (50% über denen der anderen westlichen Bundesstaaten).
Öffentliche Unternehmen
253
Die Kernpunkte der Re-organisation waren:

Konkurrenz in der Erzeugung und Großhandel. Zur Erhöhung des kompetitiven Charakters werden die vormalig vertikal integrierten Elektrizitätserzeugungsunternehmen
gezwungen, Kraftwerkskapazitäten abzugeben.

Installierung zur Kontrolle und Steuerung einerseits eine Strombörse (Power Exchange, PX) und andererseits einen unabhängigen Systemadministrator, ISO = independent system operator). Alle Versorgungsunternehmen wurden gezwungen, Strom von
diesem Markt, der als Markt für den folgenden Tag (Day Ahead ähnlich dem englischen Pool) konzipiert war, zu beziehen. Dies eröffnete den Produzenten trotz der
scheinbar kompetitiven Situation einer Auktion strategisches Handeln auf Grund der
Spezifika der Stromerzeugung (siehe dazu die folgenden Unterkapitel, die zwei Ansätze dazu päsentieren).

Regulierung der Verbraucherpreise, wobei dieses Niveau so gedacht war, dass
dadurch die stranded costs (etwas das auch wir zahlen, etwa für das Kraftwerk Freudenau), das sind die Kosten, die im vormals regulierten System in gutem Glauben und
Vertrauen versenkt wurden, gedeckt werden können. Daher war die Verbraucherseite
komplett (aber nur scheinbar, wie sich dann herausstellt) gegen die Unsicherheiten auf
der Angebotsseite geschützt. Dies stellte sich als einer der zentralen Pferdefüße in der
Krise heraus, weil dadurch auf jede Konsumentenreaktion auf Preise verzichtet wurde.
Sweeney macht nun eine Verknüfung von vier Stufen, wo auf jeder eine gute eine schlechte
Entscheidung möglich war, für das Desaster verantwortlich:
1. Risiko: Die Verbraucherpreisregulierung, verstärkt durch das nunmehrige Fehlen eigener Kraftwerkskapizitäten ließ die Versorgungsunternehmen alleine
das ganze Marktrisiko tragen, insbesondere das der Preisschwankungen des
PX.
2. Herausforderung: Die Unsicherheit des neuen Regulierungsschemas verstärkt
durch die Umweltregulierungen112 eliminierte nahezu Investitionen in neue
Kraftwerke. Die durch die Deregulierung ausgelösten Investitionen kamen
nicht unmittelbar zum Tragen. Eine weitere Herausforderung war, dass die
Nachfrage in unvorhergesehenem Maße wuchs (4% 2000/1999). Als Ergebnis
resultierte Notwendigkeit ineffiziente und dadurch Gasturbinenkraftwerke anzuwerfen. Diese Situation wurde weiter verschärft durch die gleichzeitige
Preiserhöhung von Erdgas, wobei Engpässe im Erdgasnetz auch die Erdgaspreise in Südkalifornien in die Höhe trieb.
112 Ironisch ist dabei, dass CISCO, ein Unternehmen dessen Geräte ohne Strom wertlos sind, das das Unternehmen benachbarte Kraftwerksprojekt Metcalf blockierten.
Öffentliche Unternehmen
254
Abb. 13.7: Entwicklung der Strompreise innerhalb und außerhalb von Kalifornien
(Sweeney (2002))
3. Die Krise: Preise, die im April noch bei $30 je MW waren, stiegen bis November auf ein Niveau von bis zu $ 450! Solche Preisspitzen waren allerdings
nicht auf Kalifornien beschränkt, aber diese anderen Bundesstaaten erlebten
kein ähnliches Drama auf Grund eines anderen Vorgehens (siehe Abb. 13.7).
Sweeney meint nun, dass dieses Problem über den Zeitpunkt der Preisspitzen
hinaus (also bis ins Frühjahr 2001) lösbar gewesen wäre, wenn man (politisch)
gewillt gewesen wäre, diese Preissteigerungen an die Konsumenten weiterzugeben, weil dies zu massiven Einsparungen geführt hätte (dies bestätigt sich
auch im natürlichen Experiment in San Diego, weil der dortige Versorger bereits aus der Preisregelung herausgefallen war, weil alle stranded costs bereits
gedeckt waren). Das Festhalten an den Verbraucherpreisen führte zur Krise.
Der Versorgungskrise auf Grund der oben beschriebenen Knappheiten folgende eine finanzielle Krise: Die Zahlungsfähigkeit der großen Stromversorger
Pacific Gas & Electric and Southern California Edison wurde zerstört, weil
die Verbraucherpreise nicht mehr die Gestehungskosten auf dem Markt decken
konnten so, dass die Stromerzeuger nicht mehr gewillt waren zu liefern und in
der Tat traf dieser Ausfall an bezahlten Rechnungen dann auch zahlreiche kleinere Stromerzeuger. Hier trat die Regierung (Gouverneur Davis) in Aktion und
zwar als alleiniger Ankäufer von Strom (für die Versorgungsunternehmen und
um 10 Milliarden $, die dann den Unternehmen um 3 Milliarden $ verkauft
wurden) auf. Juni 2001 war die Krise vorüber: die Preise fielen wieder auf unter $50 je MW. Für 2004 werden 12000 MW mehr an Kapazität erwartet.
Öffentliche Unternehmen
255
4. Der Schaden: Zum Bekämpfen einer kurzfristigen Krise wählte die kalifornische Regierung langfristige Lieferverträge für Strom. Unter diesen Verträgen
wurde das Doppelte des erwarteten Marktpreises vereinbart; wenn alle Kosten
inkludiert sind beläuft sich dies auf ca $100 je MW bis Ende 2003 und
$71/MW bis 2011.
13.4 Europa
13.4.1 France's electricity giant is being shaken up 113
THE new year could get off to a cold and dark start in France. The Communist-backed CGT union is threatening
to strike at the end of January in protest at reforms planned by Electricité de France (EDF), Europe's largest
electricity company. EDF, which was recently partially privatised with a sale of 15% of the company, plans to
cut 6,000 jobs in France. The unions are furious at what they regard as a clumsy attempt to please the financial
markets.
The clash could be but a curtain-raiser if EDF's boss, Pierre
Gadonneix, pushes ahead with his plan to transform the giant
utility—sales last year were €46.9 billion ($58.2 billion)—
into a more efficient company. EDF employees work shorter
hours, enjoy longer holidays and get more special benefits
than workers in any other French company. A bestselling
book about how to do almost nothing at work entitled “Bonjour Paresse” (“Hello Laziness”) was written by Corinne
Maier, an EDF employee. The difficulties of reforming the
company are, arguably, reflected by the fact that although Ms
Maier was subjected to a disciplinary hearing, she kept her
job as an economic adviser on how to make EDF more efficient.
Mr Gadonneix, a former boss of Gaz de France, was appointed chief executive in September 2004. His brief was to sort out the electricity firm's most urgent problems:
gargantuan unfunded pension liabilities, loss-making operations in Argentina and an argument with the Italian
government over market access.
François Roussely, Mr Gadonneix's predecessor, did most of the negotiating with unions about last year's change
of status of EDF from a public enterprise (which means the state guarantees its debts) into a limited company
governed by company law. To get the unions' backing for the new status and the planned flotation—or at least to
convince them not to bring the country to a standstill—EDF had to promise to leave the pension arrangements
unchanged. Compared with the pension headache, the solution to the company's international troubles was almost easy: Mr Gadonneix decided to abandon the company's operations in Argentina rather than continue losing
money. He also reached an agreement with the Italian government involving some reciprocal opening of markets.
Having paved the way for a share offering, Mr Gadonneix says he is happy with the result, despite lukewarm
interest from institutional investors and the shares' lacklustre performance. He argues that investors will eventually recognise that EDF's status as the world's biggest generator of nuclear power is a big advantage, since 95%
of its electricity production is independent of the oil price.
Even so, investors remain sceptical about a company with high debts and ageing nuclear reactors—where the
room for manoeuvre is so restricted by the obligation to reconcile the conflicting interests of the state, unions and
113
Shock to the system, Dec 20th 2005, The Economist.
Öffentliche Unternehmen
256
other shareholders. Indeed, the really tough part of Mr Gadonneix's job lies ahead. He needs to increase profits
and productivity of the multinational's French operations, which employ 110,000 people in the production,
transmission and distribution of energy. By some estimates EDF has twice as many workers as utilities of comparable size.
In the foreseeable future, government officials will continue to dictate prices for electricity (and keep them artificially low) and unions will oppose any change to the workforce's perks. Mr Gadonneix admits that reforming his
company is fraught with risk. Yet he is determined to improve its productivity and profitability. While EDF
made a net profit of €1.3 billion last year, he says net profit will be at least €2.6 billion this year and should increase by at least 10% every year in the next three years. He will cut more jobs by not replacing employees who
retire or leave.
Mr Gadonneix has drawn up a road map, but it is not clear that he will have enough time to complete the journey. In two years he will be 65, the official retirement age. But if he makes a good start on his reforms, Mr
Gadonneix may be that rare EDF employee who is persuaded to stay on, rather than take his pension.
13.4.2 Europe's power struggle, Jul 1st 2004, The Economist.
“FREE Gulliver!” declared Philippe de Buck at a recent gathering of European regulators, utility bosses and
others involved in energy liberalisation. The secretary-general of the Union of Industrial and Employers' Confederations of Europe urged them to “take their hands off the management of the energy business” and added,
“Don't turn back the process of deregulation.” Only thus, he argued, will Gulliver be liberated from the thousands of “Lilliputian rules and restrictions that bind him”. His timing was curious, to say the least, for July 1st
marked a crucial step in the emergence of the EU as the world's most liberalised large energy market.
The conference that Mr de Buck addressed, in Lyon, France, celebrated the latest advance in the decade-long
process of European Union (EU) energy liberalisation. The first big threshold was passed in 1999, when some
large firms were allowed to choose their power suppliers. Since July 1st, two-thirds of all customers in Europe
have had that right, at least on paper. By 2007, every European will.
As recently as three years ago, such progress was unimaginable. France and (with more subtlety) Germany were
doing all they could to put off the moment of market opening, blocking negotiations and actively boosting their
domestic champions in the energy business. But Europe's energy dinosaurs lost the latest round in the liberalisation fight, beaten by political pressure from the pro-market British and Dutch, and by the tireless work for
change of the European Commission. The Commission is even now demanding that the overblown giant, Electricité de France (EDF), return some €1 billion ($1.1 billion) in illegal state aid (see article) for an account of
EDF's ever-expanding problems). The Commission is also opposing the British government's bail-out of British
Energy, an ailing nuclear operator.
Philip Lowe, who heads the Commission's competition directorate, argues that the hard work of liberalisation
goes mostly unnoticed. His unit has cracked down on colluding Norwegian gas firms. It insisted that Algerian
gas imports not have “destination clauses” that forbid resale; it sided with Marathon Oil, an energy company
trying to enter the German market, when Germany's Thyssengas refused it access to its network; and it ordered
EDF to auction capacity on its link between France and Britain to newcomers. The liberalisation process is, says
Mr Lowe, “a constant grinding away at the nitty-gritty of anti-competitive behaviour”.
Even executives of the industry being pushed to liberalise have some kind words for the Eurocrats. Paul Bulteel,
secretary-general of Eurelectric, a trade group, says that “despite some flaws, the Commission has done a very
good job ensuring that there is a coherent regulatory framework. This is much better than the patchwork that
exists in the United States.”
That is no idle boast. July 1st brought more than just a mandatory choice of supplier. Vertically integrated firms
must now legally “unbundle” the grid from their supply business. (With luck, supply giants such as Gaz de
France and Italy's ENEL will now be forced to sell off their grids so that they have no way to discriminate
against new entrants.) All EU countries must now have an energy regulator; before July 1st, Germany doggedly
Öffentliche Unternehmen
257
refused to establish one. That, complains Gérard Mestrallet of Suez, a French rival to EDF, meant that foreign
firms had to haggle with (or sue) provincial utilities to get them to ship power to clients within Germany, which
meant that in practice liberalisation in Germany fell far short of how it looked on paper. A final, related, advance
is that every country must now have transparent tariffs for using the transmission system.
Let there be light
So why, given all this progress, did Mr de Buck strike such a cautionary note? Certainly, there is a chance, albeit
small, that the reforms will even now be derailed. Perhaps the growing public backlash against blackouts will
prompt political action. Last summer's blackouts from England to Italy led some politicians to call for more state
intervention to ensure “security of supply”. Loyola de Palacio, the EU's Energy Commissioner, rejects that link:
“The blackouts in Europe last year cannot be blamed on the market-opening process.”
A more serious worry, that might lead to a rethink, is that deregulation would undermine incentives to make
essential investment in new generation and transmission. Fatih Birol, chief economist at the International Energy
Agency, estimates that 40% of western Europe's coal plants will need to be replaced by 2015.
A lesson from America, which endured its worst blackout ever last August, is that a half-baked approach to deregulation reduces incentives to invest. But so does arbitrary state intervention, such as the imposition of price
caps on wholesale markets during California's energy crisis. In contrast, Britain's more coherent regulatory approach has delivered better results. After privatisation, Britain's National Grid company invested in upgrading
transmission lines at four times the rate it did before it was sold. Security of supply comes not from central planning, but from a well-regulated, open market.
Another fear is that liberalisation will be sacrificed to greenery. The EU prides itself on being the world leader in
tackling climate change, by promoting renewable energy and other environmentally friendly technologies. Alas,
each EU member country has embraced its own, often muddled, set of energy taxes, wind subsidies, carbonreduction schemes and so on. Eurelectric complains that this has led to “an incoherent and market-distorting
patchwork” that deters investment. Far better, it argues, is a market-friendly approach that builds on current
plans for pan-EU carbon trading (due next year).
But the biggest challenge will come from the entrenched old monopolists, who have lost some of their strength
but are seeking new ways to stitch things up. In France, new power firms seeking small customers will find that
many do not have sophisticated electronic meters; they must rely on load and risk profiles provided by the
mighty incumbent, EDF. And EDF has used the fruits of its monopoly power in France to buy its way into more
deregulated foreign markets. As Paolo Scaroni, ENEL'S boss, puts it, EDF has been “pushing forward on liberalisation abroad—but it's very reluctant at home.”
There are rumours of impending “asset swaps” (via asset sales) or “energy swaps” (via long-term contracts)
among national champions such as EDF, ENEL and Endesa. That would allow some foreign penetration while
keeping newcomers out and so limiting the amount of competition.
In Spain, a serious obstacle to competition is that the Iberian power grid is poorly connected to the rest of Europe. But “what incentive does a supposedly unbundled Spanish grid operator have to build new interconnections to France?” asks one Commission regulator. Such connections would only let in a flood of cheap nuclear
electricity. Italy's regulator worries about the grip that ENI, a national oil giant, has on the gas infrastructure.
So how can a stitch-up by various national incumbents be avoided? That regulators are already alarmed is a
hopeful sign, although it does not satisfy Suez's Mr Mestrallet. He wants a new pan-EU energy regulator, a “super policeman”, to ensure that Europe builds the inter-connections necessary to forge its balkanised national
markets into a “high voltage highway”.
That sounds like a Eurocrat's dream, but Brussels is not interested. Rather, officials say that existing forums for
co-ordinating regulatory efforts, as well as various bits of EU legislation, are adequate to the task. Indeed, despite the fears of Mr de Buck, it is clear that the often vilified Eurocrats are feeling unusually optimistic about
Öffentliche Unternehmen
258
energy liberalisation. Says one top Commission official neck-deep in reforms: “My aim is to shut down this
office on January 1st 2007. I'd like to put myself out of a job because we'll have a fully competitive energy market and there will be no need for our services.” Here's hoping.
13.4.3 Power Struggles. Political and business interests collide as Europe's
energy firms consolidate114
“WE expected a wave—but what happened was a tsunami,” says Emmanuel Turpin, a utilities analyst at Morgan
Stanley, an investment bank. Energy-industry insiders predicted a series of mergers and acquisitions in European
utilities at the beginning of this year. But hardly anyone expected the announcement in February of two of the
biggest-ever takeovers in corporate Europe: the bid for Endesa, a Spanish electricity company, by E.ON, a German power giant; and the merger of Gaz de France (GDF), a French gas firm, and Suez, another French utility.
The latest takeover in the industry, announced this week, is smaller, less spectacular and not much of a surprise.
Iberdrola, a Spanish electricity company, announced on November 28th its €17.2 billion ($22.5 billion) bid for
Scottish Power, a British utility. Compared with the E.ON bid, now valued at €37 billion, and the €78 billion
merger of Suez and GDF, the deal looks like small beer. Yet the acquisition will create one of Europe's six biggest utilities and a world leader in renewable energy. And in striking contrast to the two bigger deals, which are
bogged down in legal and political quagmires, it is likely to proceed smoothly.
The catalyst for the frenetic merger activity among European utilities is the run-up to full deregulation of the
European Union's energy market. For more than a decade the European Commission has been trying to enable
energy producers and distributors to compete freely across national borders. The final deadline of the EU's bulky
legislative programme to liberalise the market is July 2007. By then member states are supposed to have implemented all EU energy directives.
Ignacio Galán, the boss of Iberdrola, said this week that the fast-approaching deregulation in Europe, which will
put big, cross-border firms in a stronger position, was one of the reasons for his bid for Scottish Power. But Mr
Galán did not mention the more probable driver of the deal. ACS, a Spanish construction company, recently
bought a 10% stake in Iberdrola with a view to merging it with Unión Fenosa, another Spanish power company
in which ACS has a 40.5% stake. Mr Galán is opposed to the deal. Iberdrola is the world's leading operator of
wind turbines, but Fenosa relies heavily on coal-fired plants, so a merger would sully Iberdrola's image.
Investors and analysts are lukewarm about his proposed alternative, however. There is an obvious logic to buying PPM Energy, an American wind-power developer owned by Scottish Power, given that Iberdrola took over
two other wind-power companies in America earlier this year. But PPM is only one-fifth of Scottish Power's
business. Combining Iberdrola with Scottish Power will achieve very few cost savings as there is no other geographic overlap. And Iberdrola is taking on lots of debt to finance the pricey takeover.
But at least the objections to the deal are commercial, rather than political or legal, which is more than can be
said for Europe's two other big energy mergers. It is a full year since a failed bid for Scottish Power prompted
Wulf Bernotat, the boss of E.ON, to plot his big coup: a takeover of Endesa, which would make E.ON one of the
world's largest electricity and gas firms, with over 50m customers in more than 30 countries.
Mr Bernotat's grand plan is facing strong resistance in Madrid. The Spanish government wants to keep Endesa in
Spanish hands, so the country's regulator imposed no fewer than 19 conditions on the German bid (and later
added some more for good measure). The deal is also entangled in a legal dispute between Endesa and Gas Natural, another Spanish power company that wants to buy Endesa. Meanwhile the merger of GDF and Suez is in
serious trouble. On November 21st a judge in Paris blocked GDF from completing the deal. The judge agreed
that workers' representatives, who are afraid of job cuts, needed more time to look at the terms of the deal. GDF
immediately appealed, but the appeals court upheld the ruling.
114
The Economist, Nov. 30th, 2006.
Öffentliche Unternehmen
259
The delay will postpone a shareholders' vote on the deal until next spring, when the campaign for the French
presidency will be in full swing. Doing the deal just before the election will be tricky, but trying to do it afterwards will be even harder. Ségolène Royal, the Socialist candidate for the presidency, has vowed to renationalise
GDF if she wins. And Nicolas Sarkozy, the most promising candidate of the centre-right, might well drop his
half-hearted support for the merger.
But insiders still reckon the two mega-mergers will go ahead. “We are confident the Spanish and French deals
will eventually go through,” says José Javier Ruiz Fernández, a utilities analyst at Exane, a French broker. The
political cost of the Spanish government's tactics is high, so it will probably give up its resistance to E.ON. The
European Commission ruled in September that all but one of the 19 conditions imposed on the E.ON bid were
illegal, and it said on November 29th that all of the regulator's new conditions were illegal too.
Next year consolidation will continue, though at a less busy pace. Valuations of European utilities are now very
high. Governments remain opposed to acquisitions of utilities by foreigners—except, that is, in Britain. After the
takeover of Scottish Power, foreigners will own four of Britain's six big utilities. Only Centrica, a gas retailer,
and Scottish and Southern, the third-biggest energy utility, will remain in domestic hands. They are tempting
targets, but any suitor will need deep pockets—and confidence that the European market will indeed, despite all
the political meddling, soon become truly open.
13.5 Konkurrenz in Angebotsfunktionen
Das Charakteristikum des britischen Spotmarktes für Strom ist, dass die (vorläufigen) Preise,
abhängig von der Nachfrage, im voraus für den nächsten Tag bestimmt werden. Mit der Hilfe
eines Computerprogrammes GOAL werden die minimalen Kosten bei erwarteter Nachfrage
bestimmt. Als Bestandteil dieser Lösung kann die marginale Produktionseinheit bestimmt
werden, und diese Grenzkosten werden dann als Preis an alle Produzenten für die Bereitstellung von Strom in dieser halben Stunde bezahlt, d. h. eine multiunit, single-price auction.
Grundlage für diesen Poolbetrieb und die darauffolgende Optimierung ist, dass die Produzenten nicht nur einen Preis offerieren, sondern eine gesamte Preisliste über alle Einheiten und
ihre Kapazitätsbeschränkungen. Diese Anordnung Preis-Einheit kann zu einer (ansteigenden)
Angebotsfunktion - jene Preise, notwendige sind, um die gewünschte Leistung bereitzustellen
- zusammengefasst werden, siehe Abb. 13.8.
Öffentliche Unternehmen
260
AS
Blockgrösse
MW
Abb 13.8: Angebotsfunktionen
Dabei stellt sich die Frage, welche Angebotsfunktion werden profitmaximierende Duopolisten
dem Lastverteiler vorlegen und führt dies zu Effizienz? Die theoretische Analyse der Konkurrenz in Angebotsfunktionen findet man in Klemperer-Meyer (1989). Dieses Konzept der
Konkurrenz in Preislisten ist nicht nur von theoretischer Bedeutung und für den hier betrachteten Fall sondern auch von praktischer, betreiebswirtschaftlicher Bedeutung, weil auf vielen
Märkten mit solchen Preislisten anstatt mit skalaren Preisen operiert wird. Bolle (1990) und
Greene-Newberry (1992) wenden diese Theorie auf das Konzept des englischen Poolbetriebes
an. Dazu werden, teilweise abweichend von der Praxis, folgende vereinfachenden Annahmen
gemacht. Diese Angebotsfunktion sind in der Praxis Treppenfunktionen (durch den Übergang
zu verschieden Blöcken, sieh Abb. 13.8), aber aus analytischen Gründen unterstellen wir differenzierbare Angebotsfunktionen. Diese Annahme hat nur technischen Charakter und erlaubt
die Anwendung der Differentialrechnung. Weiter wird davon abgesehen, dass die Produzenten Zusatzprämien erhalten, wenn die Last die Kapazität erreicht (weil dies das Problem
nicht-konvex macht).
Öffentliche Unternehmen
261
MW
Tagesganglinie
19. Feb. 1992
10000
8000
6000
4000
2000
0
0
4
8
12
16
20
24
16
20
24
h
Dauerlinie
8000
MW
7500
7000
6500
6000
0
4
8
12
h
Abb 13.9: Korrespondenz zwischen Tagesganglinie und Lastgangkurven = Dauerlinie basierend auf dem 19. 2. 1992 und der Betriebsstatistik 1992.
Die Nachfrage ist modelliert durch die Lastganglinie, so dass die Nachfrage monoton über
dieser der Lastganglinie zugrunde liegenden Zeit ist. Diese Nachfrage ist exakt bekannt und
der Anstieg der Nachfrage ist zeitunabhängig:
D(p,t), Dp < 0, Dpp  0, Dpt = 0,
(1)
Nachfrage, wobei t die Anzahl an Stunden t beschreibt, wo die Nachfrage höher als D ist.
Abb. 13.9. zeigt die Korrespondenz zwischen Tageslastverlauf und Lastganglinie basierend
auf realen österreichischen Daten.
Die Nettonachfrage des Oligopolisten i in der Periode t, wenn der Konkurrent j die Angebotsfunktion Sj(p) hat, ist in einem Duopol die Differenz:
D(p, t) - Sj(p).
(2)
Öffentliche Unternehmen
262
Die Funktion C(q) beschreibt die effektiven Kosten für die Aufbringung von q und C'(q) die
entsprechenden Grenzkosten, wobei möglicherweise ein Unterschied zur vorgebenen Angebotsfunktion besteht.115
Greene - Newberry (1992) studieren nicht-kooperative Nash-Gleichgewichte allerdings beschränkt auf ein symmetrisches Duopol. Wegen der täglichen Wiederholung der Auktion enstehen kaum Lernkosten, um das Gleichgewicht herauszufinden. Diese Stationarität wiederum
verleitet aber zu kollusivem Verhalten, z. B. durch Anwendung des Folk-Theorems für wiederholte Spiele, so dass die Unterstellung von nichtkooperativem Nash-Verhalten eigentlich
optimistisch ist. Das Spiel kann nun wie folgt charakterisiert werden:
1. Der Lastverteiler wählt zu jeder Periode t den niedrigsten Preis p(t) so dass:
D(p(t), t) = Si(p(t)) + Sj(p(t)).
(3)
2. Dabei wählen die beiden Duopolisten ihre Angebotsfunktion Si und Sj als Strategien:
qi = Si(p): [0,) - > [0, k].
(4)
Diese Strategien qi sind unabhängig von der Dauer t und beschreiben die Bereitschaft beim
Preis p die Menge Si(p) zu liefern.
3. Jeder Duopolist i versucht seinen Gewinn i zu maximieren:
i(p) = pqi - C(qi) = (D(p,t) - qj(p))p - C(D(p,t) - qj(p)).
(5)
Optimieren von (5) führt auf folgende Bedingung:
di/dp = qi + (Dp - qj')p - (Dp - qj')C' = 0.
(6)
Daraus folgt:
qj' = Dp + qi/(p - C').
(7)
Aus der Annahme eines symmetrischen Nash-Gleichgewichtes, qi = qj = q folgt weiterhin
folgende Differentialgleichung als Lösung dieses Spiels:
q'(p) = Dp + q/(p - C').
115Da
(8)
Klemperer und Meyer mit p die Gewinndifferenz, Preis weniger Grenzkosten verstehen, muß die obige
Grenzkostenkurve C' durch den Ursprung gehen. Daher ist: C(q) := C*(q) - qC*'(0), wobei C* die tatsächlichen
Kosten beschreibt und C(q) jene transformierten Kosten, die notwendig für die Anwendung Klemperer und
Meyer sind; C'(q) = C*'(q) - C*'(0).
Öffentliche Unternehmen
263
Dieser Differentialgleichung fehlt eine Randbedingung, so dass eine Familie von Lösungen
existiert. Analysieren wir folgende Isoklinen dieser Differentialgleichung (8), dann erhalten
wir zwei Randfälle:
q' = < = > p = C', d. h. die Konkurrenzlösung!
q' = 0 < = > p = C' - q/Dp, d.i. die Monopollösung!
Alle Trajektorien die dazwischen liegen, stellen nun Lösungen dar; ja sogar Stückelungen aus
'inneren' und Randlösungen stellen ebenfalls potentielle Lösungen dar. Dieses Ergebnis ist in
Abb. 13.10 konstruiert, wobei ergänzend die Nachfrage eingetragen ist. Eine Lösung von (8),
die durch den Schnittpunkt der Grenzkostenkurve mit der Nachfragekurve (Punkt C) geht
(und diese Lösung ist eindeutig nach dem Satz von Peano), ist effizient, obwohl für einige
Einheiten die Duopolisten die Preise über den Grenzkosten angeben. Andererseits resultiert
die reine Monopollösung (die Trajektorie die durch den Punkt M geht), auch wenn nicht jeder
Block entsprechend üblichem monopolistischen Verhalten angepreist wird, sondern billiger.
Eine dritte Lösung ist in Abb. 13.10 eingezeichnet, die zwischen diesen beiden Extremen
liegt.
Monopollösung
Nachfrage
M
C
Grenzkosten
Abb 13.10: Unterschiedliche Lösungen der Differentialgleichung (8)
Öffentliche Unternehmen
264
Beispiel: Konstante Grenzkosten, C’ = , und linearer, separable Nachfrage, Dp = -b. Dies
liefert die lineare Differentialgleichung:
q' = -b+ [1/(p - )]q
(9)
mit der Lösung
q(p) = (p - )[K -bln(p - )],
(9)
competitive
wobei K eine (unbestimmte) Integrationskonstante ist. Alle Konstanten K, die Lösungskurven
zwischen der kompetitiven und der monopolistischen liegen, sind ein zulässiges Nashgleichgewicht.
feasible
solutions
monopolistic
Beispiel: D(p, t) = a – bp, a = 1, b = 1, C’ =  = 0.1.
13.6 Strategic Elements of Electricity Supply: A Simple Game Approach
This section analyzes strategic choices of different suppliers that meet at a ‘marketplace’, like
the (former) British pool, the Californian power exchange, or in this analysis the Nord Pool.
This mandate that trades should pass through a common marketplace has been presumably
created with the intention to foster and to strengthen competition. Yet it seems so characteristic here as for the social sciences in general that this has had unintended consequences. Indeed, accounting for ‘the unintended repercussions of intentional human actions should be the
main task of social sciences’, Popper (1972, p 342). In particular, this short note presents
briefly a simple supply game that shows how producers feeding such a market have, under
certain circumstances, an incentive to declare units unavailable for purely strategic reasons.
This reduces supply and drives up the market price. The resulting simple strategic games
complement the substantially more complicated arguments based on the competition in supply functions that was developed in Klemperer and Meyer (1988), Bolle (2001) and applied in
Newbery and Green (1992) and Green (1996) to the British pool, and in Halseth (1998) to the
Nordic electricity market. The advantage of our approach is that it allows to reduce and to
classify the interactions of the market participants to the strategic situations of familiar games.
Öffentliche Unternehmen
265
Figure 13.11 highlights that some price spikes have been observed in the Nordic power market during the last two years. These price spikes indicate that generators possibly have taken
already advantage of this situation according to the argument in this paper. The likelihood of
such strategically created spikes increases in the future, because precipitation more than compensated for the increasing demand in the Nordic countries during recent years. But what
happens in a year with a shortfall of precipitation? Such a shortfall is assumed for the empirical example of the first theoretically analyzed strategic situations.
7 0 0 ,0 0
1800
6 0 0 ,0 0
price [NOK/MWh]
5 0 0 ,0 0
4 0 0 ,0 0
3 0 0 ,0 0
2 0 0 ,0 0
1 0 0 ,0 0
49
45
41
37
33
29
25
21
17
13
9
5
2000-01
49
45
41
37
33
29
25
21
17
13
9
5
1999-01
0 ,0 0
w eek
m in .
m a x.
a v e ra g e
420
390
360
330
300
270
240
210
180
150
120
90
60
30
0
R e n e w a b le s
G a s t u r b in e
O il
C oal
N u c le a r p o w e r
401
385
369
353
337
321
289
273
257
241
225
209
193
177
161
145
129
113
97
81
65
49
33
17
305
356TW h N et
c o n s u m p t io n
H y d ro p o w e r
1
Production costs [NOK/MWh]
Figure 13.11: Average weekly Nordpool system price and maximum and minimum hourly
prices by week. Source: NORDEL (2001, p 64)
E n e r g y [T W h /Y ]
Figure 13.12: Total annual electricity generation (by type of power plant and corresponding production
costs) and total consumption in the Nord Pool area in 2000. Source: Nordpool ASA (2001)
Öffentliche Unternehmen
266
13.6.1 The Model
It is supposed that aggregate electricity demand (say for tomorrow) must be met by two suppliers. The restriction to two suppliers is chosen to simplify and to highlight the strategic aspects. Although the results carry over to N suppliers, such an extension would complicate the
analysis in the chosen strategic form framework and this would run counter to the major intention of this paper, namely to outline the strategic elements in a most simple form. These
two identical suppliers have the same cost schedules {ci, i = 1, ... K} for their K units of supply where ci  cj for all i < j. Each plant produces ‘one’ unit. Hence, the aggregate capacity of
each supplier is K that must exceed half of the aggregate demand, K > ½D, in order that aggregate demand, D an even integer, can be met (a necessity for the functioning electricity
networks). Figure 13.12 shows an example of such an efficient utilization of power plants in
the Nordpool area scheduling total annual generation (by type of power plant) and the intersection with total consumption in 2000 In particular, this figure highlights the high
dependency on hydro energy (on average, 98,9% in Norway and 53,5% for the entire Nord
Pool area).
In order to highlight the strategic elements we assume further that the regulator, or the auctioneer of the power exchange, knows the marginal costs ci of each of the K plants of the two
suppliers and chooses the plants such that the costs for satisfying demand D are minimized.
Indeed, this practice of ‘knowing’ the costs, or at least of having a reasonable guess is common in many applications to the electricity market, see e.g. the recent analysis of the Californian electricity market in Joskow and Kahn (2001). The merit order principle implies that the
plant
n = D/2,
is the marginal plant. Firms receive a price p equal to the marginal costs, thus
p = cn.
This efficient scheduling leads to the profit
n
 0  cn n   ci
(1)
i 1
for each of the firms; the index 0 refers to this benchmark of ‘efficient’ scheduling and full
supply.
Withdrawing the most costly plant n
Now suppose that supplier 1 declares plant n not available. First of all note that if a supplier
declares a plant unavailable for purely strategic reasons, then it must be plant n and not plant
i < n, since the latter sacrifices the cost advantage of plant i. Suppose player 1 deviates from
the above supply inducing the profit 0 by declaring plant n unavailable due to maintenance,
break down or by just pretending such an event. As a consequence, plant (n + 1) instead of n
becomes now the marginal plant determining the price,
Öffentliche Unternehmen
267
p = cn+1.
It is assumed that this plant (n + 1) is run half by each of the suppliers; actually it does not
matter who supplies what share of this marginal unit since its operation yields zero profit anyway. This deviation induces the following profits beginning with the deviating (subscript d)
player (superscript 1),
n 1
 d1  cn 1 ( n  1)   ci ,
(2)
i 1
while the non - deviating player (indexed 2, subscript c for complying) receives:
n
 c2  cn 1n   ci .
(3)
i 1
Hence the gain to player 1 from declaring unilaterally plant n unavailable is
n 1

n

i 1

i 1

 d1   0  cn 1 (n  1)   ci  cn n   ci   cn 1  cn ( n  1)  0 ,
(4)
while the full supplying player 2 receives the incremental gain
n

n

i 1

i 1

 c2   0  cn 1n   ci  cn n   ci   cn 1  cn n .
(5)
That is, declaring one of the (two) marginal plants unavailable both suppliers benefit albeit the
one still supplying reaps the larger gain. Finally suppose that both suppliers withdraw their nth
plant. This leads to the incremental profit (no differentiation between the suppliers is necessary)
 d   0  cn 1  cn ( n  1)  0
(6)
for both players. These different payoffs are summarized in Table 1 yielding a game in normal form where the strategies are to declare the marginal plant n available or not. Indeed, the
game is a version of the familiar game of chicken. Proposition 1 summarizes the corresponding Nash equilibria.
Table 1: Payoffs, incremental profits due to declaring the marginal plant n available or not,
c := (cn+1 – cn).
i=2
Available
Available
0, 0
Not available
nc, (n - 1)c
Not available
(n - 1)c, nc
(n - 1)c, (n - 1)c
i=1
Öffentliche Unternehmen
268
Proposition 1: The game in Table 1 has three equilibria: two asymmetric equilibria in pure
strategies
1 = available, 2 = not available,
1 = not available, 2 = available,
and a third equilibrium in mixed strategies (probabilities)
available = 1/n, not available = (n – 1)/n.
The probabilities of the mixed strategies equilibrium follow from the well known payoff
equating method, i.e., the indifference between playing any of the pure strategies if the opponent applies a randomized strategy making the plant available with probability a and not
available with probability (1 – a). Then
c = (1 – a)nc = d = a(n – 1)c + (1 – a)(n – 1)c, 

where the subscripts c and d refer to complying (i.e. supplying) and deviating (i.e. declaring
the plant for unavailable) respectively as above. The cost differential c cancels such that the
crucial probability depends only on n yielding the claimed result.
As an example, consider the Nord Pool and the two players:
1. Consortium of Vattenfall, Statkraft, Sydkraft, Fortum and Elsam&Elkraft that have
around 46,5% of hydro, 70,5% of nuclear and 48,7% of thermal generation.
2. All other generators in Scandinavia who own consequently around 53,5% of hydro - ,
29,5% of nuclear - and 51,3% of thermal - power (according to Fleten - Lie (2001, p
10)).
Plant size is 500 MW so that the marginal plant for the so far observed peak (January 2000) of
60.1 MW is n = 61, a coal fired power plant, see Fig. 13.13
The following scenario considers a winter day (e.g. in January 2003, 2004, ...) and assumes
that the corresponding water reservoir availability is only 60% of the maximum in this period
of time (see Fig. A1 in the Appendix). The corresponding supply curve for the Nord Pool area
is shown in Fig. 13.13; the construction of this supply curve and of the calculations of the
following payoffs are documented in detail in the Appendix. Fig. 13.13 highlights that the
price increase due to withdrawing a plant is only significant if this requires that a more costly
plant becomes necessary instead. Indeed, the following calculations – simplified by neglecting
cost variations within a power plant type, e.g. all hydro power plants have the same costs, see
Fig. 13.13 – underpin arguments above. This necessity to turn on another plant type happens
for a winter peak between 61.5 and 62 MW and when 60% of the hydro capacity is available
only. Then withdrawing the so far marginal coal power plant requires its replacement by a
more costly oil fired plant. The cost differences lead to the payoffs corresponding to the above
‘chicken’ game that are tabulated in Table 2. Hence, the suppliers have a strong incentive to
withdraw a plant due to the equilibria characterized in Proposition 1, since the potential gains
are quite substantial.
Öffentliche Unternehmen
269
Production Costs [NOK/MWh]
4 5 0 .0 0
4 0 0 .0 0
3 5 0 .0 0
3 0 0 .0 0
W in te r o ff p e a k
0 3 .0 0 h o u r:
4 6 ,2 G W h /h
2 5 0 .0 0
2 0 0 .0 0
M a x. s ys te m lo a d 3 rd
W e d n e s d a y in J a n 2 0 0 0
1 7 .0 0 h o u rs -1 8 .0 0 h o u rs :
6 0 ,1 G W h /h
1 5 0 .0 0
1 0 0 .0 0
5 0 .0 0
69
65
61
57
53
49
45
41
37
33
29
25
21
17
13
9
5
1
0 .0 0
C a p a c ity [G W ]
Figure 13.13: Supply curve, Nord Pool, Winter 2000, 60% water reservoirs availability
A similar situation can arise during a summer peak, see Table 3; cancellation of the marginal
hydro power plant requires drawing on combined heat and power from industry. However, the
gain is only a fraction (less than 10%) of the possible gain during a winter peak. Hence, considering the risk of getting caught by the regulator suggests that this kind of gaming is much
more likely to happen during winter. Indeed the already observed spikes shown in Figure
13.11 seem to confirm this.
i=2
Available
Not available
0,0
325500, 3202500
3202500, 325500
3202500, 3202500
Available
i=1
Not available
Table 2: Gains (NOK per hour) from withdrawing the marginal plant n = 61 (coal fired) during a winter peak
when only 60% of the hydro capacity is available (game of chicken).
i=2
Chicken Game
available
Available
Not available
0,0
320000, 312000
312000, 320000
312000, 312000
i=1
not available
Table 3: Gains (NOK per hour) from withdrawing the marginal plant (hydro) during a summer peak when 85%
of the hydro capacity is available only (game of chicken).
Declaring plant j < n as not available
Öffentliche Unternehmen
270
The suppliers cannot claim credibly that always just the marginal plant n is not available, but
most rotate among the different plants arguing with reference to maintenance and other plausible justifications like occasional failures of certain units. In this case, the cost sacrifice is
larger so that declaring plant j < n unilaterally (hence, the plant index j is now identified) as
not available yields the incremental profit
 dj1   01  cn 1  cn n  cn 1  c j  .
(8)
This difference is still positive for a sufficiently large n, even for large differentials in costs,
but not necessarily for n small. Therefore, a low demand, which is equivalent to n small, reduces the incentives to declare rather efficient plants unavailable. In fact, it can harm the suppliers. The corresponding payoff for the supplying player (2) is:
 cj2   02  cn 1  cn n .
(9)
If the second player withdraws plant j too, then the gain to the players 1 is as above,
 dj   0  cn 1  cn n  cn 1  c j  .
(10)
And by symmetry, the same payoffs result for player 2 contingent on player 1’s strategy. This
results in the following modified game shown in Table 4 and the implications are summarized
in Propositions 2 and 3.
Table 4: Payoffs for declaring plant j < n not available, cj = (cn + 1 – cj)
i=2
available
available
0, 0
not available
nc, nc - cj
not available
nc - cj, nc
nc - cj, nc - cj
i=1
Proposition 2: If
nc - cj < 0,
i.e. demand is low (n small) and the cost differential cj is sufficiently large, then the dominant strategy in the game in Table 2 is to declare every unit as available. As a consequence,
the Nash equilibrium is efficient (with respect to the players’ payoffs as well as socially).
Proposition 3: If
nc - cj > 0,
then Table 4 implies a ‘game of chicken’ with the already familiar asymmetric pure strategies
(1 = available, 2 = not available, 1 = not available, 2 = available) and again an equilibrium
in mixed strategies but with different weights:
Öffentliche Unternehmen
271
available = a = cj/[cj + (n – 1)c], not available = 1 – a.
As a consequence, the probability a that the plant j is available increases with respect to the
cost difference, cj = (cn+1 – cj).
That is, in the case of sufficiently high demand, even withdrawing a rather cost efficient plant
results again in a game of chicken with the already familiar asymmetric pure strategies and
again an additional equilibrium in mixed strategies. However, the weights of the mixed strategies differ yet can be again obtained by the payoff equation method (the subscripts c and d
have the same meaning as above in (7)):
c = (1 – a)nc = d = a(n – 1)c + (1 – a)[nc - cj].
(11)
Elementary simplification yields the claim.
Although a corresponding situation can be obtained for the calibrated Nordpool examples, it
is omitted here after showing already payoff matrices corresponding to a chicken game. An
example corresponding to Proposition 2 is shown in Table 5: winter, off - peak demand and
withdrawing a nuclear power plant (again, the details are documented in the Appendix). In
this case, no strategic withdrawal is the dominant strategy of both players.
i=2
Available
Available
Not available
0,0
0, - 15000
- 15000, 0
- 15000, - 15000
i=1
Not available
Table 5: Gains (NOK per hour) from withdrawing an intermediate plant (nuclear power,
32 < j < 44, see Appendix) winter, off peak.
13.6.2 Concluding Remarks
This paper considered the strategic decisions of electricity generators to withdraw plants supposed to supply a common exchange. Analyzing these decisions, a game of chicken results if
demand is large and the cost difference between the marginal and the cancelled plant is small.
This game has two asymmetric equilibria in pure strategies – one withdraws a plant, the other
not – and a symmetric equilibrium in mixed strategies where retracting a plant attracts the lion
share (in particular if the supply of the marginal plant can be cancelled). Otherwise – low demand, high cost differences (i.e. withdrawing a cost - efficient plant, which is necessary to
disguise this price - rigging strategy) - the strategic interactions result in a game with full supply being the dominant strategy. The corresponding equilibrium is Pareto - efficient for the
players and socially efficient since electricity is produced at minimal cost. Looking at specifics of the Nord Pool, both situations can be found, with substantial gains from withdrawing
marginal units during winter peaks in particular if water reservoir availability is low (due to a
dry year).
Öffentliche Unternehmen
272
This theoretical analysis can explain the recent spikes, those that are shown in Fig.13.11 for
the in the Nord Pool that are were observed in other spot markets (e.g. in Germany, December
2001, Leipzig power exchange (2002)) too. This analysis suggests in addition the following,
at least in principle, empirically testable hypotheses:
1. Declaring a marginal (or a relatively expensive) plant unavailable is much more profitable than very cost - efficient plants. Hence (observed claims of) ‘maintenance’
should be biased towards the expensive plants, everything else equal.
2. ‘Less’ last minute withdrawals (or possibly even less maintenance) during off peak
periods.
3. The incentive to withdraw is only large if its consequence is to replace it with a more
costly type. This leads again to an at least in principle testable pattern of withdrawals.
However, these and related tests require a detail of data that was not available to us. Moreover, such detail is also far beyond the intention of this paper of providing a simple explanation
of the strategic situation in electricity markets. Therefore, this is left for future research and
these tests might be also helpful for regulators in order to detect strategic actions by suppliers.
13.6.3 Annex: Application to the Nord Pool
The supply curves are constructed from the capacity in the Nord Pool area reported in Table
A1. The monthly water reservoir availability (i.e. generation from hydro power) is shown in
Fig. A1, the planned outages of nuclear plants in Fig. A2; standardized plant size is 500 MW.
Furthermore the costs do not vary within a power plant type, e.g. all hydro power plants have
the same marginal costs. As a consequence the withdrawal of marginal plants is only effective
in the sense of raising the price if another power plant type is necessary to meet demand.
Installed capacity, total
Hydro
Nuclear Power
Thermal Power
CHP district heating
Condensing Power
CHP industry
Gas Turbines
Other Renewable
Wind Power
Geothermal Power
Denmark
11.940,00
11,00
0,00
9.548,00
7.815,00
958,00
487,00
288,00
2.381,00
2.381,00
0,00
Finland
16.576,00
2.938,00
2.640,00
10.960,00
3.692,00
3.912,00
2.478,00
878,00
38,00
38,00
0,00
Norway
27.781,00
27.463,00
0,00
305,00
12,00
73,00
185,00
35,00
13,00
13,00
0,00
Sweden
30.894,00
16.229,00
9.439,00
4.985,00
2.264,00
448,00
932,00
1.341,00
241,00
241,00
0,00
Total
87.191,00
46.641,00
12.079,00
25.798,00
13.783,00
5.391,00
4.082,00
2.542,00
2.673,00
2.673,00
0
Table A1: Installed capacity by power plant type on 31. Dec. 2000, NORDEL (2001, p 47)
Öffentliche Unternehmen
273
100
Water reservoirs [%]
90
80
70
60
50
40
30
20
10
0
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
1.9
1.10
1.11
1.12
31.12
Time period
Finland
Norway
Sweden
Average
47
35
41
23
29
11
17
51
5
39
45
27
33
15
21
9
3
49
37
43
31
19
25
13
20
02
-1
7
Figure A1: Water reservoirs availability in 2000, NORDEL (2001, p 57)
0
-5 0 0
-1 0 0 0
[GWh/h]
-1 5 0 0
-2 0 0 0
-2 5 0 0
-3 0 0 0
-3 5 0 0
-4 0 0 0
w eek
Figure A2: Planned outages of nuclear plants up to 2004, NORDEL (2001)
In order to determine the seasonal variations of hydro power supply as a part of the total supply curve, it is necessary to link the water reservoirs availability and corresponding hydro
power capacity. In detail, the capacity P of a hydro power station can be calculated with following equation:
P = g(dm/dt)h [W]
in which
P...........capacity of hydro power station,
…....... efficiency of the total energy conversion [1],
g…....... gravity constant [m/s2],
dm/dt….mass flow rate [kg/s],
h...........difference between upper and lower water reservoir level [m].
(1),
Öffentliche Unternehmen
274
The basic assumption is, that the water reservoir availability equals the capacity of the hydro
plant. Hydro plants with significant dependence on water reservoir availability are especially
storage power plants where the relative difference between the upper and lower water reservoir level (h) is low and, subsequently, a decrease in h in the reservoir due to less water availability is negligible. Of course, it is possible to increase the mass flow rate but this implies
that the reservoir is faster depleted. Therefore it is assumed that the mass flow rate (dm/dt) is
proportional to the water reservoir availability. This combined with the equation above yields
that the water reservoir availability determines the capacity of hydro power plants.
Assuming that only 60% of the hydro power plant capacity is available on a single winter day
(according to Fig. A1), the corresponding supply curve is constructed in Table A2 (see also
Fig. 13.13) Table A3 is the analogue for a typical summer day.
System Load
[GWh/h]
Hydro
CHP Industry
Nuclear
CHP district heating
Coal
Oil
Gas
Renewables
0 - 28
28 - 32
32 - 44
44 - 58
58 - 62
62 - 64
64 - 67
67 -
Costs
[NOK/MWh]
30,00
46,00
60,00
90,00
125,00
230,00
300,00
400,00
Table A2: Supply curve, winter 2000, assuming 60% of water reservoirs availability (see
Figure A1)
Because of the planned outages of the nuclear power plants (see Figure A2) in the summer
month it is assumed that all nuclear units are online. This leads to the modified winter supply
curve without gaming in Table A2.
System Load
[GWh/h]
Hydro
CHP Industry
Nuclear
CHP district heating
Coal
Oil
Gas
Renewables
0 - 40
40 - 44
44 - 52
52 - 66
66 - 70
70 - 72
72 - 75
75 -
Costs
[NOK/MWh]
30,00
46,00
60,00
90,00
125,00
230,00
300,00
400,00
Table A3: Supply curve, summer 2000, assuming 85% availability of water reservoir (see Figure A1)
Öffentliche Unternehmen
275
According to water reservoir availability in July 2000 it is assumed that 85% of the hydro
power plant capacity is available on a single day. Because of scheduled outages of nuclear
power plants 4GW will be offline (see Figure A2).
Winter peak, withdrawing marginal plant n
The so far observed winter peak demand of 60,1GWh/h falls into a domain where reducing
supply by one unit (i.e. 500 MW) does not affect the market price due to the simplifying assumption of no cost variation within a power plant type (see e.g. Figure 13.12 and Table A2).
However if this peak grows such that
61,5GW < demand <62GW,
then the corresponding marginal unit is
n = 62.
Withdrawing this plant requires to use now an oil fired plant so that the cost differences according to Table A2 are:
c = cn + 1 - cn = 230NOK/MWh - 125NOK/MWh = 105NOK/MWh.
(2)
As a consequence, the gain of the fully supplying player is
 c   0  (cn 1  cn )n  6510  NOK/MWh ,
(3)
while the player withdrawing the otherwise marginal (coal fired) plan realizes the incremental
gain:
 d   0  (n  1)c  6405 NOK/MWh
(4)
The total gain must be multiplied by 500, due to the chosen unit of 500 MW plants, and the
number of hours where this strategy is applied; this holds for all the following calculations
too.
Winter off peak, declaring plant j < n not available
Similarly, we consider now analogously a demand level that is typical for winter day but off
peak
demand = 46.6 GW
so that the marginal plant is n = 47. However, the suppliers cannot withdraw this marginal
plant since that raises the suspicion of the regulators. Hence, if then they must pull out a rather
efficient plant, say a nuclear unit:
32 < j < 44.
Öffentliche Unternehmen
276
The corresponding cost differences are
c = cn + 1 - cn = (90 NOK/MWh – 90 NOK/MWh) = 0 NOK/MWh,
(5)
since the marginal plant does not change, and
cj = cn - cj = (90 NOK/MWh – 60 NOK/MWh) = 30 NOK/MWh.
(6)
Calculating the corresponding incremental gains yields for withdrawing the plant j:
 cj   0  nc  0 NOK/MWh ,
(7)
 dj   0  nc  c j  30 NOK/MWh ,
(8)
so that the game in Table 4 results.
Summer peak, declaring a marginal plant not available
A demand between 35GW and 40GW (see also Table A3) can be expected between 09.00 and
20.00 in July. We assume
demand = 39,6GW,
so that
n = 40
is the marginal plant and this is a hydro power plant. Yet its withdrawal demands a replacement by industrial CHP. The corresponding cost difference
c = cn + 1 - cn = 46 NOK/MWh – 30 NOK/MWh = 16 NOK/MWh,
(9)
leads to the following payoffs for (skipping now the already sufficiently documented detail)
for or for not withdrawing this marginal plant:
 c   0  ( cn 1  cn )n  640 NOK/MWh ,
(10)
 d   0  (n  1)c  624 NOK/MWh ,
(11)
so that the chicken game of Table 3 results.
Öffentliche Unternehmen
277
13.6.4 References
Bolle Friedel, Competition with supply and demand functions, Energy Economics 23, 253 –
227, 2001.
Fleten S.-E. and T. T. Lie, “Market Power in the Nordic Electricity market – the Effect of
hydro and Contracts”, Department of Industrial Economics and Technology Management,
Norwegian University of Science and Technology, Trondheim, 2001.
Green Richard J. and David M. Newbery, Competition in the British Electricity Spot Market,
Journal of Political Economy 100, 992 - 953, 1992.
Green Richard J., Increasing Competition in the British Electricity, Journal of Industrial Economics 2, 205 - 216, 1996.
Halseth Arve, Market power in the Nordic electricity market, Utilities Policy 7, 259 - 268,
1998.
Joskow Paul and Edward Kahn, Identifying the Exercise of Market Power. Refining the Estimates, mimeo, 2001.
Klemperer Paul D. and Margaret A. Meyer, Supply Function Equilibria in Oligopoly under
Uncertainty, Econometrica 57, 1243 - 1277, 1989.
Leipzig Power Exchange, http://www.lpx.de, 2002.
Newbery David M., Problems of liberalising the electricity industry, European Economic
Review 46, 919 - 927, 2002.
NORDEL, Energy and Power Balances for the three - year period 2002 - 2004, NORDEL
Balance Group,12. September 2001. Source: http://www.nordel.org
NORDEL, Annual Report, http://www.nordel.org/ - Annual Report, Page 46 - 65
Nord Pool ASA, “The Nordic Power Market Electricity Power Exchange across National
Borders”, 15. September 2001
Popper Karl R., Conjectures and Refutations, 4th revised edition (paperback), Routledge and
Kegan Paul, London, 1972.
Öffentliche Unternehmen
278
14 Liberalisierung des österreichischen Elektrizitätsmarktes
14.1 Einleitung
Der Beginn der EU - weiten Öffnung der Energiemärkte wurde durch die am 19.2.1997 in
Kraft getretene Elektrizitätsbinnenmarktrichtlinie 96/92/EG (ElRL) eingeläutet. Die Öffnung
und die damit erhoffte Bereitstellung von billiger Elektrizität – der wichtigsten Energiequelle
in der EU – sollte sowohl die internationale Wettbewerbsfähigkeit der europäischen Industrie
als auch den Wohlstand der Masse der nichtindustriellen Kunden heben. Die Mitgliedsstaaten
hatten binnen einer Frist von zwei Jahren ein nationales Gesetz im Sinne der Richtlinie als
Rahmenbedingung für die Liberalisierung zu erlassen. Sah das erste österreichische Gesetz
noch eine stufenweise Marktöffnung im Sinne der ElRL vor, entschied sich der
österreichische Gesetzgeber zwei Jahre später von den Mindestanforderungen der ElBR
abzuweichen und den Strommarkt für alle Konsumentengruppen mit Stichtag 1.10.2001 zu
öffnen. Früher als Österreich hat in der EU nur Finnland (1997), England (1998), Schweden
(1998) und Deutschland (1999) eine 100% Marktöffnung vorgenommen. Die anderen
Mitgliedsländer planen diesen Schritt erst (EU - Kom. 2001a).
In diesem Aufsatz versuchen wir eine erste Bestandsaufnahme des liberalisierten österreichischen Strommarktes, der sich daraus resultierenden industriellen Organisation und der beobachtbaren Formen der Konkurrenz. Zu diesem Zweck wird zuerst der Status der alten
Elektrizitätswirtschaft und dann dazu im Vergleich die Veränderungen beschrieben. Die Analyse konzentriert sich auf den per 1.10.2001 geöffneten Markt für Endabnehmer (Haushalte
und Gewerbe) unter Ausklammerung der Großindustrie, die schon seit Februar 1999 ihre Versorger frei wählen kann.
14.2 Die vergesellschaftete österreichische Elektrizitätswirtschaft
14.2.1 Historisch und rechtliche Entwicklung nach dem 2. Weltkrieg.
Nach dem zweiten Weltkrieg benötigte die zerrüttete österreichische Wirtschaft zum Wiederaufbau finanzielle Mittel, die nach damaliger weitverbreiteter Ansicht nicht von privater inländischer Seite aufzutreiben waren. Neben die ideologischen Gründe für den staatlichen Einfluss auf die Wirtschaft traten auch realpolitische, da somit wesentliche Wirtschaftsbetriebe
dem Einfluss der Besatzungsmächte entzogen werden sollten (Bachinger et.al, 1989; Sandgruber, 1995). Für die Elektrizitätswirtschaft wurde eine Verstaatlichung unter Beteiligung
von Bund, Ländern und Gemeinden beschlossen. Das 2.Verstaatlichungsgesetz (VerstG) im
März 1947 übertrug die Elektrizitätsunternehmen ab einer bestimmten Größe ins Staatseigentum. Gemeinsam mit dem Elektrizitätswirtschaftsgesetz wurde dadurch die Struktur der Elektrizitätswirtschaft in die mehrheitlich im Bundeseigentum befindliche Verbundgesellschaft, in
neun Landesgesellschaften und fünf Stadtwerken mit (a) ausschließlichen Versorgungskonzessionen, (b) ausschließlichen Versorgungsgebieten und (c) ausschließlichen Anschluss und Versorgungspflichten festgelegt.
Öffentliche Unternehmen
279
14.2.2 Die wirtschaftlichen Auswirkungen
Als charakteristische Momentaufnahme des noch vollkommen geschützten monopolistischen,
wenn auch formal nur mehr teilweise verstaatlichten, Elektrizitätsmarktes wird das Jahr 1995
gewählt. Im folgenden sollen einige charakteristische Punkte dargestellt werden.
14.2.2.1 Preisdifferenzierungen
Insbesondere bei den Endabnehmern nahmen die Elektrizitätsunternehmen kaum saisonale
oder Tag/Nacht Differenzierungen der Strompreise vor. Und dies obwohl ein Großteil der
normativen Theorie der Preisdifferenzierung extra für die öffentlichen Unternehmen entwickelt wurde. Die einzige Differenzierung auf der Kundenseite betraf den Nachtstrom, dessen
Verwendung allerdings auf Heizung und Warmwasser und dabei oft zusätzlich noch auf einen
Kundenstock (z.B. auf Kunden ohne andere Bezugsmöglichkeiten – Erdgas oder Fernwärme
vom Monopolisten) eingeschränkt war. Vor diesem Hintergrund keiner zeitlichen Differenzierung der Tarife ist das Fehlen von sonstigen Differenzierungen und insbesondere das Fehlen
von nichtlinearen Tarifen wenig überraschend. Die einzige Ausnahme stellte der Wiener Tarif
dar, der jedoch wiederum, bar jeglicher ökonomischen Logik, Kunden mit hohem Bezug bestrafte. Abb. 14.1 zeigt die Absurdität dieses Tarifes auf. Die mangelnde Anreizkompatibilität
gibt großen Haushalten, die Benachteiligten dieses Tarifs, einen Anreiz, sich in kleinere Einheiten aufzuteilen, wodurch Einsparungen ermöglicht werden, die um ein vielfaches über den
aus einer Liberalisierung erzielbaren liegen.
Preis
6000
2
ÖS/a
ÖS je k Wh
Einsparungen
8000
2.5
1.5
4000
1
2000
0.5
0
0
0
5000
10000
15000
k Wh /a
0
5000
10000
15000
20000
kWh/a
Abb. 14.1: Preise beim Wiener Haushaltstarif und Einsparungen an jährlichen Ausgaben durch eine fiktive Aufteilung eines Haushalts und damit Unterlaufung des „progressiven“ Tarifs (ohne Berücksichtigung der Investitions - und der laufenden Messkosten).
14.2.2.2 Benachteiligung des Gewerbes
Die Tarife für Leistung (kW) führten im Gewerbe oft zu absurden impliziten Durchschnittspreisen für eine kWh. Einige Branchen, wie zum Beispiel Tischler, waren mit Preisen bis über
73 Cent/kWh konfrontiert, da das Leistungsentgelt durch Addition der Leistung aller vorhandenen Geräte, die aber nie parallel laufen, berechnet wurde. Diese Preise sind natürlich nicht
durch Kosten zu erklären, sondern bestätigen die Public Choice These (vgl. Mueller (1989)),
dass nur politisch gut vertretene Gruppen von einer politischen Gestaltung der Tarife profitieren.
Öffentliche Unternehmen
280
14.2.2.3 Mangelnde überregionale Koordination
Die Struktur der Landesgesellschaften verbunden mit dem Mangel an institutionalisierten
Handelsregeln – kein Stromhandel, nur gelegentliches informelles Abtauschen von Überschüssen – führte in der Praxis zu einem sub - optimalen Kraftwerkseinsatz, d.h. die Grenzkosten der Produktion in den unterschiedlichen Landesgesellschaften wurden nicht ausgeglichen. Im Detail ersichtlich wird dies beispielsweise an der Bewirtschaftung der Speicherkraftwerke (Wirl, 1988).
Kalorische Kraftwerke
Leistung
E - On Bayern*
615,63 MW
Dürnrohr (Verbund/EVN)
405 MW
Voitsberg (KELAG**)
330 MW
Neudorf (STEWEAG**)
285 MW
Mellach (STEWEAG**)
246 MW
Riedersbach (EnergieAG)
231 MW
Timelbach (EnergieAG)
178 MW
Zeltweg (KELAG**)
137 MW
St.Andrä (KELAG**)
124 MW
Pernegg (STEWEAG**)
100 MW
* Durchschnittswert der 8 E - On Bayern Kraftwerke
** Kraftwerke wurden an den Verbund übertragen
Tab.1: Kalorische Kraftwerke in Bayern und Österreich
Die regionale Ausrichtung findet sich nicht nur im Kraftwerkseinsatz, sondern bereits in deren
Dimensionierung, wo auf potentielle Skalenerträge wegen der kleinen Märkte verzichtet wurde. Tab.1 zeigt die Leistung österreichischer kalorischer Kraftwerke, die im Vergleich zu denen der E - On Bayern gering ausfallen (selbst Dürnrohr!). Die Vermutung der Ineffizienz
dieser Größenwahl in Österreich wird einerseits durch die Tatsache bestätigt, dass die gewählte Größe nicht den bei Baubeginn geltenden technischen Vorstellungen über die optimale
Kraftwerksgröße entsprochen haben – im Zeitraum der Errichtung von Riedersbach in den
70ern und 80ern lag die optimale Größe von kalorischen Kraftwerken bei ungefähr 600 - 800
MW (Künneke, 1999) – und andererseits E - On Bayern zwei kalorische Kraftwerke mit einer
Nettoleistung von ungefähr je 400 MW aus Gründen der Unwirtschaftlichkeit stilllegt.
In der Tat ist es eine Ironie, dass das ökonomische Hauptargument für eine vergesellschaftete
Elektrizitätswirtschaft, nämlich technisch bedingte Skalenerträge und daher ein natürliches
Monopol, von der existierenden verstaatlichten Industrie nicht ausgenützt wurde. In anderen
Worten, die Österreicher akzeptierten die Nachteile einer solchen Ordnung, ohne dass die
eigentlichen Vorteile einer solchen Organisationsform – wie etwa in Frankreich – genützt
wurden.
Öffentliche Unternehmen
281
14.2.2.4 Durchschnittserlöse, Kosten und Vergleiche
Ein Rätsel von Unternehmen im öffentlichen Besitz stellt an sich die Ignoranz von Information dar. Das heißt nicht nur, dass eine solche Organisationsform nie die Information von
Märkten bereitstellen kann, da Grenzkosten im Markt auszufechten und nicht das Ergebnis
eines LP - Programmes oder eines Planers sind, sondern dass auch vorhandene Information
häufig gar nicht verwendet wird.
Im Falle der Elektrizitätswirtschaft war aus der regionalen Struktur der Versorgungsunternehmen ein Vergleich der Effizienz auf der Basis der unterschiedlichen Stromkosten immer
möglich. Diese Kosten ergeben sich zwangsläufig aus dem Erlös, da die Unternehmen keinen
Gewinn abwerfen durften. Diese Durchschnittserlöse der Landesgesellschaften weisen starke
Unterschiede – die Streuung beträgt 1,31 Cent – auf, die jedoch durch Kosten verursachende
Faktoren schwer erklärbar sind. Berücksichtigt man nämlich die bekannte Tatsache großer
Kostendegression über die Netzdichte116, ist es unerklärlich, wenn nicht sogar ungeheuerlich,
welche Strompreise den Bewohnern in den Städten verrechnet wurde. So verlangte entsprechend der Abb. 14. 2 die TIWAG, die mit Tirol ein denkbar kostenungünstig zu versorgendes
Land sowohl wegen der mangelnden Abnahmedichte als auch der alpinen Topographie hat,
um etwa 50% weniger als die Stadtwerke von Wien, Salzburg und Graz. Diese Kostendifferenz wurde gänzlich ignoriert. Diese Ignoranz im öffentlichen Sektor ist leider nicht auf die
Elektrizitätsversorgung beschränkt. Selbst wenn man die wohlwollende These vertritt, dass in
manchen öffentlichen Bereichen direkte Konkurrenz nicht zuzulassen sei, ist es unzulässig
(für Spitalspatienten sogar lebensbedrohend) wie an sich vergleichbare Daten bewusst ignoriert werden.
116
Eine in diesem Zusammenhang interessante Untersuchung ist Kumbhakar – Hjalmarsson (1998). Diese Studie vergleicht die Effizienz schwedischer Elektrizitätsvertriebsunternehmen (retail electricity distribution), wobei
Netzeigenschaften berücksichtigt werden. Dabei werden zwei unterschiedliche Verfahren - statistischökonometrisch und die Data Envelopment Analyse (oft kurz DEA genannt), ein Verfahren, das es ermöglicht
parameterfrei die unterschiedliche, relative Effizienz von Unternehmen aus gegebenen Input- und Outputdaten
zu vergleichen - eingesetzt. Die empirischen Ergebnisse kurz zusammengefasst sind: wachsende Skalenerträge,
insbesondere bei den Stadtwerken, relativ homogener aber sich verlangsamender technischer Fortschritt (oder
Effizienzsteigerungen) von vormals 2-3% per annum auf 1-2%, wobei die Stadtwerke eher unten rangieren. In
allen Modellen, die die Autoren getestet haben, sind im Durchschnitt die privaten Unternehmen die effizientesten und die Stadtwerke am ineffizientesten. Diese Unterschiede könnten dazu verwendet werden, um mittels
Regulierung auf der Basis vergleichender Konkurrenz, der sogenannten yardstick competition (Shleifer, 1985),
die Effizienz zu steigern. Allerdings führt dieser Ansatz zu geringen Anreizen der Kostenminimierung, weil
insbesondere die großen Stadtwerke die Skalenerträge verbunden mit der sehr hohen Abnahmedichte haben.
Öffentliche Unternehmen
282
1,600
Bewag
Kelag L.A. Verk.
SAFE
EVN
Brixen
OKA
OBAG Bruneck
Etschw.
STEWEAGVKW
1,400
Erlös je kWh
Salzburg
1,200
Wienstrom
ENEL
TIWAG
1,000
0,800
0,600
200
1200
2200
3200
4200
Energieabgabe (MWh) je km2
Outlier, Grazer Stw. (22600 MWh, ÖS 1.50) ekludiert
Abb. 14.2: Kosten je gelieferte kWh approximiert durch den Durchschnittserlös versus Abgabedichte basierend
auf Dorfmann (1995).
14.3 Der liberalisierte österreichische Elektrizitätsmarkt
14.3.1 Der Weg zur Liberalisierung
Der durch die ElRL vorgeschriebenen Verpflichtung zur Liberalisierung des Elektrizitätsmarktes kam Österreich durch die Erlassung des Elektrizitätswirtschafts - und organisationsgesetzes (ELWOG1) im Juli 1998 nach. Dieses sah eine stufenweise Marktöffnung vor. Weiters wurde das VerstG durch das „BVG mit dem die Eigentumsverhältnisse an den Unternehmen der österreichischen Elektrizitätswirtschaft geregelt werden“ (BGEigentumsverhältnisse) ersetzt. Wesentliche Änderungen ergaben sich dadurch nicht, da dieses weiterhin den
51%igen Aktienanteil öffentlicher Gebietskörperschaften an den Elektrizitätsunternehmen
vorschreibt. Das „Antiprivatisierungsgesetz“ stellt den zukünftigen Einfluss der öffentlichen
Hand und somit der Politik auf die Elektrizitätsunternehmen sicher und erschwert gleichzeitig
die Neuorganisation der Elektrizitätswirtschaft nach unternehmenspolitischen Gesichtspunkten.
Das ELWOG1 wurde Anfang 2000 durch das Energieliberalisierungsgesetz (EnlibG) novelliert und ergänzt117. Dieses hat folgende wesentlichen Inhalte: (a) 100% Liberalisierung
des Elektrizitätsmarktes in Österreich zum 1.10.2001; (b) Verschärfungen der Bestimmungen
über die Entflechtung von Erzeugung und Übertragung/Verteilung; und (c) Neuordnung der
Energieaufsicht durch die Schaffung unabhängiger Regulierungsbehörden (Elektrizitäts Control GmbH, Elektrizitäts - Control Kommission).
117 Das novellierte ELWOG2 bildet den Artikel 7 des EnlibG, das „Bundesgesetz über die Aufgaben der Regulierungsbehörden im Elektrizitätsbereich und die Errichtung der Elektrizitäts-Control GmbH und der Elektrizitäts-Control Kommission“ (ElControlG) den Artikel 8.
Öffentliche Unternehmen
283
Der österreichische Gesetzgeber ist von den Mindestanforderungen der ElRL hinsichtlich der
Marktöffnung bei weitem abgewichen. Auch die Einrichtung einer Regulierungsbehörde kann
als Verbesserung gegenüber dem ELWOG1 bezeichnet werden. Schade ist nur, dass man das
EnlibG nicht zu einer Bereinigung der bestehenden Kompetenzverteilung in der Elektrizitätswirtschaft zwischen Bund und Ländern genutzt hat, weshalb jedes Bundesland eigene Ausführungsgesetze zum ELWOG2 erlassen muss. Erneut findet sich das österreichische Phänomen, dass eine Liberalisierung ein Konvolut an Gesetzen – mit der Gefahr von Unklarheiten –
nach sich zieht.
Für die zukünftige Entwicklung der Rechtslage in der EU und Österreich ist ein Vorschlag der
EU - Kommission vom März 2001 über eine Änderung der ElRL (EU - Kom, 2001b) interessant, der unter anderem vorsieht: (a) die Ausdehnung des Grundsatzes der freien Wahl des
Versorgungsunternehmers auf alle Elektrizitätskunden ab dem 1.1.2005 (100% Marktöffnung); (b) die rechtliche und nicht nur buchhaltere Entflechtung von Erzeugung, Übertragung
und Verteilung, wobei hierbei von den Mitgliedstaaten eine Untergrenze eingezogen werden
darf, um kleine lokale Verteilerunternehmen nicht zu überfordern; und (c) die Verpflichtung
der Mitgliedstaaten unabhängige nationale Regulierungsbehörden einzusetzen, deren Aufgabe
die Festlegung bzw. Genehmigung von Tarifen und Bedingungen für die Netzbenutzung ist.
Der erste und der letzte Punkt ist mit dem EnlibG schon abgehackt. Die rechtliche Entflechtung könnte noch bevor stehen.
14.3.2 Der Schiedsrichter
Die wirtschaftsrechtliche Aufsicht über die Elektrizitätswirtschaft wird mit dem EnlibG mit
der Einrichtung einer Elektrizitäts - Regulierungsbehörde, bestehend aus der Elektrizitäts Control GmbH und der Elektrizitäts - Control Kommission völlig neu gestaltet. Oberste Aufsichtsbehörde bleibt weiterhin der BMfWA, dem auch die Aufsicht über die Regulierungsbehörde zukommt.
Mit der Errichtung einer sektorspezifischen Regulierungsbehörde für die Elektrizitätswirtschaft liegt Österreich ganz im internationalen Trend. In der EU haben alle Länder bis auf
Deutschland eine solche Behörde eingerichtet118. Die Notwendigkeit einer Regulierungsbehörde dürfte in Anbetracht der janusköpfigen Struktur der vertikal integrierten Elektrizitätsunternehmen – einerseits natürlicher Monopolist im Netzbereich und andererseits Teilnehmer
am Wettbewerb bei der Erzeugung/Vertrieb – und 1,7 Mill. zugelassener Kunden unbestritten
sein. Sie hat Aufgaben wahrzunehmen, die für das Gelingen der Liberalisierung von entscheidender Bedeutung sein werden. Exemplarisch seien die Festlegung der Netznutzungstarife,
die Genehmigung der allgemeinen Geschäftsbedingungen der Netzbetreiber, die Überwachung der Entflechtung, die Entscheidung im Verfahren über Netzzugangsverweigerung und
118
In Deutschland erfolgt die Liberalisierung des Strommarktes – aufgrund des verhandelten und nicht regulierten Netzzugangs – unter der allgemeinen wettbewerbsrechtlichen Aufsicht durch das Bundeskartellamt. Eine
Alternative, die jedoch in Ermangelung einer allgemeinen Wettbewerbsbehörde und einer entsprechenden Tradition in Österreich undenkbar erscheint. Aber auch in Deutschland mehren sich die Stimmen nach einer sektorspezifischen Behörde (Piltz, 2001; Keller-Brunekreeft, 2001). Einstweilen hat man auf diese aber nur mit der
Einrichtung einer eigen Beschlussabteilung über die E-Wirtschaft im Bundeskartellamt reagiert.
Öffentliche Unternehmen
284
die Erstellung und Veröffentlichung von Strompreisvergleichen für Endverbraucher genannt.
Auch die Ausgliederung der Regulierungsbehörde, speziell der wichtigen E - Control GmbH,
aus der Verwaltungsorganisation des Bundes ist im Hinblick auf die dadurch gewonnen erhöhte Flexibilität zu begrüßen (Wieser, 2000).
Aufgabe der Behörde ist auch die Bestimmung des Regulierungsmechanismus für die weiterhin als natürliches Monopol geltende Netzinfrastruktur. Hierbei ist eine Abwägung der beiden
entgegenstehenden Ziele der Kosteneffizienz und der Versorgungssicherheit vorzunehmen.
Bei der Wahl des Mechanismus hat der Gesetzgeber im §25 Abs. 2 ELWOG2 der Regulierungsbehörde einen weiten Spielraum gelassen. Die Tarife sind nämlich „kostenorientiert“,
wobei aber eine „Zugrundelegung einer Durchschnittsbetrachtung, die von den Kosten eines
rational geführten, vergleichbaren Unternehmens ausgeht“ zulässig ist, zu bestimmen. Weiters
können der „Preisbestimmung Zielvorgaben zugrundegelegt werden, die sich am Einsparungspotential der Unternehmen orientieren (Produktivitätsabschläge)“. In die ökonomische
Regulierungstheorie übersetzt heißt dies, dass sowohl eine Cost - plus - , eine Price - cap - ,
eine Yardstick - competition - Regulierung und natürlich auch eine Mischform zulässig ist.
Auf eine genauen Regulierungsmechanismus hat sich die Regulierungsbehörde noch nicht
festgelegt und verweist auf ein diesbezügliches Projekt, das Ende 2002 abgeschlossen sein
soll (E - Control, 2001: 25). Wahrscheinlich ist eine Price - Cap - Regulierung mit einem
Benchmarking119 der einzelnen Netzbetreiber ähnlich dem niederländischen Model (DtE,
2000)120. Die Tatsache, dass mit Beginn der Liberalisierung am 1.10.2001 noch kein Regulierungsmechanismus etabliert wurde, erscheint ein wenig problematisch, da sich die vormaligen
Monopolisten durch noch vom Wirtschaftsminister festgelegte sehr hohe Netzgebühren vor
Konkurrenten, deren Auftreten speziell am Anfang der Liberalisierung massiv erwartet werden sollte, schützen konnten. Es sei jedoch bemerkt, dass die Entwicklung eines Regulierungsmechanismus keine triviale Angelegenheit darstellt und von der Regulierungsbehörde in
der kurzen Zeit ihres Bestehens vielleicht nicht adäquat gelöst werden hätte können.
Der Gesetzgeber hat nicht Synergieeffekte im Auge gehabt, als er der Regulierungsbehörde
nicht die Kompetenz zur Bestimmung aller im ELWOG2 vorkommenden behördlich festzulegenden Tarifen zuwies. Warum eine Behörde, die die Netzsystemnutzungstarife festlegt und
zu diesem Zwecke entsprechendes Fachwissen und Informationen sammeln muss, nicht auch
den Zuschlag für Ökostrom121 bzw. für Kraft - Wärme - Kopplung - Energie (KWK) zum
Systemnutzungstarif gem. §34 ELWOG2 bestimmt, sondern dies den Landeshauptleuten zukommt, erscheint doch sonderbar. Der Umstand, dass der Landeshauptmann gleichzeitig auch
119
vgl. hiezu Filippini/Wild, 2002; Burns/ Davies/Riechmann, 1999
Es ist wohl zu empfehlen im Sinne eines Commitment der Regulierungsbehörde, dass der genaue Regulierungsmechanismus in das ELWOG2 aufgenommen wird. Ähnliches ist in den Niederlanden geschehen.
121 In Zusammenhang mit dem Ökostrom sei auf ein strukturelles Problem innerhalb des ELWOG2 verwiesen.
Zur Steigerung des Anteils von Ökostrom sind die Betreiber von Verteilernetzen verpflichtet, Strom aus den an
ihr Netz angeschlossenen Ökostromanlagen abzunehmen. Ein Netzbetreiber sollte aber in einem System eines
konsequenten Unbundling nur mehr eine reine Dienstleistungsfunktion, nämlich die Durchleitung von Strom,
ausüben, womit eine Abnahmeverpflichtung die einen Wiederverkauf impliziert nicht vereinbar ist. Konsequenterweise sollte deshalb solch eine Verpflichtung den Endverbrauchern bzw. den Stromlieferanten auferlegt werden (Pauger, 2001).
120
Öffentliche Unternehmen
285
als Eigentümervertreter der Landesversorger fungiert und durch die Bestimmung hoher Zuschläge zum Netznutzungstarif unliebsame Wettbewerber für „sein“ Unternehmen aussperren
kann, macht dies noch unverständlicher.
Dass dies kein akademisches Problem darstellt, beweist die Diskussion über den KWK - Zuschlag auf die Netzgebühren für das Versorgungsnetz der WienStrom von 0,74 Cent/kWh,
welcher per Verordnung des Bürgermeisters der Stadt Wien – gleichzeitig Eigentümervertreter – festgelegt wurde (Die Presse, 2001). Der Vorwurf von Wettbewerbern, dass dieser Aufschlag wegen seiner Höhe als Markteintrittsbarriere und gleichzeitig als Quersubventionierung verwendet wird, erscheint, wenn man die Aussagen der WienStrom ernst nimmt, dass
ein Teil der Preiserhöhungen für die Nutzung des Netzes durch Reduktionen der Energiepreise abgefangen werden, nicht unbegründet. Unabhängig davon sollten vom technischen Standpunkt aus die Kosten für die KWK eigentlich eher der Erzeugung als dem Stromnetz zugerechnet werden.
14.3.3 Die Spieler
Im Vorfeld der Liberalisierung gab es heftige Diskussionen über eine Österreich - Lösung in
der Stromwirtschaft. Ein Scheitern solch eines Vorhabens war jedoch schon frühzeitig absehbar, da Tirol und Vorarlberg von Anfang an klarstellten, an solch einer Lösung nicht interessiert zu sein. Anfang 2002 wurden die Verhandlungen über eine österreichische Lösung wieder aufgenommen, wobei die TIWAG und die VKW erneut ihr Desinteresse bekundeten. Tab.
2 gibt in der Folge einen Überblick der österreichischen Elektrizitätsunternehmen, der im wesentlichen der sich aus dem VerstG ergebenden Struktur mit einem Verbundunternehmen,
neun Landesgesellschaften und fünf Stadtwerke entspricht122. Die Anzahl der Stadtwerke hat
sich aber durch die Fusion der SAFE mit den Salzburger Stadtwerken zur Salzburg AG um
eine verringert.
Die Unternehmen sind durchwegs sowohl in der Erzeugung als auch in der Verteilung zum
Endverbraucher tätig, wobei die Bedeutung im Bereich der Verteilung durch die Anzahl der
Kundenanlagen geschätzt wird. Ausnahmen bilden die BEWAG und die Steweag - STEG
GmbH, die über keine eigene Erzeugung verfügen und nur als Vertriebs - und Verteilungsunternehmen agieren, und der Verbund, welcher wegen seiner bisherigen Aufgaben im Endkundenmarkt, mit Ausnahme von großen Abnehmern, nicht vorhanden war, andererseits aber als
der mit Abstand größte Erzeuger (2000: 27.650 GWh) in Erscheinung tritt. Die Beteiligungen123 sollen einen Einblick in die wechselseitigen Verflechtungen der einzelnen Unternehmen geben, ein Erbe des VerstG.
In der Eigentümerstruktur hat sich im Vorfeld der Vollliberalisierung einiges verändert, wobei
besonders der Einstieg ausländischer Unternehmen hervorzustreichen ist. Wirl (1999) ver-
122 Nicht in der Tabelle enthalten sind kleine städtische Versorger. Einen Überblick über deren Anzahl bietet die
E-Control (www.e-control.at) mit einer „Liste der Verteilnetzbetreiber (Stand: Juli 2001)“.
123 Die wechselseitigen Beteiligungen stellen aber kein österreichisches Unikum dar, sondern bestanden auch in
der deutschen Elektrizitätswirtschaft, jedoch wurden diese im Rahmen des Fusionsverfahrens (RWE/VEW bzw.
VEBA/VIAG) durch Auflagen des Bundeskartellamtes (BKA, 2000) bzw. der EU-Kommission (Eu-Kom.,
2000) bereinigt.
Öffentliche Unternehmen
286
suchte die Veränderungen der Eigentümer nach der Teilprivatisierung ökonomisch einzuordnen und kam zum Ergebnis, dass die gegenseitigen Beteiligungen nur der Verringerung der
Konkurrenz durch Nachbarunternehmen dienen und gleichzeitig die Teilprivatisierung ohne
verbundene Strukturänderungen jede Neuordnung der österreichischen Elektrizitätswirtschaft
erschwert. Die französische EdF hat sich mit 25% + 1 Aktie an der Energie Steiermark Holding AG beteiligt (eine weitere Ironie der Privatisierung à l’Autriche), die deutsche RWE mit
49% an der Kärntner Energieholding GmbH – und dabei den Verbund ausgestochen – und die
EnBW hat ihren Aktieanteil am Verbund auf 6,3% erhöht. Der Verbund hat sich mit der deutschen E - On im Juli 2001 auf eine Bündelung der Wasserkraftwerke in eine eigene Gesellschaft die European Hydro Power GmbH verständigt, an der der Verbund 60% und E - On
40% halten soll. Das endgültige Zustandekommen dieser Kooperation ist aber noch äußerst
fraglich. Im Falle eines Erfolges der wiederaufgenommen Verhandlungen über eine österreichische Lösung in der Elektrizitätswirtschaft – Verhandlungspartner sind der Verbund und die
Unternehmen der EAA – dürfte die European Hydro Power GmbH noch vor ihrer eigentlichen Gründung der Vergangenheit angehören. Schon vor der Liberalisierung bestand eine
enge vertragliche Bindung zwischen der deutschen EnBW und der VKW sowie der E - On
und der TIWAG.
Im August 2001 beschlossen und per 1.April vollzogen wurde die Fusion der STEWEAG mit
der STEG zur STEWEAG - STEG GmbH zwischen der Energie Steiermark Holding AG und
dem Verbund. Im Rahmen der Fusion der beiden Unternehmen wurden deren Wasserkraftwerke und Wärmekraftwerke an die verbundeigene Austrian Hydro Power AG bzw. Austrian
Thermal Power AG übertragen, sodass die STEWEAG - STEG GmbH nur mehr eine reine
Vertriebs - und Verteilungsgesellschaft darstellt, welche ihren Strom vom Verbund über Bezugsrechte und Dritte bezieht. Es handelt sich hier um einen Schritt des Verbund im Massenkundengeschäft Fuß zu fassen. Schon vorher ging die STEWEAG mit den Grazer Stadtwerken und weitere regionalen Versorger eine Vertriebspartnerschaft ein. Die ESTAG hat sich
mit einem Kaufangebot in den laufenden Verkaufsprozess der Grazer Stadtwerke beteiligt.
Der Verbund stieg weiters durch die Beteiligung an bzw. Gründung von zwei neuen Vertriebsgesellschaften in das Endkundengeschäft ein. MyElectric wurde von der SalzburgAG
(50%) und der EnergieAG (50%) gegründet. Nach dem Ausstieg der EnergieAG beteiligte
sich der Verbund mit 50%. Inwieweit der Einstieg des Verbund bei MyElectric auf eine zukünftige engere Zusammenarbeit mit der SalzburgAG schließen lässt, bleibt abzuwarten. Zur
Bearbeitung des ländlichen Bereiches hat der Verbund gemeinsam mit der Raiffeisen Ware
Austria (RWA) die Raiffeisen Ware Wasserkraft (RWW) gegründet. Sowohl MyElectric als
auch RWW sind Bestandteil der Strategie des Verbunds den Kundenkreis über die Landesgesellschaften und Großkunden auf Haushalte und Gewerbekunden auszuweiten und positionieren diesen somit als neuen Spieler im Endkundenmarkt.
WienEnergie, EVN, BEWAG/Begas, EnergieAG und LinzAG gründeten mit der EnergieAllianzAustria (EAA) eine strategische Allianz zwischen den Unternehmen, wobei der Verkauf
von 25% + 1Aktie der EnergieAG an die EAA im März 2002 beschlossen wurde. Die EAA,
genauer die Allianzpartner, verfügen in Österreich über einen Marktanteil bei Strom bezogen
auf die Stromzähler von 72%. Auf Basis der direkten Stromendkunden ist die EAA mit 2,8
Öffentliche Unternehmen
287
Mio. – E - On (12 Mio.), RWE (10 Mio) – die Nummer 10 in Europa. Zur optimalen Nutzung
von Synergien wurden zwei Leitgesellschaften eingerichtet: die EAA Vertrieb GmbH124, zuständig für die Steuerung des Energievertriebs der Partnerunternehmen und die e&t, zuständig
für die Energieeinsatzoptimierung, den –einkauf, den –handel und das Risikomanagement.
Die EAA verfolgt im Massenkundengeschäft eine Zwei - Marken - Strategie. Die Marke „Optima“125, welche von den Allianzpartnern angeboten wird, und die EAA eigene Diskontmarke
„Switch“, mit der wechselbereite und preissensible Kunden in ganz Österreich gezielt angesprochen werden sollen126.
Eine Änderungen der wechselseitigen Beziehungen kann auch in Tirol beobachtet werden, wo
die TIWAG einerseits durch den Erwerb von kleineren Elektrizitätsunternehmen eine Arrondierung des Versorgungsgebietes vornimmt und andererseits eine verstärkte Zusammenarbeit
zwischen der TIWAG, der Innsbrucker KB AG und mehreren kleinen Stadt - und Gemeindewerke stattfindet. Anfang 2002 wurde der Verkauf von 25% + 1Aktie der InnsbruckerKB
AG an die TIWAG ausverhandelt.
124
Die Anteile an der EnergieAllianz verteilen sich wie folgt: BEWAG/Begas (10%), LinzAG (10%), EnergieAG (17%), EVN (31,5%), WienEnergie (31,%).
125 Wien Strom, die EVN und die Linz AG bietet „Optima“ schon an. Die EnergieAG gedenkt aber ihr eigenes
Tarifmodel beizubehalten.
126 De facto ist mit der EAA auf dem österreichischen Markt ein Spieler mit 72% Marktanteil entstanden, da
zwischen den Allianzpartnern kein Wettbewerb mehr stattfinden wird. Es erscheint deshalb schade, dass keine
Prüfung des Zusammenschlusses durch das Kartellgericht stattgefunden hat, da in solch einem Verfahren nämlich die Möglichkeit bestanden hätte, ähnlich wie bei der Fusion RWE/VEW (BKA, 2000) bzw. VEBA/VIAG
(EU-Kom., 2000) wettbewerbsfördernde Maßnahmen durchzusetzen, z.B. eine rechtliche Entflechtung von Erzeugung/Vertrieb und Netzinfrastruktur, um so Wettbewerbern den Zugang zum Markt der EAA zu erleichtern.
Öffentliche Unternehmen
288
Tab. 2: Elektrizitätsunternehmen (Stand: März 2002)
Unternehmen
Eigentümer
Beteiligungen
Erzeugung* Verteilung**
Wien Strom GmbH
100% Stadt Wien
31,5% EnergieAllianzAustria GmbH
3810,3
2.260.000
2489,07
904.000
2.234,56
415.000
keine
172.000
665,68
337.000
50% MyElectric Stromvertrieb GmbH
1.443,32
260.000
63,85% Kärtner Energieholding
10% Austrian Hydropower AG
1.019,18
240.000
Beteiligungs GmbH (Land
10% Austrian Thermal Power AG
112,14
60.881
3.314,70
170.000
373,28
124.387
keine
334.000
2,71
112.120
31,5% e&t, 50% e&i
EVN AG
51% Land Niederösterreich
31,5% EnergieAllianzAustria GmbH
49% Börse
31,5% e&t, 50% e&i, 10% Verbund
66,83% Burgenland Holding AG
Energie AG
BEWAG
Linz AG
75% - 1 Aktie Land Oberösterreich
17% e&t
25% + 1 Aktie EnergieAllianz1
17% EnergieAllianzAustria GmbH
51% Land Burgenland
10% EnergieAllianzAustria GmbH
49% Burgenland Holding AG
10% e&t
100% Stadtgemeinde Linz
10% EnergieAllianzAustria GmbH
10% e&t
Salzburg AG
42,56% Land Salzburg
31,31% Stadt Salzburg
26,13% Energie AG
KELAG
Kärnten, 51%/ RWE 49%)
35,12% Verbund
Stadtwerke Klagenfurt AG
100% Stadt Klagenfurt
TIWAG
100% Land Tirol
Innsbrucker KB AG
75% - 1 Aktie Stadt Innsbruck
7% Verbund, 0,32% VKW AG
25% + 1 Aktie TIWAG2
STEWEAG - Steg GmbH3
65% Estag
(75% - 1 Aktie Land Steiermark,
25% + 1 Aktie EDF)
35% Verbund
Grazer Stadtwerke AG
99,46% Stadt Graz
VKW AG
95,75% Illweke
Verbund
51% Bund
75% Verbund StromvertriebsgmbH
10% EVN
(25% Estag)
7% TIWAG
60% Austrian Thermal Power AG
10% Wiener Stadtwerke
(30% Estag, 10% KELAG)
6,3% EnBW,
80,3% Austrian Hydro Power AG
15,7% Streubesitz
(5,3% Estag, 10% KELAG,
10% WienStrom, EVN, EnergieAG,
Land Tirol und Burgenland)
100% Austrian Power Grid GmbH
14,4% EVN, 35,1% KELAG
10% Burgenland Holding AG
35% Steweag - STEG GmbH
50% RWW GmbH
50% MyElectric Stromvertrieb GmbH
661,50
146.000
31.735,534
keine***
Öffentliche Unternehmen
289
14.3.4 Öffentliche Hand
Im Kontext der Energiewirtschaft darf selbst bei vollständiger Privatisierung und Liberalisierung die öffentliche Hand und die Politik nicht übersehen werden. Prima facie stellt der Rückzug der Politik aus diesem Bereich eine substantielle Einschränkung des Wirkungsbereichs
der Politik dar. De facto ist dieser Rückzug kleiner, weil auch eine privatisierte und deregulierte Elektrizitätswirtschaft politischem Druck ausgesetzt sein wird: Daher kann kein privates
Unternehmen hier Monopolpreise verrechnen ohne zu riskieren, wieder vergesellschaftet oder
zumindest bestraft – beispielsweise die nachträgliche windfall profit tax in Großbritannien auf
die Gewinne der Elektrizitätsversorgungsunternehmen – zu werden. Anders sieht die Situation
für die Landesgesellschaften aus, denen durchaus von den öffentlichen Eigentümern direkt
oder indirekt Renten verschafft werden können, z.B. der WienStrom über spezielle Abgaben
und Zuschläge. Ein weiteres Manko des Einflusses der öffentlichen Hand ist im Einfluss auf
die Eigentümerstrukturen zu sehen (vgl. obiges Unterkapitel) beginnend mit der halbherzigen
Privatisierung von 49%, die in ihrer Auswirkung, bedingt durch die zahlreichen Querverschränkungen, diese Bezeichnung nicht verdient, sondern eine sinnvolle Neuorganisation –
auch in Form einer rechtlichen Separation von Erzeugung/Vertrieb und Netzinfrastruktur –
(bewusst?) erschwert. Zuletzt kommt noch, dass sich die öffentliche Hand den Weg in die
Liberalisierung durch Einführung und Erhöhung von Abgaben teuer bezahlen ließ. So ist im
Raum Wien die Abgabenbelastung auf Strom – Energieabgabe, Beitrag für Stranded Costs,
Gebrauchsabgabe für die Stadt Wien, Zuschlag für KWK und Ökostrom – mit 25,58 % auf
dem besten Weg mit der Mineralölsteuerbelastung auf Diesel von 34,94 % gleichzuziehen127.
14.4 Wirtschaftliche Auswirkungen der Liberalisierung
14.4.1 Verhalten der EVUs
14.4.1.1 Preiswettbewerb
Die E - Control weist für den Zeitraum vor der Liberalisierung (1999) und ab 1.10.2001 eine
durchschnittliche Preissenkung bei Haushalten bzw. Gewerbe von –20% bzw. –40% der Nettostromkosten (Energie - und Netzpreis, exkl. Abgaben und Steuern) aus, wodurch sich diese
Konsumentengruppe seit 1999 etwa 200 - 290 Mill.€ an Stromkosten erspart hat (Abb.14.3).
127
Bei Normalbenzin liegt diese bei 44,85%.
Öffentliche Unternehmen
Strompreisvergleich für Haushalte (3.500 KWh)
1999 und 2001
Strompreisvergleich für Gewerbe (10.000 KWh)
1999 und 2001
20
10
1999
ro
m
W
G
A
K
W
ie
nS
t
V
G
TI
W
ST
E
W
EA
G
G
EL
A
Sa
lz
bu
rg
A
K
EV
N
eA
G
ag
0
En
er
gi
Cent/KWh
ro
m
W
G
A
K
W
ie
nS
t
V
G
01.12.2001
TI
W
ST
E
G
1999
W
EA
G
EL
A
K
Sa
lz
bu
rg
A
EV
N
eA
G
Be
w
ag
0
30
Be
w
5
En
er
gi
Cent/KWh
15
10
290
01.12.2001
Abb. 14. 3: Strompreisvergleich für Haushalte und Gewerbe
Quelle: E - Control
Trotz dieser massiven Strompreissenkungen befinden sich die österreichischen Haushaltstarife noch immer im europäischen oberen Mittelfeld (E - Control, 2001: 67); dabei muss allerdings erwähnt werden, dass die Preise für primäre Energie im Jahr 2001 signifikant niedriger
als im Jahr 2000 waren ($28.44 versus $24.44 je Fass Brent im Jahresdurchschnitt, OPEC
(2002)). Ausschlaggebend hiefür sind größtenteils nicht die dem Wettbewerbsdruck ausgesetzten Energiepreise, sondern die noch auf sehr hohem Niveau regulierten Netznutzungstarife sowie Steuern, Abgaben und unterschiedliche Zuschläge der öffentlichen Hand. So wurde
die Energieabgabe, noch vor der Liberalisierung per 1. Juni 2000, von 0,73 Cent/KWh auf 1,5
Cent/KWh mehr als verdoppelt. Die Beiträge für Stranded Costs betragen 0 - 0,0922
Cent/KWh, der Zuschlag für Ökostrom 0 - 0,124 Cent/KWh und für KWK in Wien 0,7427
Cent/KWh, in der Steiermark 0,217 Cent/KWh und in Kärnten 0,042 Cent/KWh. Hinzu
kommen noch Gemeindeabgaben, die je Gemeinde variieren (E - Control, 2001).
Obwohl die Benachteiligung des Gewerbes reduziert wurde (siehe Abb.14.3), sind diese Tarife nach wie vor zu hoch und nicht frei von Ungereimtheiten: So zahlt im Bereich der Wienstrom ein Gewerbekunde mit 100.000 kWh und einem gleichmäßigen und großteils in der
Nacht anfallenden Nachfrageprofil (etwa Bäckerei) so viel wie Haushaltskunden, ja bei einigen Anbietern erhält man als Haushalt sogar den günstigeren Tarif verglichen mit dem Gewerbe (z.B. bei RWW €13.726,81 anstatt €14.089,09 und bei Wienstrom Optima für
€14.139,80 anstatt €14.279,06 für MEGA 2003, was zusätzliche eine Bindung bis 31.12.2003
bedingt).
Die Preissenkungen der Elektrizitätsunternehmen erfolgte größtenteils schon vor der gänzlichen Liberalisierung per 1. 10. 2001. So weist beispielsweise die Betriebsleistung der Unternehmen im Jahre 2000 gegenüber 1999 eine durchschnittliche Erhöhung von 3,7% auf, obwohl der Mengenzuwachs bei der Stromabgabe 19,7% betrug. Offensichtlich wurde die Erlösentwicklung durch Preisreduzierungen erheblich eingebremst (Hess, 2001, 22). Aufgrund
dessen konnte in den ersten Monaten des freien Marktes zwischen den vormaligen Monopolisten kein Preiskampf festgestellt werden. Die dem Wettbewerb ausgesetzten durchschnittlichen Energiepreise für Haushalte sanken in der Periode zwischen April und Dezember 2001
nur noch um bescheidene 0,41 Cent/KWh (siehe Abb. 14.4). Der Preiswettbewerb ab
1.10.2001 war anfangs noch dadurch abgeschwächt, dass einige Anbieter noch nicht über das
Versorgungsgebiet des integrierten Verteilerunternehmens liefern konnten und die Unterneh-
Öffentliche Unternehmen
291
men der EAA in das Versorgungsgebiet der Partnerunternehmen keine Stromlieferungen vornahmen und vornehmen werden.
Vergleich der Strompreiskomponenten TIWAG
und STEWEAG (3500 KWh)
Strompreisdifferenz Dezember/April 2001 für
Haushalte (3500 KWh)
12,00
1,00
10,00
0,00
8,00
Cent/KWh
2,00
-1,00
-2,00
6,00
4,00
Be
E n wa
er g
gi
eA
G
EV
K N
E
Sa L A
lz
bu G
ST rgA
EW G
EA
TI G
W
A
G
V
K
W
ie W
nS
tro
Li m
nz
A
G
G
ra
ze
rS
t
w
St Inns
w
.K
K
B
la
ge
D
ur nfur
ch
t
sc
hn
itt
2,00
Gesamtpreis (exkl. Steuern und Abgaben)
Energiepreis
0,00
Netzpreis 4/2001
Netzpreis 12/2001 Energiepreis 4/2001
Energiepreis
12/2001
STEWEAG
9,74
8,66
2,18
3,95
TIWAG
5,89
5,89
5,01
3,49
Abb. 14.5: Vergleich der Strompreiskomponenten
Abb. 14.4: Strompreisdifferenz Dezember/April 2001 Quelle: E - Control, Netzpreis (Netznutzungs - , Netzfür
Haushalte verlustentgelt und Entgelt für die Messleistungen)
Quelle: E - Control, eigene Berechnung
Der im Zuge der Liberalisierung mögliche Stromlieferantenwechsel erfordert von den vormals geschützten Unternehmen Strategien, um den Kundenstock zu behalten bzw. auszuweiten. Während des Prozesses der Netzkostenbestimmung durch die Behörde, die dabei auch auf
die Angaben der Unternehmen angewiesen ist, stehen dem vertikal integrierten Unternehmen
im Preiswettbewerb zwei Optionen offen. Es gibt angemessene Netzkosten an und konkurriert
tatsächlich über die Energiepreise, wobei hier jedoch die Gefahr besteht, durch einen billigeren Anbieter Kunden zu verlieren. Oder es sperrt durch einerseits hohe Netzgebühren und
andererseits niedrige – durch die Netzgebühren quersubventionierte – Energiepreise, vielleicht sogar unter den Grenzkosten liegende, andere Anbieter vom Markt aus. Für den Zeitraum zwischen April und Dezember 2001 können bei der Preissetzung der Elektrizitätsunternehmen beide Verhaltensweisen entdeckt werden.
Für den ersten Fall dient die TIWAG als Beispiel, welche den Energiepreis um 1,52
Cent/kWh bei gleichbleibenden Netzgebühren gesenkt hat. Für den zweiteren die STEWEAG,
deren Energiepreis von 2,18 Cent/kWh bei gleichzeitigen Netzgebühren von 9,74 Cent/kWh
im April 2001 auf einen Missbrauch der Durchleitungsgebühren zur Marktabschließung hindeuten. Die Erhöhung des Energiepreises um 1,77 Cent/kWh auf 3,95 Cent/kWh, nach der
hoheitlich verordneten Senkung der Netzpreise um 1,08 Cent/kWh dürfte diese Vermutung
noch verstärken (siehe Abb.14.5).
Am Preiswettbewerb beteiligen sich neben den etablierten Unternehmen seit der gänzlichen Marktöffnung ab 1.10.2001 bundesweit drei neue Mitspieler. Den Beginn machte der im
Eigentum der EAA stehende Anbieter Switch im April 2001 mit einem Preisangebot für die
gelieferte Energie von 3,12 Cent/kWh128. Es folgten MyElectric mit 3,42 Cent/kWh und
128
exkl. Netznutzungsgebühren, Steuern und Abgaben.
Öffentliche Unternehmen
292
RWW mit 3,12 Cent /kWh129. Abb. 14.6 zeigt, dass die Energiepreise speziell von Switch und
RWW sehr oft unter jenen der Landesgesellschaften und Stadtwerke liegen. Kunden der EVN
könnten sich mit einem Umstieg auf einen der beiden Anbieter 0,94 Cent/kWh oder 32,9€ bei
einem Jahresverbrauch von 3.500 KWh (Stand: Dezember 2001) sparen, ein Betrag der auch
das geringere Beratungsservice abgelten sollte. Die beobachtete Bereitschaft, den Versorger
zu wechseln, ist jedoch gering und lag im Dezember 2001 für Haushalte bei 0,6%. Zu dieser
Zeit hatte Switch 5.000, MyElectric 3.500 und RWW 6.000 Kunden.
4,50
4,00
3,50
3,00
2,50
2,00
1,50
1,00
0,50
0,00
En
er
gi
e
R W AG
AW
**
sw
itc
h
V
K
W
In
ns Bew
br
uc ag
k
Sa er K
lz
bu B
M rgA
yE
G
le
ctr
ic
TI *
W
A
K G
EL
A
W
G
i
St enS
w
t
K ro m
la
ge
G nfur
ra
ze t
rS
tw
Li
n
ST zA
EW G
EA
G
EV
N
Cent/KWh
Energiepreise für Haushalte (Stand: 1.12.2001)
Abb. 14.6: Energiepreisvergleich (Stichtag: 1.12.2001)
Quelle: E - Control
Diese geringe Anzahl mag auf den ersten Blick nicht verwundern. Die Wechselrate bei Privatkunden in Deutschland zwischen April 1998 und Herbst 2000 – ein längerer Zeitraum –
betrug beispielsweise 2,1%. Diese Zahlen werden häufig durch die geringen Einsparungsmöglichkeiten begründet, da die meisten Konsumenten angeblich erst ab einer jährlichen Ersparnis von 44€ zum Lieferantenwechsel bereit sind (Johannsen, 2001). Aber dieses Argument ist
doch einigermaßen verwunderlich, bückt sich doch ein jeder um einen auf dem (schmutzigen!) Gehsteig liegenden 10 € - Schein. Eine Erklärung für die niedrige Wechselrate liegt
vielleicht darin, dass die Kunden die Transaktionskosten eines Stromlieferantenwechsels als
signifikant ansehen und mit 44 € bewerten, was bei der vorhandenen Möglichkeit eines Anbieterwechsels per Internet doch überrascht. Betrachtet man den Lieferantenwechsel als Option so können die anscheinend doch signifikanten Transaktionskosten dazu führen, dass die
Konsumenten die Option erst dann ausüben wollen, wenn der Kapitalwert des Gewinns entweder hinreichend groß wird, oder sich die Unsicherheit über den günstigsten Anbieter legt.
Es besteht aber auch die Möglichkeit, dass Jahrzehnte des Stromsbezuges von einem de facto
öffentlichen Amt bzw. Behörde speziell in der Anfangsphase der Liberalisierung bei den potentiell wechselwilligen Konsumenten eine subjektive Furcht vor der Revanche dieser „Behörde“ bei Zusatzdienstleistungen (zB. Nachtstrom) auslöst, welche durch die erwarteten Einsparungen nicht kompensiert werden kann130.
129
MyElectric verlangt einen Grundpreis von 15,12 €/Jahr, welcher aber ab einem Verbrauch von 3500
kWh/Jahr entfällt. RWW verlangt einen Grundpreis von 12,60 €/Jahr.
130 Vgl. in diesem Zusammenhang die Kritik der RWW an der EVN, welche bei einem Kundenwechsel von der
EVN zur RWW der RWW die Benutzung der Nachtstromanlage untersagt (Standard, 2001 und Kurier).
Öffentliche Unternehmen
293
Die Vergleichbarkeit der einzelnen Preisangebote, welche Voraussetzung für einen Lieferantenwechsel und einen Preiswettbewerb ist, wird durch mehrere Faktoren erschwert: (a) die
Unternehmen nehmen eine Heterogenisierung des Produktes „Strom“ vor, indem sie beispielsweise Zusatzleistungen anbieten, (b) die Unternehmen setzen nichtlinerare Tarife, welche vom Stromverbrauch abhängen und (c) mangelnde Preistransparenz. Letzteres ergibt sich
daraus, dass die vertikal integrierten Unternehmen bei ihren (neuen) Angeboten einen Pauschalpreis, d.h. Energie - plus Netznutzungsgebühren (im Versorgungsgebiet des integrierten
Verteilers) angeben. Direkte Vergleiche mit bundesweiten Anbietern des Produktes „Strom“
werden dadurch erschwert. Ausnahmen bei der Preisauszeichnung und als solche vorbildlich
hinsichtlich der Preistransparenz sind beispielsweise die VKW und die InnsbruckerKB AG.
Die im §4 der Systemnutzungstarifverordnung vorgesehene Verpflichtung zur gesonderten
Ausweisung der Netznutzungsentgelte für den Endverbraucher stellt bloß eine ex post Verpflichtung auf der Rechnung für die Endverbraucher dar. Unter dem Gesichtspunkt der Entflechtung integrierter Unternehmen und der Markttransparenz wäre eine Ausweitung der Verpflichtung zur gesonderten Ausweisung auf die ex ante Angebote wünschenswert. Dies würde
nämlich die bloße Dienstleistungsfunktion des Netzinfrastrukturbetreibers für den Stromerzeuger bzw. - händler manifestieren, der bezüglich der Herkunft des durch seine Leitungen
transportierten Stroms indifferent ist. Die gesonderte Ausweisung dürfte auch deshalb kein
Problem sein, da die Netznutzungstarife behördlich festgelegt sind. Ein weiterer Vorteil bestünde auch darin, dass den Endkunden der Anteil der Netzgebühren, d.h. das Entgelt an den
Monopolisten, am gesamten Strompreis bewusst wird und somit der Druck auf den Monopolisten bzw. die Unterstützung der Regulierungsbehörde für eine Tarifsenkung erhöht wird131.
Ausländische Anbieter sind am österreichischen Markt für Haushalte und Gewerbe, außer
durch die Beteiligungen an Landesversorgern (RWE bei KELAG, EdF bei Steweag, E - On
bei Verbund), noch nicht in Erscheinung getreten. Die EnBW beispielsweise beschränkt ihre
Aktivitäten nur auf Belieferung von Großkunden, während E - On das Büro in Wien wieder
aufgelassen hat.
14.4.1.2 Produktdifferenzierung
Eine Möglichkeit Preiskonkurrenz zu reduzieren, stellt die Produktdifferenzierung dar, welche
die Preissensitivität der Konsumenten verringert. Dies ist im Falle eines homogenen Produktes wie Strom nicht ganz leicht. Erschwerend kommt noch hinzu, dass das hiefür notwendige
Wissen, im besonderen Marketing, aufgrund des geschützten Monopols der Unternehmen und
des daraus abgeleiteten Kaufzwangs der Konsumenten, nicht notwendig war. Die sich aus der
Liberalisierung ergebende Kundenorientierung erfordert eine grundlegende Neuausrichtung
des Unternehmens, welche durch einen Ausbau der Marketingaktivitäten charakterisiert ist.
Eine erste Möglichkeit zur Heterogenisierung des Gutes Strom stellt der Aufbau einer Marke
dar, welche das Gut für den Konsumenten subjektiv unterscheidbar macht. Die EnBW in
Deutschland ließ ihren Strom plötzlich „Yello“ werden. In Österreich führte die STEWEAG
mit „Select: die erste Wahl beim Strom“ die erste Strommarke ein. Andere Unternehmen sy131 Vgl. hiezu das Preissetzungsverhalten von US-Ölunternehmen während der Ölkrise 1979 unter dem Einfluss
der Medienberichterstattung (Erfle/McMillan, 1990).
Öffentliche Unternehmen
294
nonymisierten Strom mit der „umweltfreundlichen“ Erzeugungsart, z.B. „Raiffeisen Ware
Wasserkraft“, „Tiroler Wasserkraft“, „KELAG - Strom: Wasser ist unser Element“, um damit
dem Bedürfnis vieler österreichischen Konsumenten speziell nach atomfreiem Strom Rechnung zu tragen. Es sei noch einmal an die Zwei - Markenstrategie der EAA einerseits mit der
Qualitäts - „Optima“ und andererseits mit der Billigmarke „Switch“ erinnert.
Eine weitere Möglichkeit stellt die Spezialisierung auf spezifische Nischen dar. Ein Unternehmen, dass solch eine Strategie gewählt hat, ist die oekostromAG, die „grünen“ Strom
aus Sonne, Wind und Kleinkraftwerken vermarktet. Abb. 14.7 vergleicht den Preis der oekostromAG mit dem der RWW, welche Strom aus Wasserkraft – jedoch von Großkraftwerken – des Verbund verkauft132. Der saubere Strom von oekostromAG ist bundesweit um
durchschnittlich 3,2 Cent/kWh teurer als der saubere von der RWW. Besonders erheblich ist
der Unterschied in Vorarlberg mit 5,6 Cent/kWh. Die zukünftige Geschäftsentwicklung der
oekostromAG stellt ein begrüßenswertes Experiment zur Offenlegung dafür dar, welchen Betrag und vor allem wie viele Konsumenten bereit sind, für „ökologisch“ produzierten Strom
zu bezahlen (Stand März 2002: 2.000 Kunden). Erschwert wird die Positionierung des Produktes als „echten“ grünen Strom für das Unternehmen, da, wie oben schon erwähnt, auch
andere Anbieter mit Strom aus sauberer Wasserkraft werben.
ent/KWh
Nettopreisvergleich für Haushalte oekostrom und
RWW (Dezember 2001)
16
14
12
10
8
6
4
2
0
RWW
oekostrom
Wien
NÖ
B
OÖ
St
S
K
T
V
Abb. 14.7: Nettopreisvergleich (Netz - und Energiepreis) für Haushalte (3.500 KWh)
Quelle: E - Control, eigene Berechnungen
Zur Abgrenzung und auch zur Erschwerung der Vergleichbarkeit beinhalten die Angebote der
Unternehmen vermehrt Zusatzleistungen zur reinen Stromlieferung. Zu nennen wären: inkludierte Stromunfallversicherungen, Freitage, Beratungs - und Finanzierungsservice über Bauen und Energie, Förderungspakete für Wärmepumpen, Umzugsservice, Clubvorteile (Gutscheinhefte, verbilligte Elektrogeräte, 24 Stunden Reparaturservice, usw.). Aber auch Gesamtpakete über Energie (Strom, Gas, Wärme) und Infrastrukturdienst (Telekommunikation,
Internet und Kabel TV) findet man aufgrund der Ausrichtung der Unternehmen als Multi Service Utility immer häufiger.
132
Es handelt sich um den Gesamtpreis (Energie- und Netzkosten), jedoch exkl. Steuern und Abgaben.
Öffentliche Unternehmen
295
14.4.1.3 Nichtlineare Tarife
Im Zuge der Liberalisierung des Telekomsektors haben sich nichtlineare Tarife in der Form
von verschiedenen Menüs herausgebildet, um die den Telephonbetreibern an sich unbekannte
Zahlungsbereitschaft nach Telefondienstleistungen abzuschöpfen. Eine ähnliche Entwicklung
wird auch im Stromsektor sichtbar, im Vergleich zum Telekomsektor allerdings eher zaghafter.
Einen mehrgliedrigen Tarif bietet die BEWAG für Haushaltskunden an, bei dem mit jedem
Schritt in eine nächste Verbrauchsgruppe der Stromtarif pro zusätzlicher Einheit sinkt. Dies
steht – im Gegensatz zum alten Tarifmodell der WienStrom – im Einklang mit der ökonomischen Theorie (Wilson, 1993) und Effizienzkriterien, da mit steigendem Verbrauch die Preiselastizität der Konsumenten steigt und eine höhere Nachfrage nur mit niedrigeren Tarifen
abgeschöpft werden kann. Der mehrgliedrige Tarif ist in diesem Fall, da er nur vom Gesamtverbrauch und nicht vom Zeitpunkt des Verbrauches abhängt, leicht zu implementieren, weil
hiezu keine neuen Messgeräte notwendig sind.
Stufe ntarif BEWEAG Komfort
17,11
16
14,93
14,75
14,49
11
6
1
<2000
kWh
<4000
kWh
<10000
kWh
Abb.14.8: Nichtlinearer Tarif der Bewag
ab 10000
kWh
Strompreis (€/kWh)
Cent/kWh
21
Stromtarifmenü der Energie AG
0,17
0,16
0,16
0,15
0,15
0,14
0,14
0,13
0
1
2
3
4
5
6
Grundpreis (€/Monat)
Abb.14.9: Stromtarifmenü der Energie AG
Neben mehrgliedrigen finden sich auch zweigliedrige, bestehend aus einem Grundentgelt und
Strompreis, Tarife. Zum Zwecke der Marktsegmentierung und der gezielten Anbotslegung für
unterschiedliche Verbrauchergruppen werden zweigliedrige Tarifmodelle entweder neben
einem eingliedrigen – wobei hier der Strompreis höher ist – oder einem Menü von Tarifmöglichkeiten angeboten. Für Konsumenten mit einem niedrigen Verbrauch ist der eingliedrige
Tarif vorgesehen. Der etwas höhere Strompreis ist bis zu einem bestimmten Verbrauch noch
immer günstiger, da keine Fixkosten im Form des Grundentgeltes anfallen. Je höher der Verbrauch desto geringer wird der Anteil der Fixkosten an einer konsumierten kWh, bis zu dem
Punkt an dem der Anteil der Fixkosten geringer wird als die Differenz zwischen dem höheren
und dem niedrigeren Preis des eingliedrigen und zweigliedrigen Tarifmodells. Abb. 14.9 zeigt
ein Tarifmenü bestehend aus einem eingliedrigen und zwei zweigliedrigen Modellen. Ersteres
ist für Konsumenten bis zu einem Jahresverbrauch von 5.300 kWh, die beiden letzten für einen ab 5.300 kWh, wobei sich diese durch die Dauer der Kundenbindung unterscheiden, eine
längere wird belohnt.
Öffentliche Unternehmen
296
Als weitere Segmentierungskriterien neben dem Gesamtverbrauch verwenden die Unternehmen den Zeitpunkt des Verbrauchs. Man findet z.B. Angebote über Nachtstrom – allerdings
großteils eingeschränkt auf bestimmte (Heizung und Warmwasser) und direkt steuerbare Geräte - und Wochenendtarife (z.B. „Vario“ bei der EnergieAG).
14.4.2 Überregionale Koordination: Strombörse und Kraftwerkseinsatzoptimierung
Der österreichischen Gesetzgeber sieht keine verpflichtende Errichtung einer Strombörse als
konstitutionellen Bestandteil der Strommarktliberalisierung vor. Somit differiert die Organisation des österreichischen Marktes auf der bilateralen Basis Erzeuger – Kundenbeziehung mit
den zwischengelagerten lokalen Verteilerunternehmen und als Folge die Form des Preiswettbewerbs stark zum britischen Strommarkt (Green, 1994), wo der Strom eines Kraftwerkes ab
einer bestimmten installierten Kapazität (100 MW) über eine Strombörse verkauft werden
muss133.
Die Verpflichtung zum Stromverkauf über eine Börse soll mehrere Zwecke erfüllen. Erstens
ermöglicht sie eine höhere Flexibilität, da Strom nur für den nächsten Tag und für Intervalle
von 30 oder 60 Minuten gehandelt wird, im Gegensatz zu bilateralen Verträgen über die physikalische Lieferung zwischen Erzeuger und Kunden, die sich typischerweise über Monate
oder Jahre erstrecken. Zweitens soll die zentrale Abwicklung der Transaktionen über einen
Marktplatz die Transaktionskosten senken. Drittens soll die Strombörse, da sie die Preise
transparent macht, die Marktmacht großer Erzeuger reduzieren. Schlussendlich soll der
Strompool sicherstellen, dass auch Händler ohne eigene Produktion Zugang zur Erzeugung
haben (Riechmann/Schultz, 2000).
Obwohl ein verpflichtender Strompool viele oder wie im kalifornischen Fall alle Produzenten
zur Marktteilnahme zwingt und somit „Wettbewerb“ etabliert, stellt dies noch keine ausreichende Bedingung zur Reduzierung von Marktmacht dar. Dominante Erzeuger können nämlich nicht nur den Preis sondern auch die angebotene Menge strategisch setzen und durch die
Rücknahme von Kapazitäten den Marktpreis erhöhen (Green/Newberry, 1992). Die Käufer
ihrerseits müssen dies akzeptieren, da sie keine Ausweichmöglichkeiten zu bilateralen Lieferungsverträgen haben. Dieser Aspekt der strategischen Kapazitätsrücknahme ist beispielsweise im österreichischen Fall geringer, da strategische, dann nur bilateral wirkende, Preiserhöhungen im Preiswettbewerb schaden.
Vom verpflichtenden ist der freiwillige Strompool zu unterscheiden, bei dem es den Erzeugern und Käufern auf Großhandelsebene freisteht, entweder über den Pool auf kurzfristiger Basis oder am Pool vorbei mittels langfristiger Verträge miteinander Handel zu treiben.
Somit entsteht nicht nur ein Wettbewerb innerhalb des Marktes, sondern auch einer zwischen
Märkten (Poolhandel und bilateraler Handel) (Riechmann/Schulz, 2000). Unter der Annahme,
dass ex ante die optimale Organisation des Marktes nicht bekannt ist, wird dadurch ein österreichischer Suchprozess nach dieser Organisation mittels des Wettbewerbs zwischen den
133 Ähnliches galt auch in Kalifornien und gilt in Spanien, jedoch in Spanien nur für alte Kraftwerke. Für neue
ist die Teilnahme am Pool freiwillig.
Öffentliche Unternehmen
297
Handelsinstitutionen induziert. Als Beispiel für einen etablierten freiwilligen Pool sei der
skandinavische Nordpool genannt (Bergman/von der Fehr, 1999), wo im Jahre 1998 rd. 20%
des in Norwegen, Schweden und Finnland konsumierten Stroms gehandelt wurde. Der Rest
erfolgte über bilaterale Verträge. In Deutschland, wo auch der bilaterale Handel überwiegt
(Brunekreeft/Keller, 2000), entstanden jeweils in Frankfurt und Leipzig Spot - Märkte für
Strom, welche jedoch ihre Handelsaktivitäten im Oktober 2001 fusionierten.
Ende März 2002 startete auch in Österreich eine Strombörse (Pool) die Energie Börse Alpen Adria (EXAA) mit Sitz in Graz, welche sich nicht nur als Stromhandelszentrum für Österreich, sondern auch für den gesamten südeuropäischen Raum etablieren möchte134. Aufgrund der schlanken Organisation kann die EXAA nach eigenen Angaben auch mit einem
kleinen Handelsvolumen von ca. 1 bis 2% des österreichischen Stromverbrauches überleben,
wobei jedoch bei zu geringer Liquidität einerseits die Strompreise nicht mehr repräsentativ
wären und andererseits einzelne Stromversorger über die Börse den Preis manipulieren könnten. Betrachtet man die österreichischen Spieler im Erzeugungsbereich, welche aus dem dominanten Verbund, der EAA, der TIWAG, der KELAG und der VKW bestehen, scheinen
jedoch Befürchtungen bezüglich Preismanipulationen nicht ganz unbegründet zu sein. Seit
dem Marktstart wurden an der EXAA durchschnittlich 2.271,2 MWh Strom pro Tag gehandelt, was einem Anteil von 2,3% am österreichischen Spotmarkt entspricht.
Unabhängig von der Existenz einer Strombörse entwickelte sich im Zuge der Liberalisierung
in Österreich ein liquider, bilateraler Großhandelsmarkt für die verschiedensten Stromprodukte, an dem rund 20 inländische und ausländische Stromhandelsunternehmen tätig sind und für
ein Marktvolumen von 200 TWh im Jahr sorgen (E - Control, 2001). Die Partnerunternehmen
der EAA haben ihre Handelsaktivitäten in ein eigenes Stromhandelunternehmen, e&t GmbH,
gebündelt. Dieses Unternehmen ist auch für die nun über die Bundeslandgrenzen hinausreichende Einsatzplanung des Kraftwerksparks der Unternehmen verantwortlich.
Eine über die Landesgrenzen hinausgehende Kraftwerkseinsatzoptimierung zwischen dem
österreichischen Verbund und der deutschen E - On Wasserkraftwerk GmbH könnte durch die
schon erwähnte European Hydro Power GmbH entstehen. Diese ist eine Managementgesellschaft, deren ausschließliche Aufgabe im optimalen Einsatz und Betrieb der Wasserkraftwerke der Austrian Hydro Power sowie der E - On Wasserkraftwerk GmbH besteht, wobei das
Eigentum an den Sachanlagen aber bei den Gesellschaftern bleibt. Wie schon erwähnt ist das
Zustandekommen dieser Kooperation noch höchst fraglich.
14.4.3 Netzdurchleitungstarife
Ein erhebliches Potential für eine Reduzierung des Gesamtstrompreises in Österreich besteht
bei den Netznutzungstarifen. Deren Höhe im Niederspannungsbereich wurde von der EU Kommission neben den Tarifen in Deutschland, Spanien und Portugal als hoch eingestuft,
wodurch die Gefahr einerseits von überhöhten Monopolgewinnen bei den Netzbetreibern und
andererseits von Wettbewerbsverzerrungen im Zusammenhang mit vertikal integrierten Un134 An der EXAA ist die Wiener Börse mit 40%, die Kontrollbank, smart technologies sowie das Land Steiermark mit je 10% und der Verbund, die Steweag, die Grazer Stadtwerke, die Energie AG, die VKW, die TIWAG,
die KELAG sowie die OMV mit je 3% beteiligt.
Öffentliche Unternehmen
298
ternehmen besteht (EU - Kom, 2001a). Per 1.10.2001 übernimmt die Regulierungsbehörde
die Kompetenz für die Festlegung der Netznutzungstarife vom BMfWA, wobei sie auch
schon vorher bei der Reduktion der Tarife der STEWEAG und der Salzburg AG beratend
mitwirkte. Sie hat in dieser Funktion schon punktuelle Reduktionen für den Netzbereich der
Verbund - APG, der GrazerStadtwerke, der STEWEAG (jeweils ab 1.1.2002) sowie der Bewag und der WienStrom (jeweils ab 1.4.2002) verordnet.
Bei den Netztarifen (siehe Abb. 14.10) setzte sich bei deren erstmaliger Festlegung durch den
zuständigen Minister die schon für 1994 festgestellte Ignoranz von bestehenden Informationen in Form der Nichtberücksichtigung unterschiedlicher regionaler Abnahmedichten fort.
Unter erneuter Berücksichtigung der Tatsache der Kostendegression über die Netzdichte
ergaben und ergeben sich auch noch weiterhin Ungereimtheiten. So betrugen die Netztarife
der TIWAG, die mit Tirol noch immer ein denkbar kostenungünstig zu versorgendes Gebiet
hat, vor der durch die E - Control veranlassten Preisreduktion per 1.April 2002 5,89
Cent/kWh, um 0,31 Cent/kWh weniger als die der städtischen WienStrom. Diese Diskrepanz
wurde zwar beseitigt, sodass die WienStrom ab April 2002 mit 5,77 Cent/kWh um 0,12
Cent/kWh weniger als die TIWAG verrechnet. Ob diese Differenz jedoch tatsächlich die topographischen und abnahmespezifischen Unterschiede zwischen Wien und Tirol widerspiegelt, bleibt fraglich, wobei das höhere Alter und die daraus resultierende längere Abschreibungsdauer der Netze der TIWAG nicht als Grund für die geringe Differenz überstrapaziert
werden sollte, speziell unter dem Gesichtspunkt, dass ein Netzbetreiber alle Kosten und die
„angemessene“ Höhe der Netzgebühren wegen der Asymmetrie der Informationslage erklären
wird können. Es ist zu hoffen, dass die Regulierungsbehörde von der liebgewonnenen Angewohnheit der Ignoranz bestehender Informationen abweichen wird, wofür die Tarifreduktionen in den Städten Graz und Wien zögerliche Anzeichen darstellen.
Vergleich der Netznutzungstarife für Haushalte (Stand
April 2002)
W
K
V
EV
N
K
EL
A
G
Li
nz
A
ST
G
EW
EA
Sa
G
lz
bu
rg
A
G
En
er
gi
eA
G
Be
w
ag
St
w
K
la
ge
In
nf
ns
ur
br
t
uc
ke
rK
B
W
ie
nS
tro
m
TI
W
A
G
G
ra
ze
rS
tw
Cent/kWh
10
9
8
7
6
5
4
3
2
1
0
Abb. 14.10: Netzpreise (Netznutzungs - , Netzverlustentgelt und Entgelt für Messleistungen) für einen Hauhalt
(3.500 KWh), Quelle: E - Control.
Bei einer Betrachtung der Struktur der bestehenden Tarife für die Haushalte fällt neben der
bereits erwähnten Nichtberücksichtigung von Kostendegressionen aufgrund der Abnahmedichte vor allem der hohe Anteil der Netzgebühren an den gesamten Stromkosten auf. Besonders die Kosten für das Niederspannungsnetz speziell im absoluten als auch im relativen Vergleich zum Hochspannungs - bzw. Mittelspannungsnetz erscheinen besonders hoch. Unbestritten ist, dass die Netzkosten für Industriekunden, welche Strom aus der Hochspannungs-
Öffentliche Unternehmen
299
ebene entnehmen, aufgrund des günstigen Nachfrageprofils um mindestens 100% günstiger
sind als für Entnehmer einer niedrigeren Spannungsebene. Für die Energiepreise ergeben sich
Unterschiede zwischen 25 - 50% (Pfeifenberger et.al., 1997).
Aus Abb. 14.11 wird ersichtlich, dass die Kostenunterschiede zwischen der Hoch - und Niederspannungsebene in den gewählten Ländern durchwegs mehr als 150% betragen. Auffällig
ist jedoch, dass in Österreich nicht nur der absolute Kostenunterschied zwischen der Hoch und Niederspannungsebene mit €57/MWh hoch ist, sondern auch der relative. Die Kosten der
Hochspannung multipliziert mit 7,3 ergeben jene der Niederspannung. Dieser Faktor beträgt
in den anderen angeführten Ländern – auch Deutschland und Spanien – lediglich zwischen
4,2 bis 5,6. Es liegt die Vermutung nahe, dass rein buchhalterisch die gesamten Aufwendungen für den Verwaltungsapparat und historisch bedingte bzw. verbleibende Ineffizienzen in
die Niederspannungstarife überwälzt wurden. Die Folge ist natürlich, dass die Vertriebsunternehmen auf dieser Basis wenig Anlass haben, kosteneffizienzsteigernde Maßnahmen zu unternehmen. Aber auch innerösterreichisch finden sich unlogische Tarifansätze zwischen den
Netzebenen. In Oberösterreich betragen beispielsweise die Tarife für die Netzebene 6 nur ein
Drittel der Netzebene 7, während jene in Vorarlberg fast gleich sind. Ein Unterschied der
auch mit dem Hinweis auf verschiedene Abnahmestrukturen in seiner Höhe nur schwer erklärbar ist.
Zusammensetzung des Nettostrompreises für
Haushalte (3.500 KWh)
100
80
60
40
20
0
1,0
0,8
0,6
Hochspannung
an
d
(h
)
(l)
an
d
mittlere Spannung
0,2
eu
tsc
hl
0,0
Österreich
Deutschland
Niederlande
England
Energiepreis
0,32
0,35
0,53
0,70
Netzpreis
0,68
0,65
0,47
0,30
D
eu
tsc
hl
D
H
ie
Sp
an
U
ol
la
nd
n
0,4
K
€/MWh
Geschätzte Höhe der Netzentgelte:
Elektrizität
Niederspannung
Abb. 14.11: Geschätzte Höhe der Netzentgelte Abb. 14.12: Zusammensetzung der Nettostrompreise
Quelle: Commillas, Eurostat - Erhebung
Quelle: OECD, Brunekreeft/Keller (2001), E - Control
Abb. 14.12 zeigt den Anteil der Netzkosten an den Nettostrompreisen für England, Deutschland, Niederlande und Österreich. Die Aufteilung des Nettopreises in England soll nicht der
Kritik des Status quo in Österreich dienen, sondern veranschaulichen, wie die Relation in einem zukünftigen liberalisierten österreichischen Strommarkt ungefähr aussehen könnte. Die
EU - Kommission sieht im Vorschlag zur Änderung der ElRL als einzige Netzzugangsart den
regulierten Netzzugang vor. Speziell der verhandelte Netzzugang wird wegen der dadurch
resultierenden hohen Netznutzungstarife abgelehnt. Aus Abb. 14.12 könnte der Schluss gezogen werden, dass England und die Niederlande einen regulierten und Österreich und Deutschland einen verhandelten Netzzugang haben. Letzteres gilt aber nur für Deutschland. In den
Daten über die Niederlande ist weiters noch nicht ein seit Anfang 2001 geltender durchschnittlicher Price - Cap von jährlich 5,9% für die Verteilungsunternehmen enthalten. Ein
regulierter Netzzugang darf demnach a - priori nicht mit niedrigen Netztarifen gleichgesetzt
Öffentliche Unternehmen
300
werden, dazu bedarf es schon einer aktiven Regulierungsbehörde, die solche Tarife implementiert und durchsetzt. Diese Erkenntnis sollte die Hoffnung, dass der Übergang vom verhandelten zum regulierten Netzzugang im österreichischen Gasmarkt die Preise für die Durchleitung sinken lässt, ein wenig relativieren.
Ein Vergleich von relativen Anteilen ist natürlich immer mit Vorsicht zu genießen, da die
niedrigeren Netzkostenanteile in den Niederlanden aber auch in England eine Folge von höheren Energiepreisen sein könnten, was deren Anteil an den Nettopreisen entsprechend ansteigen lässt. Aber so ganz dürfte dies nicht zutreffen. Eine Aufteilung wie in den Niederlande,
nämlich 53% Netz - und 47% Energiekostenanteil, würde in Österreich beispielsweise dann
erreicht werden, wenn alle Konsumenten den Strom von der oekostromAG, welche die Energie nur aus regenerativen Energiequellen (Wind, Photovoltaik, usw.) gewinnt und deshalb
nicht als Billiganbieter bezeichnet werden kann, beziehen. Mittelfristig dürften die Netzgebühren tatsächlich einen erheblichen Spielraum nach unten aufweisen.
Gegen ein zu forsches Auftreten der Regulierungsbehörde wird oft eingewandt, dass in diesem Fall die Netzbetreiber die Kosten nicht durch Steigerungen der Produktivität, sondern
durch eine Vernachlässigung der Netzinfrastruktur erzielen, und vor Netzzusammenbrüchen,
- ausfällen als Folge von falschen Kosteneinsparungen gewarnt. Mittelfristig ist dem vielleicht
zuzustimmen, kurzfristig aber eher nicht. Einerseits sollte das Kosteneinsparungspotential in
den Unternehmen erheblich sein, sind sie doch mehr als fünfzig Jahre lang staatlich geschützte Monopole gewesen, die nur geringem Kostendruck ausgesetzt waren135. Andererseits, warum sollte die Netzinfrastruktur nicht auch durch Stranded costs, durch Investitionen in zuviel
Versorgungssicherheit – 99,999% anstatt „nur“ 99% Sicherheit –, genauso wie der Erzeugungsbereich, gekennzeichnet sein136. Desinvestitionen könnten somit vielleicht sogar optimal
sein. Die Regulierungsbehörde sollte sich davor hüten, den vorhandenen Produktionsapparat
auf Dauer als eine gegebene Größe anzusehen.
14.5 Zusammenfassung und Schlussfolgerungen
Der österreichische Gesetzgeber ist mit der 100% Liberalisierung einen mutigen Schritt gegangen insbesondere dann, wenn man bedenkt, dass die Experten der Energiewirtschaft bis
Ende der 80 - er Jahre – also bis vor der britischen Privatisierung – bereits viel moderatere
Marktöffnungen als technisch unmachbar empfunden haben. Gerade deshalb ist es schade,
dass ihn in anderen Bereichen der Mut verlassen hat mit zum Teil negativer Auswirkung auf
die zukünftige Entwicklung des Elektrizitätsmarktes. Die Festschreibung des mehrheitlichen
Eigentums der öffentlichen Hand an den Elektrizitätsunternehmen lässt auch in Zukunft die
Möglichkeit der Unternehmensführung nach „bundes(landes)politischen“ Kriterien offen.
„Der“ positive Aspekt des Eigentums des Bundes und der Länder an den Unternehmen, nämlich die Möglichkeit zur vertikalen, rechtlichen Separation von Erzeugung/Vertrieb und Netzinfrastruktur, wurde leider nicht genützt und durch die Teilprivatisierung zumindest er-
135
Vgl. die massiven Produktivitätssteigerungen der Elektrizitätsunternehmen in UK nach der Liberalisierung
(Newberry, 1997).
136 Es sei an die Beihilfe von 385 Mill.€ für das Kraftwerk Freudenau erinnert.
Öffentliche Unternehmen
301
schwert, wenn nicht gänzlich verspielt. Ebenso wurde die Chance einer Kompetenzbereinigung zwischen Bund und Ländern vertan.
Obwohl die Einrichtung einer Regulierungsbehörde positiv zu bewerten ist, hätten dieser alle
Preisfestsetzungskompetenzen – auch zur Hintanhaltung von Interessenskonflikten der Landeshauptleute als Preisbehörde und Eigentümervertreter – übertragen werden sollen. Ein weiterer zu kritisierender Punkt ist, dass sich im Zuge der Liberalisierung die öffentliche Hand
ihren Rückzug durch die Erhöhung und die zusätzliche Einführung von Gebühren, teilweise
zum Nutzen der „eigenen“ Landesgesellschaft – Wien ist hiefür ein Paradebeispiel – teuer
bezahlen ließ, so dass der Abgabenanteil bei Strom sich an den von Treibstoffpreisen annähert.
Der Preiswettbewerb nach der Liberalisierung gestaltete sich eher bescheiden, da Preisreduktionen schon vorweggenommen wurden, einige Anbieter nicht über das Versorgungsgebiet
liefern konnten bzw. wollten und die bloße ex post Auszeichnungspflicht der Netzpreise die
Preistransparenz erheblich einschränkt. Letzteres betrifft vor allem die Vergleichbarkeit zwischen bundesweiten Angeboten, welche nur die Energiepreise enthalten, und aus Netz - und
Energiepreis bestehenden regionalen Pauschalangeboten. Die niedrigen Wechselraten entsprechen den internationalen Erfahrungen, stellen aber wegen erheblicher regionaler Preisunterschiede trotzdem ein Rätsel dar. Bei der Preisgestaltung selbst konnten vereinzelt Hinweise
von Missbräuchen bei der Durchleitungsgebühr gefunden werden. Es sind auch bereits, wenn
auch im Vergleich zum Telekomsektor sehr bescheiden, komplexere Tarifmodelle zu beobachten. Trotzdem sind die Tarife noch immer nicht frei von Ungereimtheiten, etwa im Falle
des Gewerbes (bei manchen Anbietern erhalten Haushalte niedrigere Tarife als Gewerbebetriebe).
Die Organisation des österreichischen Marktes mit der bilateralen Erzeuger - Kundenbeziehung differiert stark vom britischen oder kalifornischen Strommarkt, der zwar viele oder im
kalifornischen Fall alle Produzenten zur Markteilnahme zwingt und somit Konkurrenz etabliert, jedoch durch strategische Rücknahmen von Kapazitäten für Preiserhöhungen anfällig ist.
Dieser Aspekt ist im österreichischen Fall deshalb geringer, weil strategische dann nur unilaterale Preiserhöhungen im Preiswettbewerb schaden. Bei der überregionalen Koordination
konnten durch den verstärkten bilateralen Großhandel, der gebündelten Kraftwerkseinsatzoptimierung über die regionalen Grenzen hinaus und der Gründung einer österreichischen
Strombörse, welche Ende März den Handel eröffnete, Fortschritte festgestellt werden.
Das wohl größte Defizit des momentanen Zustandes stellen, sowohl wegen der Höhe als auch
der regionalen Differenzierung, die Netzgebühren dar. Dies ist deshalb nicht überraschend,
weil dieser Bereich keiner Marktdisziplinierung ausgesetzt ist und von den lokalen Landesgesellschaften mit Unterstützung der Eigentümer – so viel zum Rückzug der Politik – missbraucht wird, was hoffentlich durch die unabhängige Regulierungsbehörde zumindest gemildert wird. Ein weiteres Defizit der Netzgebühren ist die mangelnde zeitliche (Tag/Nacht,
Öffentliche Unternehmen
302
Sommer/Winter) Differenzierung, sodass die Chance auf eine verbesserte Auslastung und
dadurch mögliche Absenkung notwendiger Kraftwerkskapazitäten nicht genützt wird137.
Bei all der berechtigten Kritik darf jedoch der Zustand der Elektrizitätswirtschaft vor der
Liberalisierung also ihr Ausgangspunkt nicht vergessen werden: (1) ineffiziente Erzeugung –
kein Ausgleich bei unterschiedlichen Grenzkosten – und suboptimale Dimensionierung der
Anlagen für die regionalen und daher zu kleinen Märkte, sodass der oft genannte Hauptvorteil
einer Verstaatlichung (oder auch Regulierung), die Skalenerträge und das damit verbundene
natürliche Monopol, verspielt wurde; (2) die Befriedigung politischer insbesondere landespolitischer Begehren (von der Bestellung des Vorstandes, der Direktion bis weit nach unten, der
Beauftragung von Firmen im Land, etc.); (3) teilweise ökonomisch absurde Tarife, massive
Quersubventionierungen, teilweise schwere Benachteiligung von politisch schlecht vertretenen Konsumentengruppen (insbesondere des Gewerbes) etc. Vor diesem Hintergrund ist
selbst der absurde KWK - Zuschlag der WienStrom ein Vorteil, weil diese Subventionierung
jetzt zumindest quantitativ offengelegt werden muss.
Somit stellen die laufenden Entwicklungen sehr wohl einen Fortschritt dar, wobei jedoch
der erhebliche provinzielle Einfluss der öffentlichen Hand auf die strategische Ausrichtung
der Unternehmen und deren Organisation im europäischen Kontext – wohl auch weil dort die
von der öffentlichen Hand beeinflussten Unternehmen viel größer sind (z.B. EdF) – mittelfristig keinen Platz mehr haben sollte. Über die Hälfte der britischen Stromversorgung befindet
sich in ausländischer Hand, stellte die „Financial Times“ nach dem Kauf von Innogy durch
die (deutsche!) RWE fest (Die Presse, 2002). Zumindest um eine Diskussion über die – vielleicht auch zukünftig mehrheitlich ausländische – Eigentümerstruktur der Elektrizitätsunternehmen wird auch Österreich zukünftig nicht herumkommen, will es seinen Platz in der
Gruppe der europäischen Vorreiter bei der Strommarktliberalisierung weiterhin beibehalten.
137Zugegeben, das Abtragen von Tagesspitzen ist für Österreich alleine weniger vordringlich aufgrund der hohen
installierten Leistung von Speicherkraftwerken. Diese Kapazitäten könnten allerdings möglicherweise noch
günstiger auf dem europäischen Markt eingesetzt werden.
Öffentliche Unternehmen
303
14.6 Bibliographie
Bachinger, K., Matis, H. und Hemetsberger - Koller, H. (1989), Grundriss der österreichischen Sozial - und Wirtschaftsgeschichte: von 1848 bis zur Gegenwart, ÖBV - Klett - Cotta,
Wien.
Bergman, L. und von der Fehr, N - H. (1999), The Nordic Experience: Diluting Market Power
by Integrating Markets, S. 116 - 146, in Vaitilingan, R. (Hrsg.), A European Market for Electricity? Monitoring European Deregulation 2, Centre for Economic Policy Research/SNS,
1999.
BKA (2000), Entscheidung des Bundeskartellamtes auf dem Gebiet der Fusionskontrolle im
Jahre 2000: RWE/VEW, www.bkarta.de/B8 - 309 - 99.pdf.
Brunekreeft, G. und Keller, K. (2000), The electricity supply industry in Germany: market
power or power of the market, Utilities Policy 9, 15 - 29.
Brunekreeft, G. und Keller, K. (2001), Sektorspezifische Ex - ante - Regulierung der deutschen Stromwirtschaft?, Diskussionsbeitrag Nr.80, Institut für Verkehrswissenschaft und Regionalpolitik, Universität Freiburg.
Burns, P., Davies, J. und Riechmann, C (1999), Benchmarking von Netzkosten – Data Envelopment Analyse (DEA) am Beispiel der Stromverteiler in Großbritannien, Zeitschrift für
Energiewirtschaft, 4/99: 285 - 301.
Dorfmann Andreas (1995), Effizienzanalyse der Elektrizitätsversorgungsunternehmen, Diplomarbeit, TU - Wien, Institut für Energiewirtschaft, 1995.
Dte (2000), Guidelines for price cap regulation of the Dutch electricity sector: In the period
from 2000 to 2003, www.nma - dte.nl/en/default.htm.
E - Control (2001), Jahresbericht 2001, www.e - control.at/Jahresbericht/date/e - control.html.
Erfle, S. und McMillan, S. (1990), Media, Political Pressure, and the Firm: The Case of Petroleum Pricing in the late 1970s, Quarterly Journal of Economics, 105, 115 - 134.
EU - Kom. (2000), Entscheidung der Kommission vom 13.6.2000 zur Vereinbarkeit eines
Zusammenschlusses mit dem Gemeinsamen Markt und mit dem EWR - Abkommen:VEBA/VIAG,
www.europa.eu.int/comm/competition/mergers/cases/decisions/m1673_de.pdf.
EU - Kom. (2001a), Erster Bericht über die Verwirklichung des Elektrizitäts - und Erdgasbinnenmarktes, Arbeitsdokument der Kommissionsdienststellen (SEK(2001) 1957).
EU - Kom. (2001b), Vollendung des Energiebinnenmarktes, Mitteilung der Kommission an
den Rat und das europäische Parlament (Kom(2001) 125).
Öffentliche Unternehmen
304
Filippini, M. und Wild, J. (2002), Berücksichtigung von regionalen Unterschieden beim
Benchmarking von Stromverteilnetzen, Zeitschrift für Energiewirtschaft, 26(1): 51 - 59.
Green, R. (1994), Britain’s unregulated Electricity Pool, S.73 - 96, in Einhorn, M.A. (Hrsg.),
From Regulation to Competition: New frontiers in electricity markets, Kluwer Academic Publishers, 1994.
Green, R. und Newberry, D. (1992), Competition in the British Electricity Spot Market, Journal of Political Economy 100(5), 929 - 953.
Hess, W. (2001), Die wirtschaftliche Lage der EVU - Landesgesellschaften und Sondergesellschaften, Kammer für Arbeiter und Angestellte Wien.
Johannsen, A (2001), Preis als Wechselgrund, Wirtschaftsblatt vom 29.9.2001.
Kumbhakar, S.C. und Hjalmarsson, L. (1998), Relative performance of public and private
ownership under yardstick competition: electricity retail distribution, European Economic
Review, 42, 97 - 122.
Künneke, R.W. (1999), Electricity networks: how ‘natural’ is the monopoly?, Utilities Policy,
8, 99 - 108.
Kurier (2001), Strommarktaufsicht ist viel zu schwach, Ausgabe vom 7.12.2001.
Newbery, D.M. (1997), Privatisation and liberalisation of network utilities, European Economic Review, 41, 357 - 383.
Mueller, Dennis C. (1989). Public Choice II, Cambridge, Cambridge University Press.
OPEC, Market Indicators from www.opec.org (March 20th, 2002),
Pauger, D. (2001), Reform des Strom - und Gasrechts durch das Energieliberalisierungsgesetz, Österreichische Zeitschrift für Wirtschaftsrecht, Heft 1, 1 - 7.
Pfeifenberger, J.P, Hanser, P.Q. und Ammann, P.R. (1997), What’s in the Cards for Distributed Resources?, The Energy Journal, Special Issue, 1 - 16.
Piltz, H. (2001), Netznutzungsentgelt für Stromlieferungen in der Kritik: Ist jetzt auch in
Deutschland eine Regulierungsbehörde erforderlich?, Wirtschaft und Wettbewerb (6), 553 560.
Die Presse (2001), Wienstrom bittet Kunden zur Kasse: Kleinverbraucher zahlen jetzt mehr,
Ausgabe vom 6.11.2001.
Die Presse (2002), Strommarkt: Konzerne üben in Großbritannien Liberalisierung, Ausgabe
vom 23.3.2002.
Öffentliche Unternehmen
305
Riechmann, Ch. und Schulz, W. (2000), Regulatory Reform in the Electricity Industry, S.330
- 361, in Galli, G. und Pelkmans, J. (Hrsg.), Regulatory Reform and Competitiveness in Europe, II, Edwar Elgar, 2000.
Sandgruber, R. (1995), Österreichische Geschichte: Ökonomie und Politik: Österreichische
Wirtschaftsgeschichte vom Mittelalter bis zur Gegenwart, Ueberreuter.
Shleifer, A. (1985), A theory of yardstick competition, RAND Journal of Economics,
Vol.16(3), 319 - 327.
Der Standard (2001), Krampus für EVN und Wienstrom, Ausgabe vom 7.12.2001.
Wieser, R. (2000), Regulatoren in Netzwerkindustrien – Eine politi - ökonomische Synthese,
Working Papers 2/2000, Bundesministerium für Finanzen.
Wilson, R.B. (1993), Nonlinear Pricing, Oxford University Press.
Franz Wirl, Optimal Electricity Production from Hydro Power Plants with Storage, Zeitschrift
für Operations Research 32, B121 - B136, 1988.
Franz Wirl, Firmenübernahmen in der E - Wirtschaft: Was erkauft man bei einer Übernahmen
eines Versorgungsunternehmens in einem liberalisierten Strommarkt?, Wirtschaftspolitische
Blätter, 46. Jg., 609 – 617, 1999.
Öffentliche Unternehmen
306
15 Versorgungssicherheit
Der Primärenergiebedarf Österreichs muss zur Zeit etwa zu zwei Drittel durch Importe gedeckt werden; in Deutschland liegt diese Quote noch höher. Etwa die Hälfte davon stammt
aus dem COMECON - Raum, etwa ein Drittel aus dem OPEC - Raum. Die folgende Analyse
betrachtet folgende, vereinfachte Einschränkungen in der Verfügbarkeit von Energieimporten:
einen temporären Ausfall (gekoppelt mit hohen Preisen) oder langfristige Knappheit. Weiter
basiert die empirische Anwendung auf der österreichischen Situation, jedoch ähnliche (relative) Ergebnisse gelten allgemein, weil nur die Wasserkraft dabei ein österreichisches Spezifikum ist, ähnlich zur deutschen Kohle.
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
(a) kurzfristig
(b) langfristig
_
_
_
_
Abb. 15.1: Unterschiedliche Arten von Ausfällen
Zusätzlich sind zwei Arten von Embargos denkbar: gobal oder gegen Österreich allein gerichtet. In diesem Fall sind jedoch die fehlenden Mengen ohne Probleme (und höchstens mit etwas überhöhten Kosten) auf den Weltmärkten erhältlich. Deshalb wird in der folgenden Analyse eine globale Energieknappheit, kurz - oder langfristig, angenommen.
Dabei stehen u.a. folgende Gegenmaßnahmen dem importierenden Land zur Verfügung:
Diversifikation,
Rationierung,
Nachfragereduzierung,
verstärkte Nutzung heimischer Energieträger,
Lagerstättenpolitik.
Diversifikation der österreichischen Energieimporte sowohl unter den Energieträgern als auch
den Partnerländern kann einen eventuellen Ausfall an Energieimporten mildern und ist mit
_
Öffentliche Unternehmen
307
geringen Kosten verbunden. Dabei erscheint die Aufteilung auf verschiedene Energieträger
teurer aber auch erfolgreicher als Streuung über möglichst viele Partnerländer. Denn, im Fall
eines signifikanten Ausfalles an globalem Angebot, etwa Revolution in Saudi Arabien, wäre
im selben Moment die temporäre Ressourceknappheit in einem hohen Preis reflektiert, so dass
auch Diversifikation diesen Kostendruck, wenn überhaupt, nur sehr kurz mindern kann. Ist
man in so einer Situation überzeugt, dass sie nur kurzfristig andauern wird, mag Rationierung
ein sinnvolles Instrument sein, das den Kostendruck durch hohe Importpreise mildern würde.
Die Dauer eines solchen Ereignisses ist meistens schlecht prognostizierbar und deshalb mag
auch in solchen Fällen individuelle, "freiwillige" Rationierung als Folge hoher Preise vorzuziehen sein.
Die letzte Maßnahme setzt jedoch voraus, dass die Steigerungen des Weltmarktpreises sofort
im heimischen Preisniveau reflektiert werden, während Preisreglementierungen diesem Ziel
hinderlich wären.
Vom Standpunkt der Versorgungssicherheit aus ist es irrelevant, ob die Importnachfrage
durch Senkung der heimischen Nachfrage oder durch eine Ausweitung der heimischen Energieproduktion reduziert wird. Diese Reduktion der Importnachfrage ist in der Abb. 15.1 als
strichlierte Linie dargestellt. Diese Nachfragereduktion ist Folge von ökonomischen Anreizen
und/oder dirigistischen Vorschriften. Einige wichtige Varianten werden im dritten Kapitel auf
ihre ökonomische Zweckmäßigkeit überprüft. Sei in Abb. 15.1 die ausgezogene Linie als jene
Überschußnachfrage repräsentiert, wenn alle Allokationen ökonomisch sinnvoll für die laufenden Preise sind, d. h., alle in Österreich bei diesem Preis erzeugbaren Energiegüter werden
produziert, und alle Energiesparmaßnahmen mit einem positiven Ertrag sind getätigt. Dann
wäre eine frühzeitige Einschränkung des Energiekonsums und/oder teure Substitutproduktion
begleitet von einem Wohlstandsverlust in den Jahren vor der Knappheit. Selbst wenn es gelänge, als Folge einer solchen Politik die Turbulenzen der Weltenergiemärkte wie in Abb.
5.16a angedeutet, problemlos zu überstehen (da besser angepaßt an die Knappheit), würde die
Depression der nicht angepassten Partnerländer eine offene Volkswirtschaft wie Österreich
trotz der perfekten energetischen Adaption, arg in Mitleidenschaft ziehen. Dies bedeutet, dass
für Österreich alleine genommen nur jene Maßnahmen zu unterstützen sind, die ökonomisch
sinnvoll, d. h. sich auszahlen. Das betrifft insbesondere die Eliminierung jener institutionellen
Hürden, die den momentanen Energiepreis noch nicht voll zum Tragen kommen lassen: Pauschale Heizungsabrechnungen, Mietengesetz.
Von diesem Standpunkt aus sind alle Maßnahmen, die darüber hinausgehen, ob dirigistisch
oder marktwirtschaftlich konform, abzulehnen. Jedoch im Falle einer internationalen Absprache innerhalb eines Konsumentenkartells, stellen zusätzliche Einschränkungen der Energieimporte eine strategische Maßnahme gegenüber der Preispolitik eines Erdölkartells dar und
können dadurch moderate Preise erzwingen (eine Untersuchung des Autors hat gezeigt, dass
die Preiselastizität der sensitivste Parameter für OPEC Politiken ist, also eine Erhöhung des
Preisbewusstseins der Konsumenten die Chance auf niedrige Ölpreise stark begünstigt). Ähnliches gilt für die Lagerstättenpolitik. Für Österreich allein betrachtet übersteigen wahrscheinlich die Kosten der Lagerhaltung den eventuell einmal realisierbaren Profit. Jedoch als internationales Instrumentarium mag sie, im Falle besserer Handhabung als in der Vergangenheit,
dazu dienen, schwankende Preise zumindest zu dämpfen.
Öffentliche Unternehmen
308
Aspekte der "Versorgungssicherheit" spielen eine wichtige Rolle in der Öffentlichen und politischen Reglementierung der Österreichischen Energiewirtschaft, etwa IEA's 90 Tage Vorschrift, Argumente für heimische Energie insbesondere Wasserkraft. Jedoch dominieren dabei
Vor - (Urteile) und Faustregeln aber keine Arbeit setzt sich bis dato mit diesem Problem
grundsätzlich auseinander.
Die Angst vor Importausfällen und damit der Aspekt der Versorgungssicherheit scheint übertrieben, denn die Voraussetzung für jede Art von Handel ist, dass sie den beteiligten Personen
(Verkäufer und Käufer) nützt, anderenfalls aber unterbleibt und deshalb ist das mutwillige
Vorenthalten von Gütern unwahrscheinlich ist. Dies erkannte bereits Adam Smith (1777): "it
is not from the benevolence of the butcher, the brewer, or the baker that we expect our dinner,
but from their regard to their own interest. We adress ourselves not to their humanity but to
their self - love and never talk to them of our own necessities but of their advantage."
Das Modell wird in Anlehnung an den Begriff des Portfolio, entwickelt. Weiter wird Versorgungssicherheit vom Standpunkt des Konsumenten aus betrachtet, so dass auch heimische
Quellen in das Konzept eingebunden werden koennen. So ist z. B. im Falle von Großbritannien die inländische Kohleversorgung am häufigsten von Ausfällen (durch Streiks) betroffen und somit auch unsicherer als Importe zu bewerten. Ein Hauptanliegen unserer Überlegungen ist, die wichtigsten versorgungstechnischen Aspekte wie Stochastik und nicht - lineare Kosten allgemein zu behandeln, jedoch zu einem handhabbaren Instrument zu gelangen.
15.1 Ein Modell
Probleme versorgungstechnischer Natur ergeben sich aus folgenden grundlegenden Annahmen
- konvexe Kosten der Adaption durch Unterbleiben von kontrahierten Lieferungen
- Unsicherheiten der tatsächlichen Lieferung
Bezeichne im folgenden (fij) die kontraktierte Menge des Brennstoffes (i) aus der Quelle (j).
Die tatsächlichen Lieferungen (Fij) seien jedoch durch Zufallsvariable beschrieben. Dabei
müssen die Verträge die tatsächlichen Lieferungen zumindest beeinflussen, d. h. Fij ist nur
stochastisch determiniert als bedingte Wahrscheinlichkeitsverteilung. Im folgenden seien zwei
Beispiele für tatsächliche Lieferungen angeführt:
Beispiel 1: Fij ist normal verteilt: Fij~N(fij,(fijij)2) mit Mittel fij und der relativen Streuung
(ij) in den Lieferungen. Dieser Fall wird im folgenden verwendet und ist geeignet, alle Unsicherheiten von Primärenergiequellen inklusive jener der heimischen Wasserkrafterzeugung
zu analysieren.
Beispiel 2: Fij ist alternativ verteilt. Die Wahrscheinlichkeit (W), dass die Lieferungen ausfallen ("Embargo") ist gleich einer positiven Wahrscheinlichkeit (wij):
W[Fij=0] := wij
Öffentliche Unternehmen
309
und, dass die Verträge (fij) erfüllt werden tritt mit der Residualwahrscheinlichkeit (1 - wij)
ein:
W[Fij=fij]=1 - wij
Die Verträge (fij) müssen so abgeschlossen werden, dass der gesamte Energiebedarf (e) gedeckt werden kann1
e:=  fij
(5.79)
i j
Die Gleichung (5.79) (auch falls e für Nutzenergie steht) unterstellt, dass alle Brennstoffe
perfekte Substitute sind. Die konträre Annahme, Brennstoffe sind nicht substituierbar, kann
durch Aggregationsfunktionen des Typs (5.79) für jeden individuellen Brennstoff beschrieben
werden. Falls Kombinationen von perfekten Substituten und Komplimentaritätseigenschaften
bestehen, kann dies durch konventionelle lineare Beschränkungen eingeführt werden. Im Falle imperfekter Substituierbarkeit der Brennstoffe ergäbe sich eine nicht - lineare Aggregationsformel (5.79). Die Annahme, dass die Brennstoffe entweder perfekte Substitute sind, oder
teilweise komplementär sind, ist analog zu Energieversorgungsmodellen, etwa in MARKAL,
und die Anwendung im österreichischen Energiekonzept. Jedoch ex post, d. h. nach Abschluss der Verträge (fij), sind innerösterreichische Substitutionen mit zusätzlichen Kosten
verbunden. Dies wird später erarbeitet.
Bei Abschluss der Verträge sind gewisse Restriktionen zu beachten, etwa
fkl = 0
(5.80)
falls von der Quelle (l) der Brennstoff (k) nicht bezogen werden kann (z. B. Kohle von der
OPEC) oder
min
fkl  fkl
(5.81)
falls bereits Verträge über fklmin bestehen (z. B. Gas von der UdSSR) oder
max
fkl  fkl
(5.82)
falls von der Quelle (5.80) maximal fklmax an Brennstoff (k) verfügbar ist (z. B. heimische
Wasserkraft).
1Falls
j bereits den Nutzenerigebedarf beschreibt, müssen die Brennstoffe durch entsprechende Wirkungsgrade korrigiert werden.
Öffentliche Unternehmen
310
Falls nun von einer geplanten Lieferung des Brennstoffes i,
fi:= fij
j
nur die Mengen
Fi:= Fij
j
geliefert werden, dann fallen Kosten (ci) an, die in den ausgefallenen Mengen (Ai) steigen und
und zwar überproportional (Ci ist eine konvexe Funktion):
Ai:= fi - Fi
ci := Ci(Ai) = Ci(fi - Fi)
Ci' > 0, Ci'' > 0, Ci(0) = 0
(5.83)
Die Abb. 15.2 stellt ein Beispiel einer solchen Kostenfunktion dar. Die Konvexität (Ci" > 0)
beschreibt, dass der Ausfall einer zusätzlichen Einheit bei bereits geringem Liefervolumen
einen größeren Verlust verursacht als bei noch hohen Lieferungen. Hingegen werden Überschüsse immer geringer bewertet. Das Erfüllen der Verträge verursacht keine zusätzlichen
Kosten.
Öffentliche Unternehmen
311
Kosten C1
C1
Ausfall (fi – Fi)
Abb. 15.2: Konvexe Kostenfunktion (Ci" > 0)
Da Versorgungssicherheit, wie alle "Wohlfahrtsanalysen" vom Standpunkt des Konsumenten
aus betrachtet werden müssen, sind alle Versorgungsquellen in die Analyse miteinzubeziehen,
also auch die heimische Produktion. Die heimische Erzeugung kann durch eine niedrigere
Ausfallswahrscheinlichkeit begünstigt sein oder aber einen Kostenvorteil besitzen. Keiner
dieser Punkte ist im allgemeinen gewährleistet, vgl. die Unsicherheit der Kohlegewinnung in
Großbritannien, die Varianz im Wasserdargebot für die österreichische Stromerzeugung, oder
die hohen Kosten der Förderung der deutschen Kohle.
Somit sind aus versorgungspolitischer Sicht die erwarteten Adaptionskosten (J) zu minimieren.
min J:= E { Ci (fij -  Fij)}
i
j
j
fij
(5.84)
wobei E für den Erwartungsoperator steht und die Beschränkungen (5.79) - (5.82) eingehalten
werden müssen. Dieses nicht - lineare stochastische Optimierungskalkül führt im Falle der
Normalverteilung aus Beispiel 1 zu einem deterministischen Kalkül mit Mittel und Varianz
als zusätzliche Parameter. Die tatsächliche Versorgung durch einen Brennstoff Fi sind die
Öffentliche Unternehmen
312
Argumente für die separablen Kostenfunktion Ci. Diese Versorgung wird durch die Zufalls variable Fi = jFij beschrieben, deren Verteilung zu bestimmen ist. Im angenommenen Falle
der Normalverteilung ist diese Summe ("Faltprodukt") wieder normalverteilt.
Die Unterstellung der Normalverteilung, stochastischer Unabhängigkeit der Ereignisse und
quadratischer Kostenfunktionen (Ci) vereinfacht die folgenden Berechnungen und die dafür
notwendigen Information138.
Fij~N(fij,(fijij)2)
(5.85)
Ci = ai(fi - Fi) + bi(fi - Fi)2
(5.86)
Auf Grund des Faltproduktes ist die Summe wieder normal verteilt:
Fi~N( fij,(fijij)2)
j
j
(5.87)
so dass die Optimierung des Erwartungswertes in (5.84) auf
2 2
min  bi fijij
i
j
(5.88)
führt.
15.2 Optimale Versorgung
Definiere mit (L) die Lagrange Funktion, den Lagrange - Multiplikator für die Nebenbedingung (5.79) mit (â), und verwende µij und die Kuhn - Tucker - Multiplikatoren für die (5.81)
bzw. îij für die Ungleichungen in (5.82). Dann erhält man:
2 2
L =  bi  fij ij - (  fij - e)
i j
i j
min
max
+   µij (fij - fij ) +  νij (fij - fij)
i j
i j
(5.89)
138Diese Einschränkungen sind jedoch nicht essentiell. So kann z.B. die Unabhängigkeit der Lieferungen verschiedener Brennstoffe von der selben Quelle beliebige Korrelationen ersetzt werden, da der Erwartungsoperator
ohnedies linear über die Brennstoffe gebildet werden kann.
Öffentliche Unternehmen
313
wobei die Summation nur über jene Indices erfolgt, die aus der Komplementärmenge der Indexmenge für die Nebenbedingung (5.80) (keine Liefermöglichkeit des Brennstoffes (k) von
der Quelle (l) sind. Differenzieren von (L) liefert:
2
2bifijij -  + µij - νij=0
(5.90)
zusammen mit
e :=  fij
i j
(5.79)
µij(fij - fijmin)  0,
µij  0
(5.91)
îij(fijmax - fij)  0,
νij  0
(5.92)
notwendige und hinreichende Bedingungen für eine versorgungspolitisch optimale Strategie.
Für den Spezialfall quadratischer Kosten reduziert sich (5.90) auf eine lineare Beziehung, so
dass für die innere Lösung gilt
2bifiij2=
(5.93)
d. h. die erwarteten Grenzkosten für den Liefervertrag (fij) gleich sind den Kosten einer zusätzlich zu bereitstellenden Einheit an Energie. Daraus folgt, dass der Liefervertrag fij reziprok zur relativen Varianz der Liefertreue, ij2, gewählt wird; ähnliches gilt für den Kostenparameter bi. Dieses Ergebnis entspricht der ökonomischen Intuition, denn im Optimum muss
man indifferent hinsichtlich eines weiteren (infinitesimalen) Imports sein.
In der Interpretation von (5.93) wird dabei verwendet, dass â den "Schattenpreis" für eine
zusätzliche Einheit Energie beschreibt, d. h.  = J/e. Weiter ist zu beachten, dass nur die relative Varianz (ij) für die Verträge (fij) eine Rolle spielt, nicht aber die absolute, d. h. in der
Erstellung der Inputdaten ist nur die relative Vertragstreue der Lieferanten zu berücksichtigen,
nicht jedoch die absolute.
Das obige Optimierungskalkül kann auf verschiedene Arten gelöst werden, etwa durch Ausnutzen der Separabilität oder im Spezialfall der quadratischen Zielfunktion durch quadratische
Programmierung. Es bietet sich jedoch bei genauer Betrachtung von (5.90) - (5.92) und
(5.79) folgende Lösungsidee (durch sukzessive Approximation) an.
i) Schätze 0
Öffentliche Unternehmen
314
ii) Berechne aus (5.90) die inneren Lösungen (fij(N)) die nur von N als Paramter abhängen.
Dies erfordert im allgemeinen nicht - linearen Fall ein Newtonverfahren, im Fall von (12`)
sind aber nur lineare Gleichungen aufzulösen.
iii) Berücksichtige die Beschränkung



fijN: = 



fij ( N)
fijmin
fijmax
fijmin  fij(N)  fijmax
wenn: fijmin  fij(N)
fijmax  fij(N)
zur Bestimmung eventueller Randlösung.
iv) Berechne aus der Beziehung
e =   fij()
i j
unter Einbeziehung der Beschränkungen aus (5.81) ein neues N + 1. Dies erfordert wieder
im allgemeinen ein Nullstellenverfahren, im obigen Spezialfall jedoch reduziert sich die Bestimmung von N + 1 auf eine explizite Beziehung.
v) Solange N - N + 1 nicht klein genug ist setze in ii) fort.
vi) Überprüfe, ob die notwendigen und hinreichenden Kuhn - Tucker Bedingungen (5.90) (5.92) tatsächlich erfüllt sind.
15.3 Die österreichische Energieversorgung als Beispiel
Als Beispiel betrachten wir die Primärenergieversorgung Österreichs aus 16 verschiedenen
Quellen durch vier Energieträger: Kohle, Erdöl, Erdgas, Strom - primär (Wasserkraft) und aus
vier Regionen: OECD, OPEC und andere Entwicklungsländer, Osteuropa (Rußland, Polen),
Österreich. Die Inputdaten für dieses Beispiel sind in den den folgenden Tabellen zusammengestellt. Die Abb. 15.3 zeigt den Erzeugungskoeffizient der Wasserkraft sowohl im Jahresdurchschnitt als auch für den Jänner, der eine relative Streuung von 8 bzw 17 Prozent über
den Zeitraum 1955 - 1983 aufweist (berechnet aus Daten entnommen aus der Brennstoffstatistk 1981). Mit einer ähnlichen Unsicherheit in den Lieferungen ist wohl bei kaum einer
anderen Versorgungsquelle zu rechnen. Tatsächlich liegen die Vorteile der Wasserkraft in den
günstigen Kosten. Im folgenden Beispiel werden jedoch die OPEC und Öllieferungen aus
dem COMECON ähnlich unsicher beurteilt. Zwischen der Unsicherheit der Wasserkraft und
dem Risiko eines Lieferstopps bei anderen Energieträgern besteht der Unterschied, dass erstere statistisch erfassbar, abschätzbar und somit kalkulierbar sind. Dieser qualitative Unter-
Öffentliche Unternehmen
315
schied muss im folgenden Beispiel vernachlässigt werden. Das Prinzip der konvexen Kosten
bei Ausfall von erwarteten Lieferungen - teure thermische Stromerzeugung ersetzt hydraulischen Stromausfall im trockenen kalten Winter - bleibt aber erhalten.
Abb. 15.3: Variation der Wasserkrafterzeugung in Österreich
Tabelle 5.2 zeigt die für das Rechenbeispiel subjektiv bewertete relative Streuung in den Lieferungen. Die einzig statistisch berechnete Größe ist die (beträchtliche) Schwankung des Angebots an heimischer Wasserkraft. Sie dient, da es nur auf die relative Streuung ankommt, als
Referenzfall. Alle anderen Annahmen über die Liefertreue scheinen wohl am oberen Ende
plausibler Annahmen, d. h. dramatisieren eher die Bedeutung des Aspektes der Versorgungssicherheit.
Tabelle 5.2: relative Streuung in den Lieferungen (Prozente)
Energieträger
OECD
OPEC
Osteuropa ÖSTERREICH
-- -- -- -- -- -- -- -- -- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - Kohle
5
0
3
.1
Erdöl
2
10
10
.1
Erdgas
1
15
5
.1
Wasserk.
0
0
0
8.0
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
Öffentliche Unternehmen
316
Die folgenden zwei Tabellen zeigen die möglichen Lieferquellen und die maximal möglichen
Lieferungen. Für Österreich wurden dabei aktuelle die Produktionsquoten eingesetzt ausgenommen Wasserkraft, wo eine 30 % Expansion auf das maximale Potential zugelassen wird
(die entsprechende Zahl ist in äquivalenten Primäreinheiten ausgedrückt). Die Lieferungen
aus der als "sicher" eingeschätzten OECD werden bei Öl und Gas um 50 PJ über die aktuellen
Lieferungen hinaus als möglich zugelassen.
Tabelle 5.3: Möglich Lieferquellen (indiziert mit *)
Energieträger OECD
OPEC
COMECON ÖSTERREICH
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - Kohle
*
*
*
Erdöl
*
*
*
*
Erdgas
*
*
*
*
Wasserk.
*
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- - - - - - - - -
- - - - - - -
Tabelle 5.4: Maximale Liefermengen (fijmax) - Petajoule
Energieträger OECD
- - - - - - - - - - - - - - - - - - - - Kohle
Erdöl
100
Erdgas
50
Wasserk.
- - - - - - - - - - - - - - - - - - - - - - - - - - - -
OPEC
Osteuropa
ÖSTERREICH
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - 38
57
52
350
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- - - - - - -
- - - - - - -
Die Beschränkungen über die minimalen Ströme sichern die Ausnutzung der Wasserkraft (die
ohne diese Beschränkung nur zu einem geringen Teil genützt werden würde) und die nicht
substituierbaren Anteile des Ölkonsums: Verkehr + Petrochemie, die der OPEC dem COMECON zugeordnet wurden, siehe Tabelle 5.5. Die Tabelle 5.6 listet die typische Zusammensetzung des Eneregieverbrauchs.
Öffentliche Unternehmen
317
Tabelle 5.5: Minimale Liefermengen fijmin (PJ)
Energieträger OECD
OPEC
Osteuropa
ÖSTERREICH
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - Kohle
Erdöl
136
79
Erdgas
Wasserk.
245
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - Tabelle 5.6: Tatsächliche Liefermengen - Petajoule
Energieträger OECD
OPEC
Osteuropa ÖSTERREICH
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - Kohle
47
0
64
38
Erdöl
63
234
108
57
Erdgas
1
0
144
52
Wasserk.
0
0
0
245
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - Die Variation in der Konsumentenrente ist eine Möglichkeit zur Quantifizierung der Verluste
für die Konsumenten aus dem Ausfall eines Brennstoffes. Es sei hier nur wiederholt, dass die
Konsumentenrente die Ersparnis jener Konsumenten mißt, die bereit gewesen wären mehr zu
zahlen.
Als versorgungspolitisches Ziel kann nun postuliert werden, dass der Verlust an Konsumentenrente durch das Ausbleiben von geplanten Lieferungen minimal wird. Also für jeden
Brennstoff i beschreibt


 fi



 g(x)dx - fig(fi)
0





 Fi



-  g(x)dx - Fig(Fi) 
0



(5.94)
den sozialen Verlust (Gewinn) bei Ausbleiben (Überschuß) an Lieferungen fi - Fi. Dabei bezeichnet gi die (inverse) Nachfragefunktion nach dem Brennstoff i. Falls eventuelle Ausfälle
tatsächlich über den Marktmechanismus gelöst werden, d. h. durch entsprechende Preissteigerungen, dann ist die Konsumentenrente eine gute und sinnvolle Approximation. Mögliche
Öffentliche Unternehmen
318
Überschüsse werden dabei positiv bewertet, da sie zu einem niedrigeren Preis führen. Insbesonders die jüngste Schwemme auf den Energiemärkten hat gezeigt, dass Unsicherheiten
nicht nur in die Richtung eines Embargos gehen müssen, sondern durchaus auch in die Richtung von Überschüssen und daraus resultierenden niedrigen Preisen gehen könnten.
Für den Spezialfall einer linearen Nachfrage nach dem Brennstoff i, gi = i + ßiFi, i > 0, ßi
< 0 für jeden Brennstoff i, errechnet man für (5.94):
ßi
- - - - (Fi2 - fi2)
2
(5.95)
Da die Lieferungen Fij normalverteilt und unkorreliert sind gilt, dass die Erwartung des Ausdrucks in der Klammer von (5.95) gleich der Varianz von Fi ist. Daraus folgt die quadratische
Kostenstruktur (5.88) als soziale Zielgröße, wobei bi = - ßi/2. Das heißt, dass die quadratische
Zielfunktion (5.88) sowohl zur Beschreibung von (technischen) Adaptionskosten als auch zur
Evaluierung des sozialen Verlustes über die Konsumentenrente herangezogen werden kann,
wenn linearen Nachfragen postuliert werden.
Die Parameter für die Konsumentenrente wurden aus empirischen Schätzungen von Nachfragebeziehungen kalibriert. In Wirl (1987) werden Nachfrageelastizitäten kurz - und langfristig
für den sektoriellen Brennstoffverbrauch geschätzt. Basierend auf diesen Schätzungen werden
aggregierte kurzfristige Nachfragekurven gegenüber den Primärenergiepreisen kalibriert, wobei die folgende Beziehung zwischen End - und Primärenergiepreiselastizität verwendet wird.
Sei:
Y die Enenergienachfrage nach einem Brennstoff
pe der Preis je Einheit Endenergie die sich aus
pm dem Importpreis und einem additiven Aufschlag 
zusammensetzt: pe = pm + 
e, m die kurzfristige Nachfrageelastizität respektive der
Endverbraucherpreise bzw. respektive dem Preis für
Primärenergie
dann gilt:
Öffentliche Unternehmen
319
ln Y
Y pe pm pe
pm
m:=  =   - - - - = e - ln pm pe pm Y pe
pe
(5.96)
da (pe/pm) = 1, so dass die Primärpreiselastizität immer (absolut) geringer als die des Endenergiepreises ausfällt. Die folgende Tabelle 5.7 fasst die Annahmen über die Preiselastizitäten zusammen und leitet daraus unter Hypothese einer linearen Nachfrageapproximation die
Kostenkoeffizienten bi ab.
Tabelle 5.7: Kurzfristige Preiselastizitäten (e,m) und Kosten Koeffizient (bi)
Industrie Klein Verkehr
Sekundär
Primär
bi
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - Kohle - .12 - .90
0.00
- .40
- .18
0.24
Erdöl - .22 - .51
- .30
- .32
- .15
Erdgas - .22 - .44
0.00
- .27
- .17
0.22
Strom - .17 - .26
0.00
- .21
- .02
0.21
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
- - - - - - - - - - - - - - - - - - 0.38
- - - - - - - - - - - - - -
Die Ergebnisse diese Beispiels sind in der unten stehenden Tabelle 5.8 zusammengestellt.
Dabei zeigt sich, dass zusätzliches Erdöl nur aus OECD Quellen bezogen werden sollte. Analog sollte Gas aus dem OECD Raum als auch von der OPEC die einseitige Abhängigkeit von
der Sowjetunion reduzieren. Die daraus resultierenden Brennstoffanteile sind jedoch in etwa
in Übereinstimmung mit der momentanen Marktverteilung.
Tabelle 5.8: Optimale Lieferkontrakte (PJ)
Energieträger OECD
OPEC
Osteuropa
ÖSTERREICH
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - Kohle
72
0
119
38
Erdöl
100
136
79
58
Erdgas
50
26
79
52
Wasserkraft
0
0
0
245
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - Der versorgungspolitische "Preis" für die aktuelle Verteilung ist eine 69 % Verschlechterung
gegenüber dem Optimum. Trotz dieser scheinbar substantiellen Verschlechterung resultiert
jedoch nur ein unbedeutender Verlust, ausgedrückt in monetären Einheiten, aus dieser Abweichung. Daher scheinen die externen Effekte der Versorgungspolitik für einen weiten und relevanten Bereich der Energiepolitik als vernachlässigbar! Dies kontrastiert stark die Einschät-
Öffentliche Unternehmen
320
zung durch Politiker und andere Entscheidungsträger. Diese Aussage ist insbesonders deshalb
überraschend (und deshalb robust), da extrem hohe Untreue in den Lieferungen vorausgesetzt
wurde.
15.4 Zusammenfassung
Die Versorgungssicherheit spielt eine zentrale Rolle in der Energiepolitik. So ist es eine der
Hauptaufgaben der International Energy Agency (IEA) die Versorgung der Industrieländer
mit Energieträgern sicherzustellen bzw. die Versorgungssicherheit zu erhöhen. Trotz der Bedeutung des Aspektes der Versorgungssicherheit, wurde dieser Aspekt in ökonomischen Analysen des Energiemarktes vernachlässigt. Die Vernachlässigung ist erklärbar, durch den Optimismus der Ökonomen, die davon ausgehen, dass jeder Handel, z. B. auch der Handel mit
Erdöl, beiden Parteien nützt. Da nun dieser Handel auch im Interesse der Produzenten liegt,
sind Embargos139, und daraus folgende Versorgungsprobleme der Konsumentenländer, kaum
zu erwarten. Diese Arbeit versucht beide Aspekte zu integrieren: die Sorge der Politiker um
die Versorgungssicherheit eines Landes wird ernst genommen und basierend auf einem ökonomischen Kalkül wird die optimale Energieversorgung aus versorgungspolitischer Sicht errechnet. Neben der Bestimmung des optimalen Mixes an Primärenergieträgern erlaubt diese
Analyse auch eine Abschätzung des externen Effektes der Versorgungssicherheit, das heißt,
die Abschätzung der möglichen sozialen Kosten, die aus der Unsicherheit von Lieferungen
resultieren.
Das Problem, Versorgungspolitik ergibt sich nur unter folgenden grundlegenden Annahmen140:
- Unsicherheiten der tatsächlichen Liefermengen;
- die Adaption bei Unterbleiben von vertraglichen Lieferungen verursacht konvexe (höhere
Ausfälle führen zu überproportionalen) Kosten.
Unter diesen Voraussetzungen werden die Entscheidungsträger versuchen, die Verträge für
Liefermengen an Primärenergie, differenziert nach Energieträger und Herkunftsland, so auszuwählen, dass die erwarteten Anpassungskosten, aufgrund mangelnder Liefertreue eines
Vertragspartners, (spezifiziert nach Land und Brennstoff) minimal werden. In dieses Kalkül
sind bestimmte Randbedingungen einzubringen, z. B. bereits abgeschlossene Verträge, die
nicht mehr revidiert werden können, Forcierung bestimmter Energiequellen aus anderen, nicht
versorgungspolitischen Gründen - z. B. Nutzung der Wasserkraft - usw.
Für die quantitative Analyse wird dabei folgende technische Voraussetzung getroffen: die
tatsächlichen Lieferungen sind normal verteilt; der Vertrag legt nur die mittlere Liefermenge
139Die Verknappung 1973/74 war niemals ein effektives Embargo. Da insbesonders in der Energiewirtschaft die
Zuverlässigkeit eine hohe Rolle spielt, ist es für jeden Produzenten wichtig die Reputation eines zuverlässigen
Vertragspartners zu erwerben. Dies reduziert erheblich die Wahrscheinlichkeit eines Embargos aus kurzfristigen,
opportunistischen Gründen - politisch oder ökonomisch bedingt.
140Sind diese Voraussetzungen nicht erfüllt, dann stellen sich keine versorgungspolitischen Fragen, weil dann
keine Vorsorge optimal ist.
Öffentliche Unternehmen
321
fest. Das bedeutet, dass die tatsächlich gelieferten Mengen sowohl über als auch unter dem
Kontrakt liegen können. Jedoch aufgrund der Eigenschaft konvexer Anpassungskosten werden Ausfälle bedeutend stärker bestraft als eventuelle Überschüsse für gut befunden werden.
Die Wahl der Normalverteilung wurde primär durch die Unsicherheiten im Dargebot der
Wasserkraft gewählt. Eine alternative Formulierung wäre die Alternativverteilung zu nehmen,
so dass mit einer gewissen Wahrscheinlichkeit ein Kontrakt erfüllt bzw. mit der Residualwahrscheinlichkeit verletzt wird und überhaupt nichts geliefert wird. Insbesonders hat die
jüngste Schwemme auf den Energiemärkten gezeigt, dass Unsicherheiten nicht nur in die
Richtung eines Embargos gehen müssen, sondern durchaus auch in die Richtung von Überschüssen und daraus resultierenden niedrigen Preisen gehen können.
Dieser Ansatz wurde auf die Frage der österreichischen Energieversorgung angewandt. Die
Kosten, die aus fehlenden Mengen an einem Brennstoff anfallen, werden durch die Konsumentenrente bzw. Änderungen der Konsumentenrente approximiert. Die Konsumentenrente
gibt die gesamte Zahlungsbereitschaft der Konsumenten über den tatsächlichen Umsatz hinaus an; das ist jener monetäre Term, den die Konsumenten eigentlich bereit gewesen wären,
über den Marktpreis für einen Brennstoff zu bezahlen. Diese Größe gibt somit die zusätzliche
Konsumentenersparnis bei Überschüssen bzw. die Kosten und Verluste aus einer Unterversorung an. Basierend auf empirischen Nachfragebeziehungen für Brennstoffe, nach Wirl
(1987), wurden die Parameter der Nachfragefunktionen und durch Integration die Parameter
der Konsumentenrente bestimmt. Die Tabelle 5.2 zeigt Annahmen über die relative Liefertreue bei einzelnen Brennstoffen und Bezugsregionen. Die Schwankungen in der Wasserkraft
sind substantiell. Daher konnte die Ausnützung der Wasserkraft nur durch Restriktionen sichergestellt werden. Die Forcierung nationaler Energiequellen wurde durch die Hypothese
sicherer Bezugsquellen implementiert. Diese Annahme ist im allgemeinen nicht zutreffend
wie am besten die lokale Kohleversorgung in Großbritannien dokumentiert. Das heißt, vom
Standpunkt des Konsumenten aus gesehen - der Souverän in ökonomischen Analysen - ist
die heimische Versorgung nicht wirklich immer sicherer als Importe. Alle anderen Schwankungen in den Lieferungen - scheinen nach Meinung der Autoren - am oberen Ende plausibler Bandbreiten zu liegen.
Die Abb. 15.4 zeigt das dazugehörige optimale Versorgungskonzept für Österreich. Trotz der
Annahme hoher Unsicherheit der Lieferungen resultieren daraus verhältnismäßig geringe
externe Effekte, d. h. der versorgungspolitische, monetäre Verlust bei der tatsächlichen Deckung des Energiebedarfes ist gering (verglichen mit dem versorgungspolitischen Optimum).
Mit anderen Worten, "Energiesparen" ist aus versorgungspolitischer Sicht kaum zu rechtfertigen und die Vernachlässigung von versorgungspolitischen Gesichtspunkten ist in erster Näherung zulässig. Denn die Betrachtung von unsicheren Lieferungen führt zu keinen Kosten, die
in signifikanter Relation zu den Brennstoffpreisen stehen.
Öffentliche Unternehmen
Abb. 15.4: Primärenergieversorgung Österreichs
322
Anhang: Mathematische Grundlagen
323
16 Einige mathematische Grundlagen
In diesem Kapitel sind einige mathematische Begriffe und Sätze teilweise ohne Beweis zusammengestellt. Die erste Sektion stellt einige allgemeine wichtige Sätze zusammen die zweite Sektion betrachtet das Problem der nichtlinearen Optimierung.
16.1 Sätze aus der Analysis
Definition: Eine Funktion f von x heißt konkav auf einem Intervall [a,b]  R, wenn für alle :
0   1 und für alle x1, x2[a,b] mit x1  x2 gilt:
f(x1) + (1 - ) f(x2)  f( x1 + (1 - )x2)
(1)
Bemerkung: Dies besagt, dass der gewichtete Durchschnitt der Funktionswerte an den Punkten x1, x2, das ist die entsprechende Verbindungsgerade von f(x1) nach f (x2) unter den Funktionswerten liegt, vgl.die Abb. 16.1:
λ f(x1) + (1- λ) f(x2)
a
x1
f (x)
x2
b
x
Abb.16.1: Darstellung einer konkaven Funktion
Satz: Ist f eine konkave Funktion und x1  x2 dann gilt:
(x2 - x1) f' (x1)  f(x2) - f(x1)  (x2 - x1) f'(x2)
d. h. der Anstieg von f fällt. Ist f zweimal stetig differenzierbar, dann ist f dann und nur dann
konkav, wenn: f"  0
Die obige Definition kann auf n - dimensionale Funktionen verallgemeinert werden: f: Rn - >
R, so dass f für Vektroen x1  x2 die Bedingung (1) erfüllt.
Anhang: Mathematische Grundlagen
324
Analog kann der obige Satz für n - dimensionale Funktionen angewandt werden:
n i i f
f(x2) - f(x1)   (x2 - x1)  (x1)
i=1
xi
und eine zweimal stetig differenzierbare Funktion f: ist dann und nur dann konkav, wenn die
Hessische Matrix:
2f
 i,j = 1, n
xixj
negativ semidefinit ist.
Bemerkung: Die Eigenschaft, ob eine Matrix positiv oder negativ semidefinit oder indefinit
ist, lässt sich durch Berechnung der Hauptminoren einer Matrix bestimmen. Die Matrix ist
negativ definit, wenn die Vorzeichen der Determinanten das Vorzeichen alternierend wechseln.
a11 a12 a13 ... a1n
a21 a22 a23 ... a2n
A:= ..................…….
..................….…..
an1 an2 an3 ... ann
Semidefinit bedeutet, dass einzelne Determinanten verschwinden können. Die Matrix ist positiv semidefinit wenn
A:=[aij] i,j = 1,...n
für alle k  n gilt: Mk:=[al,m] l,m = 1,...k
und Mk 0 ;
Mk heißt k - te Hauptminor.
Positiv definite Matrizen haben die Eigenschaft, dass die damit assoziierten quadratischen
Formen xtAx nur Vektoren mit positiven Elementen liefern, xtAx > 0.
Analog liefern negativ semidefinite Matrizen nichtpositive Werte für die dazugehörige quadratische Form. Die Definition ist dementsprechend analog:
Die Matrix
A:=[aij] , i,j = 1,...n
Anhang: Mathematische Grundlagen
325
ist negativ definit, dann und nur dann wenn:
sign (Mk) = ( - 1)k
Beispiel:
A=

a11 a12
a11 a 22

A semi - positiv definit ... a11  0 und
was wiederum impliziert, dass a22  0, da a12 = a21.
(a11
a22
-
a12
a21)0
A negativ - semi definit ... a11  0 und (a11a22 - a12 a21)  0
Implizites Funktionen - Theorem
sei f: E < Rn + m - - > Rn
eine stetig differenzierbare Abbildung so dass:
f(a,b) = 0, a = (a1,... an)t
b = (b1,...bm)t
Dann gibt es offene Teilmengen
U < Rn + m und W < Rn
wobei
(a,b)tU und bW so dass:
für alle yW: existiert ein eindeutiges x = (x1,...xn)t:
(x,y)tU und f(x,y) = 0
so dass x = g(y) geschieden werden kann mit a = g(b);
f(g(y),y) = 0 für alle yW
und die partiellen Ableitungen können aus
1
g  f   f 

y  x   y 
berechnet werden, falls
f
invertierbar ist.
x
Bemerkung: Dieses Theorem lässt uns unter den obigen Bedingungen aus einer Beziehung:
Anhang: Mathematische Grundlagen
326
f(x,y) = 0 nach x = g(y) auflösen.
Da in der Ökonomie sehr oft Optimierungsprobleme studiert werden, wo die notwendigen
Bedingungen in der Regel zu einer Bedingung f = 0 führen, ist dieses Theorem sehr hilfreich
zur Studie qualitativer Eigenschaften.
Beispiel: f: R2 - - > R
f(x,y)=0
=> Es existiert ein g: y = g(x)
f
fy:= - - = 0
y
und:
fx
g' = - - fy
Beispiel: f(x,y)=x2 + y2 - 1, W ist der Durchschnitt positive Teilraum des R2 mit dem Einheitskreis, W={(x,y)R2 so dass x > 0, y>0 und x2 + y2  1}, dann ist y = 1 - x2.
16.1.1 Enveloppentheorem
Betrachte folgendes Maximierungsproblem:
max f(x,a) , f:R¨ - - >R
x
und sei x(a) die optimale Lösung abhängig vom Parameter a.
M(a):= f(x(a),a)
Für qualitative Analysen ist dabei oft wichtig die Änderung in f(x(a),a) oder x(a) abhängig
von der Änderung in a zu untersuchen. Die Kettenregel liefert:
dM f dx f
- - = - - - - + - da x da a
Da jedoch x(a) die optimale Wahl für jedes a darstellt, also
f
- - =0
x
erhält man:
dM f
- - = - a
da
Anhang: Mathematische Grundlagen
327
d. h. die Änderung in der Zielfunktion des optimal adaptierten ist gleich der Änderung der
Zielfunktion ohne Beachtung der Variationen in x, so dass die gesamte Ableitung und die patielle Ableitung zusammenfallen.
16.1.2 Leibnizsche Regel:
Definition: Sei
(x,t) - - > f(x,t)
eine stetige Funktion definiert auf [a,b]x[A,B] und seien:
x - - > (x) x - - > ß(x)
stetig auf [a,b] wobei:
A  (x)  B
A  ß(x)  B
dann heißt:
 ( x)
g(x) =
 f ( x, t )dt
 ( x)
ein Parameterintegral.
Satz: Falls alle Funktionen: f,  und ß stetig differenzierbar sind, dann ist auch g(x) stetig differenzierbar und die Ableitung kann aufgrund der Formel:
 ( x)
g'(x) = f(x,ß(x))ß'(x) - f(x,(x))'(x) +
berechnet werden.
f
( x, t )dt
x

( x)


Anhang: Mathematische Grundlagen
328
16.2 Nichtlineare Optimierung
In diesem Kapitel wird folgendes Problem studiert:
F(x)
max
x
xXRn
d. h. eine reellwertige Funktion F:X Rn - - > R ist zu maximieren über einen vorgegebenen
Wertebereich X. Die Elemente des Vektors x werden dabei oft Instrument genannt. Falls ein
Element von X ist, xX, dann wird x als "zulässig", ansonsten: xX als "unzulässig" bezeichnet ("feasible", "infeasible")
Definition: x*X heißt ein lokales Maximum, wenn es eine  - Umgebung um x* gibt, N so
dass:
F(x*)  F(x) für alle xN.
Definition: x*X heißt ein globales Maximum, wenn:
F(x*)  F(x) für alle xX.
Existenzsatz von Weierstraß: F stetig X abgeschlossen und beschränkt, dann existiert ein globales Optimum.
Bemerkungen: X = Rn, F zweimal stetig differenzierbar, dann sind die Bedingungen für ein
lokales Optimum bekannt.
Notwendig: Verschwinden der ersten Ableitung:
F
- - =0
xi
hinreichend:
i = 1,...,n
F
= 0 und
xi
 2F 

 negativ semidefinit
 xi x j 
Annahmen: Im folgenden seien alle Funktionen F, g, h, ... stetig differenzierbar.
16.2.1 Das Problem von Lagrange
Ist der Lösungsraum X durch Gleichungen beschrieben, etwa
g(x) = b
oder ausgeschrieben:
Anhang: Mathematische Grundlagen
329
g1 (x1,...xn) = b1
...............
gm (x1,...xn) = bm
erhält man das Problem von Lagrange.
max
x
F(x)
so dass:
g ( x) = b
Angenommen:
F(x1,x2) - - > max
x1,x2R
soll maximiert werden unter der Beschränkung:
g(x1, x2) = 0
wobei (g/x2) = 0 sei, so dass das implizite Funktionstheorem angewandt werden kann:
h: x2=h(x1)
g
x
und: h' =  1
g
x2
Daher kann x2 = h(x1) für x2 eingesetzt werden. Differenzieren nach x1 liefert jetzt als notwendige Bedingung für ein Maximum:
F F
F
F g/x1
 +  h' =  -   = 0
x1 x2
x1 x2 g/x2
Analog differenzieren wir die Beschränkung (erlaubt da: g  0)
g g
g
g
g/x1
 +  h'  0 =  -  
x1 x2
x1
x2 g/x2
Anhang: Mathematische Grundlagen
330
Definieren wir:
F

x2
y: = 
g

x2
erhalten wir für die erste der obigen zwei Gleichungen:
F
g
 - y  = 0
x1
x1
Multiplizieren der Identität für die Beschränkung mit F/x2 liefert:
g F
F/
F
  -   = 0
x1 x2 g/x2 x2
also:
F
g
 - y  = 0
x2
x2
Jedoch die zwei Bedingungen:
F
g
 - y  = 0
x1
x1
F
g
 - y  =0
x2 x2
und die Beschränkung:
g(x1,x2) = 0
können als stationärer Punkt einer Funktion:
L:= F(x1, x2) - y g(x1,x2)
abgeleitet werden.
Dieses Prinzip gilt für beliebige Dimension für F und g. Die Funktion L heißt die Lagrange
Funktion, die Variable y der Lagrangemultiplikator.
Anhang: Mathematische Grundlagen
331
Notwendige Optimalitätsbedingungen für das Problem von Lagrange
Satz: Angenommen x* sei ein lokales Optimum des Problems von Lagrange und die Jacobi
Matrix der Beschränkungen [g/x] habe maximalen Rang, dann existiert ein Vektor yRm,
so dass gilt:
L:= F + yt (b - g)
t
L F  g 

y=0

x x  x 
L
- - = b - g(x) = 0
y
Dieser Satz liefert (n + m) Gleichungen um (n + m) Variablen zu bestimmen.
Satz: Die notwendigen Bedingungen sind hinreichend für ein lokales Optimum, wenn in der
Matrix

0
 L 
t

yx   g 
  x 

2
g 
x 
  2 L  


 xi x j  
die letzten (n - m) Hauptminoren ihr Vorzeichen wechseln beginnend mit ( - l). Dies ist äquivalent zur Forderung der Konkavität von L
Interpretation der Lösung
t
I.
F
 g 
=   y
x
 x 
oder ausgeschrieben:
F
gi
 = Σ yi 
xi j=1
xi
m
d. h. der Gradient am optimalen Punkt x* setzt sich als gewichteter Durchschnitt der Beschränkungsableitungen zusammen.
II., der Lagrange Multiplikator kann als "Schattenpreis" interpretiert werden. Dazu eignet sich
eine Verallgemeinerung des Envelopentheorems auf n - dimensionale Probleme:
max f(x,a)
f: Rn x R - - > R
Anhang: Mathematische Grundlagen
332
g(x,a) = 0 g: Rn x R - - > R
Sei L(x,y,a) = f(x,a) - ytg(x,a)
die Lagrange Funktion und sei x(a) die optimale Wahl von x, und M(a) = f(x(a),a)
Dann gilt aufgrund des Enveloppentheorems
L (x(a),a)
f
g
dM
t
- - =  = - - - y - a
a
a
da
Analog zum eindimensionalen Fall des Envelopentheorems spielt nur die partielle Ableitung
eine Rolle im Differentialquotienten.
Der Beweis gibt sich einfach, da:
dM
n f xi f
- - =  - -  + - i=1 xi a a
da
nach Anwendung der Kettenregel. Aufgrund der Annahme, dass x(a) optimal ist muss x(a) die
Bedingungen erster Ordnung für ein Optimum erfüllen:
f
g
t
- - =y - x
x
Weiter gilt: g(x(a),a)  0. Daher ergibt Differenzieren:
n g dxi
g
   + - - = 0
i=1 xi da a
und Substitution liefert die behauptete Beziehung:
dM f g
- - = - - - yt - da a a
Dieses Ergebnis erlaubt uns die Lagrange Multiplikatoren zu interpretieren, sei:
M (a): = max f(x)
gi(x) – ai = 0
i=1,...k
Anhang: Mathematische Grundlagen
gi
dann:  = - 1
ai
333
f
und
- - = 0 liefert
a
aufgrund des Envelopentheorems:
M
 = yi
ai
d. h. yi gibt uns die Änderung des Zieles als Folge einer marginalen Relaxation der Beschränkung.
16.2.2 Das Theorem von Kuhn – Tucker
Problem:
max F(x)
x
wobei:
g (x) ≤ 0
Annahmen: F, g stetig differenzierbar, F: Rn - > R, g: Rn - > Rm
F konkav und g konvex
"constraint qualification": x0: g(x0) < 0
L:= F(x) - µtg(x) = F(x1, x2, …, xn) -
m
  g x , x ,..., x 
j 1
j
j
1
2
(1)
g j
L F
g F m

 t

 j
 0, i  1,...n
xi xi
xi xi j 1
xi
(2)
µj gj(x*1,...x*n) = 0 µj0
(3)
gj(x*1,...x*n)  0
n
j = 1,...,m
j = 1,...,m
Die Bedinungen (1) - (3) sind unter den obigen Annahmen notwendig und hinreichend für
ein globales Optimum x*.
Bemerkungen:
1. falls entweder F nicht global konkav ist und/oder g nicht global konvex ist, dann sind die
Bedingungen (1) - (3) nur mehr notwendig.
Anhang: Mathematische Grundlagen
334
2. die obigen Bedingungen erlauben uns das Nachprüfen, ob ein bestimmter Punkt tatsächlich
das Optimum darstellt, helfen jedoch kaum zum Auffinden dieses Punktes, da dies zum Raten
aktiver/nicht aktiver Beschränkungen führt.
3. Die Variablen µjR + heißen Kuhn - Tucker Multiplikatoren und haben eine ähnliche Interpretation wie der Lagrange Multiplikator.
Beispiel:
max F(x) : = 6x1 + 4x2 + 2x3 - 3x12 - 2x22 - (1/3) x32
g1(x):
0
- x1
g2(x):
g3(x):
g4(x):
0
- x2
- x3
x1 + 2x2 + x3 - 4
0
0
Die Zielfunktion F ist konkav, die Beschränkungen sind konvex, so dass das Kuhn - Tucker
Theorem angewandt werden kann.
4
L:=F(x) -  gi(x)µi
i=1
L
-- - = 6 - 6x1 + µ1 - µ4 = 0
x1
L
-- - = 4 - 4x1 + µ2 - 2µ4 = 0
x2
L
2
-- - = 2 - - x3 + µ3 - µ4 = 0
3
x3
x1 µ1 = 0
x2 µ2 = 0
x3 µ3 = 0
µ4 (x1 + 2x2 + x3 - 4) = 0
µi > 0, i= 1, 2, 3, 4
'Rate': xi > 0, i=1, 2, 3 => µi = 0, i= 1, 2, 3
Anhang: Mathematische Grundlagen
335
Daraus folgt:
µ4
x1 = 1 - -6
µ4
x2 = 1 - -2
3µ4
x3 = 3 - 
2
Einsetzen in die letzte ("complementary slackness") Bedingung:
3µ4
µ4
4
µ4 { (1 - -- ) + 2 (1 - -- ) + (3 - ) - 4} = 0
6
2
2
3
=> µ4 = 4
so dass:
7
5
15
x1 = - , x2 = - , x3 = -8
8
8
die optimale Lösung (x1,x2,x3) bestimmt ist.
Diese Lösung erfüllt alle Voraussetzungen und Bedingungen des Kuhn - Tucker Theorems
und muss daher optimal sein. Deshalb kann keine andere Lösung diese Bedingungen erfüllen.
Angenommen: x1 = 0, x2 > 0, x3 > 0, (x1 + 2x2 + x3 - 4) < 0. Daraus folgt:
µ1 > 0, µ2 = µ3 = 0 = µ4
daraus folgt: 6 - x1= - µ1
=> µ1= - 6 < 0 "Widerspruch"
16.2.3 Ökonomische Nachfragetheorie
Ein individueller Konsument kauft und wählt die Güter so aus, dass sie seinen individuellen
Präferenzen entsprechen und die Ausgaben durch sein Einkommen gedeckt werden können.
Dieses Auswahlproblem kann formal etwa in der folgenden Form dargestellt werden:
X Konsumraum, X  Rn +
Anhang: Mathematische Grundlagen
336
u(x1,...xn): X -- > R
heißt eine Nutzenfunktion, so dass für x1, x2 X, zwei Konsumbündel, > "Präferenzrelation":
x1 > x2 heißt das Konsumbündel 1 wird dem Bündel 2 vorgezogen.
Dann: u(x1) > u(x2)
Die Existenz einer solchen Nutzenfunktion ist unter relativ allgemeinen und plausiblen Annahmen gesichert.
Weiter seien:
p = (p1,...pn)t .......... Güterpreise
und
M ....... das individuelle Einkommen.
Der Konsument versucht durch folgendes Optimierungskalkül eine Konsumentscheidungen
zu treffen.
max u (x1,...xn)
so dass:
n
 pi xi  M
i=1
Falls es keine Sättigung gibt, u/xi > 0 global, dann ist im obigen System die Ungleichung
bindend in der Form einer Gleichung. Wir definieren die Lagrange Funktion:
L = u - y(ptx - M)
so dass die notwendigen Bedingungen ein Optimum verlangen
L u
 =  - ypi = 0 i=1,...,n
xi xi
L
oder: -- = ptx - M = 0
y
Anhang: Mathematische Grundlagen
337
u

xi
pi
 = -u
pj

xj
das Verhältnis des Grenznutzens (=Substitutionsrate - (absolut) zwischen Güter i und j: für
denselben Nutzen; Beispiel (Hilfe: Implizites Funktionstheorem)) muss gleich dem Preisverhältnis sein. Falls tatsächlich eine optimale Lösung existiert und die Bedingung 2. Ordnung
strikt erfüllt werden, kann für die optimalen Konsumbedingungen in Abhängigkeit der Preise
und Einkommen aufgelöst werden (Implizites Funktionen Theorem).
xi*=fi(p1, ... Pn, M)
Diese Nachfragefunktionen erfüllen gewisse theoretische Eigenschaften, z. B. müssen homogen vom Grade 0 sein, d. h. eine proportionale Änderung aller Preise und Einkommen sollte
die Nachfrage unverändert lassen.
Definition: Die Funktion v(p,M) definiert als:
v(p,M):= u(x*)= u(f1(p1,...Pn,M),..., fn(p1,...Pn,M))
heißt indirekte Nutzenfunktion.
Die indirekte Nutzenfunktion gibt den maximalen Nutzen bei gegebenen Preisen und Einkommen, der durch die optimale Wahl des Konsumbündels x* möglich ist:
v(p,M): =max u(x1,...xn)
x
so dass: ptx - M = 0
Anwendung des Envelopentheorems zur Berechnung von

v u
 t

y
px  M
pi pi
pi
und Verwendung von:




u
 0,
pxt  M = xi
pi
pi
v
und y = -- ergibt:
M
v
v
 = - xi* -pi
M
Anhang: Mathematische Grundlagen
oder:
338
v

pi
xi* = - 
v
-M
die letzte Version heißt die Identität von Roy.
Definition: Sei xi = fi(p1,...pn,M) eine Nachfragefunktion dann heißt:
 ln fi
ij.: =  heißen Preiselastizitäten, wobei
 ln pj
ii ... Eigenpreiselastizität
ij. ... Kreuzpreiselastizität
 ln fi
yi: =  die Einkommenselastizität heißen
 ln M
Bemerkung: i) ii =
 ln f i

 ln pi
 fi

fi
= 
 pi

pi
∆ xi
so dass:   ii
xi
ii die prozentuelle Änderung der Nachfrage (∆xi/xi) bei einer 1%igen Änderung des Preises
angibt (pi/pi)
ii) "Faustregel" - Preiselastizitäten negativ, Einkommenselastizität positiv, was jedoch i. A.
nicht gültig ist und nicht aus dem obigen Optimierungskalkül abgeleitet werden kann, "Giffensches" - Paradoxon.
Die Konsumentenrente wird hier für Marshall'sche Nachfragekurven definiert, also für Gütermärkte, wo die Einkommenseffekte von Preisänderungen vernachlässigbar sind. Die Anwendung dieses Prinzips geht auf Dupuit's Anwendung auf öffentliche Projekte zurück, Dupuit (1844), der damit der Vorläufer der modernen Kosten - Nutzenanalyse ist. Dies Konzept
Anhang: Mathematische Grundlagen
339
wurde dann von Marshall (1890) aufgegriffen und von Hotelling (1932, 1938) verallgemeinert und auf die öffentliche Preisbildung angewandt,
Die Intuition hinter der Konsumentenrente ist einfach: Abschätzung der Ersparnis der Konsumenten bei einem gegebenen Marktpreis. Die Abb.16.2 zeigt eine inverse Nachfragekurve.
Beim Preis p1 = P(x1) bzw. bei angebotener Menge x1 und inverser Nachfrage P(x) stellt die
schraffierte Fläche die Ersparnis jener Konsumenten dar, die eigentlich bereit gewesen wären,
mehr zu zahlen.
P
CS
P(x)
p1
p1x1
0
x1
x
Abb. 16.2: Darstellung der Konsumentenrente
Dies stellt sich arithmetisch als das Integral weniger dem Umsatz dar:
x

P(y)dy - xP(x)
0
(1)
Die Fläche in (1) misst die gesamte Zahlungsbereitschaft (willingness to pay) über den tatsächlichen Umsatz hinaus. Als der Bruttoüberschuss wird oft nur das Integral in (1) bezeichnet, und unter dem Nettoüberschuss versteht man den Bruttoüberschuss weniger den Produktionskosten C(x), die bei der Erzeugung von x anfallen:
x

P(y)dy - C(x)
0
(2)
Anhang: Mathematische Grundlagen
340
Hotelling verallgemeinerte dieses Ergebnis auf n - Güter. Sei nun p = (p1,...,pn)t durch ein
inverses Nachfragesystem P bestimmt: p = P(x), P = (P1(x),...,Pn(x)), x = (x1,...,xn)t. Dann
wird die Konsumentenrente analog, als Linienintegral (entlang einer Kurve F vom Ursprung 0
nach x) und der gesamte soziale Überschuss nach Abzug der Produktionskosten
W=
n
  P ( y)dy   C ( x)
F ( 0 , x ) i 1
i
i
(3)
bestimmt. Da (3) die natürliche Verallgemeinerung von (2) darstellt, ist die Interpretation über
die gesamte Zahlungsbereitschaft analog. Im allgemeinen ist dieses Linienintegral
pfadabhängig, außer man addiert sogenannte Integrabilitätsbedingungen:
Pi/xj = Pj/xi , für alle i,j
(4)
Somit folgen für den Spezialfall unabängiger Nachfragen, pi = Pi(xi) die Integrabilitätsbedingungen unmittelbar. Die Bedingung (4) kann auch unter schwächeren und allgemein plausibleren Bedingungen abgeleitet werden, etwa wenn die Budgetbeschränkung der Konsumenten
durch die Wahl der hier betrachteten n - Güter nicht bindend ist.
Lemma: q = f(x,y), f konkav, fx > 0, fy > 0 => Isoquanten sind konvex und fallend.
Beweis: f(x,y) - qo = 0
Explizite Darstellung von y aufgrund des Impliziten Funktionentheorems:
y (xj, qo) = g(x,qo)
dg
fx
y'(x) = -- = - -- < 0
dx
fy
d
d fx
y"(x) = -- y'(x) = - -- -dx
dx fy
d fx fy [fxx + fxyy'] - fx [fyyy' + fxy]
-- -- =  =
dx fy
f y2
= y' [fxy fy - fyy fx] + [fy fxx - fx fxy]

f y2
Division durch fy > 0
Anhang: Mathematische Grundlagen
- fx
- fx
= y' fxy  fyy + fxx  fxy
fy
fy

fy
Aber:
fx
y' = - -- ...
fy
so dass:
fxy y' + (y')2 fyy + fxx + fxy y'
= (y')2 fyy + 2fxy y' + fxx =
Dies kann als quadratische Form angeschrieben werden:
 f xx
(1, y') 
 f xy
f xy   1 
f yy   y`
die negativ definit ist, wenn f konkav ist
d fx
d fx
=> -- -- < 0 und y''(x) = - -- -- > 0 ■
dx fy
dx fy
< 0,
341