Spektrum der Wissenschaft 2009 03

Transcription

Spektrum der Wissenschaft 2009 03
EDITORIAL
Reinhard Breuer
Chefredakteur
Gibt es ein Gütesiegel
für Wissenschaft?
Zum Alltag in unserer Redaktion gehört es,
mit ungebetenen Zusendungen beglückt zu
werden. Regelmäßig erreichen uns mehr oder
weniger dicke Kuverts, in denen sich eng
beschriebene Manuskripte verbergen, oft
ergänzt um handgemalte Zeichnungen. Dazu
nicht selten die herrische Aufforderung, das
Beigelegte unverzüglich zu publizieren. Bisweilen ergeht sogar die Anweisung, sich zuvor mit
einem Anwalt in Verbindung zu setzen (bei dem
das Opus hinterlegt sei) und eine Schweigeverpflichtung zu unterschreiben.
Selbst dann bliebe ja immer noch die
Aufgabe, zu prüfen, ob es sich hier um solide
Wissenschaft handelt. Manchmal genügt ein
kurzer Blick, um festzustellen, wes Geistes Kind
der Einsender ist. Doch wirkliche Mühe machen
uns Texte, die sich nicht schon auf den ersten
Blick als verstiegene Spekulation entlarven. Wo
verläuft die Trennlinie zwischen seriöser
Forschung und Pseudowissenschaft? Und wie
unterscheidet man Unfug von einer neuen,
vielleicht sogar revolutionären Theorie?
Gern wird auf Sündenfälle der Vergangen­heit ver­wiesen, wie etwa auf Alfred Wegeners
Hypo­these von der Kontinentalverschiebung,
die jahrzehntelang von Fachleuten abgelehnt
wurde – bis sie sich schließlich als die »richtige« Theorie durchsetzte.
Sir Karl Popper hat sich ausgiebig mit dieser
Trennlinie befasst. Dabei ging es ihm nicht, wie
der Wissenschaftsphilosoph einmal schrieb, um
die Frage »Wann ist eine Theorie wahr?« oder
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
»Wann ist eine Theorie akzeptabel?«. Vielmehr
wollte er zwischen Wissenschaft und Pseudowissenschaft unterscheiden, »wohl wissend,
dass Wissenschaft oft irrt, und dass Pseudowissenschaft über die Wahrheit stolpern« könne.
Seitdem gilt als Kanon, dass sich Wissenschaft durch Widerlegbarkeit auszeichnet. Was
nicht widerlegbar sei, behaupte auch nichts
Überprüfbares und sei daher unwissenschaftlich. Als Beispiele für Pseudowissenschaft nannte Popper Astrologie, aber auch Marxismus,
Freuds Psychoanalyse und Alfred Adlers Individualpsychologie. Hinzufügen könnte man heute
den Kreationismus und verwandte »Gottes­
beweise«. Unser Essay befasst sich diesmal mit
dem heutigen Status von Poppers Widerlegbar­
keitskrite­rium – denn die Praxis der Forschung
wird dem nicht immer gerecht (S. 72).
Autokrise allerorten: Kurzarbeit in den Werkshallen, volle Parkplätze bei den Händlern.
Keiner kauft mehr Neuwagen, der alte tut’s auch
noch eine Weile. Da, plötzlich geht ein Ruck
durch die Lande. Wie zuletzt auf der Detroiter
Autoshow präsentieren nun alle großen Auto­
firmen bislang stiefmütterlich behandelte
Alternativen – vor allem Elektroautos.
Liegt hier die mobile Zukunft? Unser Autor
Reinhard Löser hat sich angesehen, womit sich
die Branche retten will (S. 88).
Herzlich Ihr
3
Inhalt
astronomie
& physik
Folgenschwere
solare Superstürme
24
46
38
medizin & Biologie
Neuen Therapien bei Brustkrebs
medizin & Biologie
Der Ameisenforscher Bert Hölldobler
aktuell
astronomie & physik
medizin & biologie
10 Spektrogramm
24r Solare Superstürme – die verkannte Gefahr
38r Therapeutische Fortschritte
bei Brustkrebs
Auch Bienen können zählen · Chirurgi­
sche Mikrohände · Halluzinogener Kaffee · Feingefühl dank Fingerrillen u. a.
Träte erneut ein großer Sonnensturm
wie 1859 auf, würde er unsere techni­
sierte Zivilisation hart treffen. Die
Schäden an Satelliten und Stromnetzen
dürften sich auf Dutzende Milliarden
Euro belaufen
12 Bild des Monats
Amtseinführung aus dem All
14 Bose-Einstein-Kondensat
mit Swing Raffinierte Kopplung von Mechanik
und Quantenmechanik
15 Kelchproteine für den Kampf
gegen Krebs
Neuartige »Anticaline« können wie Anti­
körper Zielmoleküle selektiv ausschalten
19 Tief verwurzeltes Statusdenken Unser Gehirn ist darauf programmiert,
Hierarchien zu beachten
20 Tanz der Moleküle zeigt
lebendiges Bild der Zelle
Neue Methode zur Abbildung von
Molekülen in lebendem Gewebe
23 Springers Einwürfe
Mit Robotern leben und sterben
Schlichting!
32Schnell und schmerzlos
Schlürfen als physikalisches Phänomen
Physikalische Unterhaltungen
33Venus-Romantik
Wenn die Wolkendecke der Venus nicht
so dicht wäre, hätten ihre Bewohner
einen atemberaubenden Blick auf die
leuchtende Erde – alle acht Jahre
Weitere Rubriken
3Editorial: Ein Gütesiegel für
Wissenschaft?
8 Leserbriefe
9 Impressum
71 Im Rückblick
106 Vorschau
Die Heilungschancen haben sich schon
deutlich verbessert. Nächstes Ziel: eine
Behandlung, die auf den individuellen
Tumor zugeschnitten ist
Serie (Teil IiI) Evolution
46r Der Ameisenfreund
Der Verhaltensphysiologe Bert Hölldobler
ist weltweit einer der besten Kenner von
Ameisen und ihren Staaten. Von ihm und
dem Soziobiologen Edward O. Wilson
erschien kürzlich das Buch »The Super­
organism«
102Rezensionen:
Thomas Bührke Die Sonne im Zentrum
Roland Glaser Heilende Magnete – strahlende Handys
C. Cederbaum Wie man einen Schokoladendieb entlarvt
E. B. Burger et al. Wie man den Jackpot knackt
S. Borchardt et al. Das Murmeltier-Buch
78
erde & umwelt
Hier spaltet sich Afrika in zwei Teile
96
Titel
Die Zähmung des Unendlichen
mensch & geist
TITEL
Serie (Teil VI)
Die gröSSten Rätsel der Mathematik
54Anderthalbfach unendlich
Eines der hartnäckigsten Probleme
der Mengenlehre, die Kontinuums­
hypothese, nähert sich einer über­
raschenden Lösung
54
erde & umwelt
78
r Die
Geburt eines Ozeans
Eine Fotoreportage lässt Sie hautnah
miterleben, wie Afrika im AfarDreieck auseinanderbricht und sich
ein neues Meeresbecken öffnet – ein
ebenso seltenes wie dramatisches
Ereignis
technik & computer
Multisensitive Bildschirme
technik & computer
86Eins, zwei, MP3
Datenkompression macht Musik mobil
Serie (Teil II) Autos der zukunft
88Die Zukunft fährt elektrisch
Tanken wir schon bald an der Steckdose? Getrieben von Befürchtungen
über einen weltweiten Abschwung
forcieren Autohersteller die Entwicklung
von Elektrofahrzeugen – mit Erfolg
96Sensible Bildschirme
64Die Biologie des Wohlklangs
Displays, auf denen sich mehrere Ob­
jekte und Dokumente parallel bewegen
lassen, könnten bald Tastaturen und
Computermäuse überflüssig machen
Die Wahrnehmung von Dur und Moll
gilt meist als erlernt, nicht als physiolo­
gisch vorgegeben. Doch unsere Autoren
sehen darin einen Effekt der Obertöne
Wissenschaft im Alltag
Essay
Wissenschaft & Karriere
100»Von der Forschung
bis zur Produktion«
72Manche Schwäne sind grau Wissenschaftstheoretiker suchen nach
einem realistischen Begriff wissenschaft­
licher Wahrheit
Titelmotiv: Linas Vepstas (http://linas.org)
Die auf der Titelseite angekündigten
Themen sind mit r gekennzeichnet; die mit
markierten Artikel finden Sie auch in
einer Audioausgabe dieses Magazins, zu
beziehen unter: www.spektrum.de/audio
Siemens-Wissenschaftler Martin Stetter
über die Unterschiede zwischen univer­
sitärer und industrieller Forschung
Online
Mercedes-Benz
Hari Manoharan, Stanford University
Dies alles und vieles mehr
finden Sie in diesem Monat
auf www.spektrum.de.
Lesen Sie zusätzliche Artikel,
diskutieren Sie mit und
­stöbern Sie im Heftarchiv!
spektrumdirekt Auf dem Weg zum Quantencomputer
www.spektrumdirekt.de/quanten
Interaktiv Sind Elektroautos die Zukunft?
www.spektrum.de/artikel/980525
Tipps
Interaktiv
Schnell, prägnant, informativ
Sind Elektroautos die Zukunft?
Aktuelle Kurzmeldungen aus der Welt der
Wissenschaft, sorgfältig nachrecherchiert und
prägnant formuliert, bieten unsere aktuellen
Online-Spektrogramme, von denen wir im
gedruckten Heft nur eine Auswahl präsentieren können
Richtig: Sie brauchen kein Benzin im Tank.
Doch der Strom, mit dem sie fahren, muss
erst einmal erzeugt werden und stammt
bislang vor allem aus Kohle- und Atomkraftwerken. Geht der Automobilbau trotzdem in
die richtige Richtung (siehe auch »Die Zukunft fährt elektrisch« auf S. 88)? Stimmen Sie
ab und diskutieren Sie mit unter
Nur einen Klick entfernt
Machen Sie mit!
Die Wissenschaftszeitung im Internet
Neues aus der Hirnforschung
Was macht ein Genie aus? Wie lassen sich
menschliche Verhaltensweisen erklären?
Wie funktioniert das extrem komplexe Zusammenspiel der Neurone? Immer tiefer
blicken Hirnforscher dank bildgebender
Verfahren in das Gehirn. »spektrumdirekt«
hält Sie auf dem Stand der Dinge
www.spektrum.de/spektrogramm
www.spektrumdirekt.de/hirnforschung
Auf dem Weg zum Quantencomputer
Noch ist er Zukunftsmusik: der Computer,
der nach quantenmechanischen Prinzipien
arbeitet. Doch Forscher beherrschen es
immer besser, einzelne Elementarteilchen
zur Informationsverarbeitung zu nutzen
www.spektrumdirekt.de/quanten
www.spektrum.de/artikel/980525
Neue Bücher im Überblick
Wie hieß noch gleich das Buch, das kürzlich
in »Spektrum der Wissenschaft« so hoch
gelobt wurde? Unsere Rezensionen finden Sie
im Gesamtüberblick auch online. Schauen Sie
nach frischem Lesestoff auf
www.spektrum.de/rezensionen
Feindliche Brüder im Geiste
Es klingt nach erbitterter Gegnerschaft, wenn
ein Autor die Evolutionstheorie bestätigen, ein
anderer sich dagegen vom Darwinismus verabschieden möchte. Doch so weit liegen die
beiden Streithähne Joachim Bauer und Sean
B. Carroll gar nicht auseinander, sagt
»spektrumdirekt«-Rezensent Andreas Jahn
www.spektrumdirekt.de/artikel/980308
ob. links: B. Knutson et al., JNeuroSci 2005, Vol.25, No.19; ob. rechts: M. Beauregard et al., JNeuroSci 2001, Vol.21, No.18;
u. links: J.C. Britton et al., Neuroimage 2006, Vol.31, No.1; U. rechts: B. Knutson et al., Neuroreport 2008, Vol.19, No.5
Für Abonnenten »Warum das Gehirn kein Schweizer Taschenmesser ist«
www.spektrum-plus.de
Für Abonnenten
Ihr monatlicher Plus-Artikel
zum Download
»Warum das Gehirn kein Schweizer
Taschenmesser ist«
Alle Publikationen unseres
Verlags sind im Handel,
im Internet oder direkt über
den Verlag erhältlich
www.spektrum.com
[email protected]
Telefon 06221 9126-743
Freigeschaltet
Ausgewählte Artikel aus Gehirn&Geist
und Sterne und Weltraum kostenlos
online lesen
»Psychologie des Erfolgs«
Bunte Bilder aus dem Hirnscanner sind heute
allgegenwärtig. Doch die leuchtenden Farben
verleiten dazu, sich stark vereinfachte, oft sogar
irreführende Vorstellungen von der Arbeitsweise des Gehirns zu machen
Begabung, das familiäre Umfeld – oder einfach
nur Glück? Was manche Menschen erfolgreicher macht als andere, erforschen Psychologen. Eine ihrer wichtigsten Erkenntnisse: Mit
Intelligenz kommt man zwar weit, mit Durchhaltevermögen aber noch weiter
Dieser Artikel ist für Abonnenten
frei zugänglich unter
Diesen Artikel finden Sie als KOSTENLOSE
Leseprobe von Gehirn&Geist unter
www.gehirn-und-geist.de/artikel/978573
www.spektrum-plus.de
FReigeschaltet
»Sternentstehung mit höchster Effizienz«
www.astronomie-heute.de/artikel/980529
»Sternentstehung
mit höchster Effizienz«
Überraschenderweise entstehen im Quasar
J1148+5251 jährlich Sterne mit einer Gesamtmasse von über 1000 Sonnenmassen –
1000-mal mehr als in unserer Milchstraße
Diesen Artikel finden Sie als kostenlose
Leseprobe von Sterne und Weltraum unter
www.astronomie-heute.de/artikel/980529
Die Wissenschaftsblogs
Dünger für die Weltmeere?
Bringt man gelöstes Eisen in den Ozeanen
aus, verhilft es Algen zur Blüte, wodurch
wiederum der Atmosphäre Kohlendioxid
entzogen wird. Ein Rezept gegen den
Klimawandel? Um ein entsprechendes
Experiment namens LOHAFEX im Süd­
pazifik wurde kürzlich heftig gestritten
(siehe »Wer A sagt, muss auch B sagen«,
www.spektrum.de/artikel/980243). Exklusiv versorgen die wissenslogs Sie nun mit
weiteren Informationen: Hier finden Sie
den Blog der Forscher auf der Polarstern –
jenem Forschungsschiff, von dem aus das
Experiment nun tatsächlich durchgeführt
wird. Lesen Sie mit, diskutieren Sie mit –
online unter
www.wissenslogs.de
www.scilogs.de
leserbriefe
Aufstand: Hughes Léglise-Bataille; Enten: InTheSunStudio, Charro Badger
Vergleich der freien Weglänge energie­
reicher Partikel wird der Wert von 50
Megaparsec genannt und mit dem
Durch­messer unserer Milchstraße ver­
glichen. Deren Ausdehnung beträgt aber
nicht 30 Megaparsec, wie im Artikel genannt, sondern nur 30 Kiloparsec – also
ein Tausendstel des angebenen Werts.
Die freie Weglänge ist damit sogar 1700mal größer als der Milchstraßendurchmesser und nicht nur 1,7-mal.
Dr. Michael König, Rimbach-Zotzenbach
So einfach
ist die Physik nicht
Die Fälschung erkennt man schon beim Vergleich der Schatten bei Menschen und Enten.
Durch genaues Hinsehen
Fälschung erkennen
Wie entlarvt man gefälschte
Digitalfotos? Januar 2009
Die beiden Fotos auf S. 91 und S. 92
lassen sich auch ohne computergestützte Analyse leicht als Fälschung
nachweisen. So hängt auf dem Foto
von Jan Ullrich das Haar der »Begleiterin« nahezu senkrecht herunter. Bei
einem echten Foto müsste das Haar
Almadraba – eine
nachhaltige
Fischfangmethode
Fischfarmen zur Rettung von
Tunfischen? Dezember 2008
Die beiden Abbildungen auf S. 73 beziehungsweise deren Untertitel passen
leider nicht ganz in den Kontext. Auf
den beiden Fotos der »Fischereiflotte vor
Südspanien« ist die traditionelle Fangmethode der ›Almadraba‹ zu sehen.
Bei dieser jahrtausendealten phönizischen Fangmethode werden im Frühsommer und Herbst weitmaschige Stellnetze vor der Küste Andalusiens installiert. Große Tunfische verirren sich im
Labyrinth des Stellnetzes und werden
schließlich wie auf den beiden Abbildungen zu sehen aus dem Kopf des
Netzes (aus dem Copo) herausgehoben.
Auch wenn dieser Vorgang archaisch
anmutet, so handelt es sich bei der Al8
wegen der Bewegung aber deutlich im
Fahrtwind flattern.
Und auf dem Foto von S. 92 sieht
man auf dem Hals der hintersten Ente
deutlich erkennbar den Schatten des
Schabels. Die Menschen auf dem Foto
werfen hingegen keinen beziehungweise nur einen sehr diffusen Schatten.
Da kein Beleuchtungswechsel (zum
Beispiel »Schattenrand«) erkennbar ist,
muss es sich ebenfalls um eine Fälschung handeln.
Jörg Michael, Hannover
madraba doch um eine bestandsschonende und nachhaltige Fangmethode,
da durch die große Maschenweite und
die Position der Netze wenig Beifang generiert wird und nur adulte Tiere über
70 Kilogramm dem Meer entnommen
werden. Vielmehr befindet sich die Almadraba-Fischerei selbst in einer Krise,
da es in den letzten Jahren (wie in Ihrem Artikel geschildert) immer weniger
adulte Tunfische gibt.
Nik Völker, Düsseldorf
Überdimensionierte
Milchstraße
Wie kosmische Strahlung ausgebremst wird
Forschung aktuell, Februar 2009
Mit großem Interesse habe ich diesen
Artikel gelesen. Leider enthält der gelungene Beitrag aber einen Fehler: Beim
Lesen im Kaffeefleck, Januar 2009
Die Erklärungen sind leider unvollständig und in einigen Teilen falsch. So stehen bei Kontakt einer Flüssigkeit mit
einem Festkörper am Rand drei (und
nicht zwei) Phasen miteinander im
Gleichgewicht (Flüssigkeit, Festkörper,
Gasphase), daher sind auch drei Grenzflächenspannungen zu berücksichtigen
(Young-Gleichung) und nicht nur zwei
»Grenzflächenenergien«. Weitere Überlegungen ergeben, dass der Rand im Kaffeefleck die Folge eines kinetischen Effekts und keineswegs ein Gleichgewichts­
phänomen ist.
Prof. Dr. Michael Bredol, Münster
Antwort des Autors:
Ich habe die von Ihnen angesprochenen
Aspekte bewusst weggelassen. In dem
Bemühen, ein alltägliches, aber physikalisch anspruchsvolles Problem auf begrenztem Raum so zu beschreiben, dass
es für gebildete Laien lesbar und verständlich bleibt, habe ich mich nach reiflicher Überlegung für diese vereinfachte
Darstellung entschieden. Oberstes Prinzip ist dabei die »Anschlussfähigkeit« der
Erklärung, so dass die Adressaten bei zunehmendem physikalischem Hintergrundwissen auf dieser Erklärung aufbauen können, ohne umzulernen. Für
Leser mit Spezialkenntnissen habe ich
auf eine Fachpublikation verwiesen. Die
Alternative darf meines Erachtens nicht
sein, auf eine Beschreibung des Phänomens für Laien zu verzichten.
Prof. Dr. H. Joachim Schlichting
(Den vollständigen Brief und die Antwort darauf finden Sie unter www.
spektrum.de/artikel/980249.)
SPEKTRUM DER WISSENSCHAFT · März 2009
… sind willkommen! Tragen Sie Ihren Leserbrief in das Online-Formular beim jeweiligen
Artikel ein (klicken Sie unter www.spektrum.de
auf »Aktuelles Heft« beziehungsweise »Heftarchiv« und dann auf den Artikel).
Oder schreiben Sie mit kompletter Adresse an:
Spektrum der Wissenschaft
Frau Ursula Wessels
Postfach 10 48 40
69038 Heidelberg (Deutschland)
E-Mail: [email protected]
Dämpfung aus
Regelkreis eliminiert
Wanted: Theorie für wilde Märkte
Springers Einwürfe, Januar 2009
Der Autor weist in seinem Einwurf völlig zu Recht darauf hin, dass die Ökonomie nur begrenzt als Wissenschaft akzeptiert werden kann, da die verschiedenen
Zweige dieser Lehre keine konsistenten
Modelle der Realwelt liefern können.
Alle Märkte sind kybernetische Netzwerke und unterliegen damit auch den
fundamentalen Gesetzmäßigkeiten der
Kybernetik und der Physik. Die Antriebs­
energie für alle Märkte erwächst aus Potenzialunterschieden, und alle Märkte bestehen aus rückgekoppelten Regelkreisen.
Nun hat die Globalisierung massive Ver-
Chefredakteur: Dr. habil. Reinhard Breuer (v.i.S.d.P.)
Stellvertretende Chefredakteure: Dr. Inge Hoefer (Sonderhefte),
Dr. Gerhard Trageser
Redaktion: Thilo Körkel (Online Coordinator), Dr. Klaus-Dieter
Linsmeier, Dr. Christoph Pöppe, Dr. Adelheid Stahnke;
E-Mail: [email protected]
Ständiger Mitarbeiter: Dr. Michael Springer
Schlussredaktion: Christina Meyberg (Ltg.), Sigrid Spies,
Katharina Werle
Bildredaktion: Alice Krüßmann (Ltg.), Anke Lingg, Gabriela Rabe
Art Direction: Karsten Kramarczik
Layout: Sibylle Franz, Oliver Gabriel, Marc Grove,
Anke Heinzelmann, Claus Schäfer, Natalie Schäfer
Redaktionsassistenz: Eva Kahlmann, Ursula Wessels
Redaktionsanschrift: Postfach 10 48 40, 69038 Heidelberg,
Tel. 06221 9126-711, Fax 06221 9126-729
Verlag: Spektrum der Wissenschaft Verlagsgesellschaft mbH,
Postfach 10 48 40, 69038 Heidelberg; Hausanschrift: Slevogtstraße
3–5, 69126 Heidelberg, Tel. 06221 9126-600, Fax 06221 9126-751;
Amtsgericht Mannheim, HRB 338114
Verlagsleiter: Dr. Carsten Könneker, Richard Zinken (Online)
Geschäftsleitung: Markus Bossle, Thomas Bleck
Herstellung: Natalie Schäfer, Tel. 06221 9126-733
Marketing: Annette Baumbusch (Ltg.), Tel. 06221 9126-741,
E-Mail: [email protected]
Einzelverkauf: Anke Walter (Ltg.), Tel. 06221 9126-744
Übersetzer: An diesem Heft wirkten mit: Dr. Markus Fischer, Dr.
Rainer Kayser, Dr. Susanne Lipps, Dr. Andrea Pastor-Zacharias,
Claus-Peter Sesín, Dr. Michael Springer.
Leser- und Bestellservice: Tel. 06221 9126-743,
E-Mail: [email protected]
SPEKTRUM
DER WISSENSCHAFT · FEBRuar 2009
Korrigenda
Missverständnisse um Darwin
Februar 2009
Thomas Henry Huxley lebte natürlich
nicht bis 1995, sondern von 1825 bis
1895.
Elliptische Kurven und eine kühne
Vermutung, Januar 2009
Bei der elliptischen Kurve y 2 = x 3–2 über
den rationalen Zahlen (Bild S. 66) ist die
Folge der Vielfachen des Punkts P falsch
angegeben worden. Richtig ist P = (1, 2),
P P = (2, 1), 3P = P P P = (3, 0),
4P = (2, 4), 5P = (1, 3), 6P = ∞. Roman
Koutny aus Gars hat uns auf den Fehler
aufmerksam gemacht. Nachfolgend die
korrigierte Version.
4
3
∞
2
1
y= 0
x =0
1
2
3
Christoph Pöppe
änderungen in allen Marktsystemen bewirkt. Alle Marktteilnehmer haben einen
wesentlichen Hemmschuh des (kurzfris­
tigen) Wachstums aus allen Systemen eliminiert: die zeitliche Verzögerung. Sie ist
in den Märkten ein wesentliches Dämpfungselement. Wenn man nun aus einem
Regelkreis die Dämpfung fast vollständig
eliminiert, so wird sehr wahrscheinlich
das System anfangen, über das normale
Maß hinaus zu schwingen.
Dieser fundamentale Eingriff in das
Regelkreissystem Weltwirtschaft lässt für
mich nun einige Schlüsse zu. Ohne korrigierende Eingriffe erwarte ich eine relativ zügige Aufwärtsbewegung der Kurse,
und zwar über den bisherigen Höchststand hinaus. Diese Hochphase wird
aber nicht mehr so lange wie die letzte
Boomphase andauern, nur um abrupt
und verstärkt in eine weitere Abwärtsphase zu münden. Ich denke, dass man
dem System in irgendeiner Weise wieder
mehr Dämpfung zufügen muss. Es hat
nicht notwendigerweise die zeitliche Verzögerung zu sein. Die leicht hektischen
und unkoordinierten Bemühungen der
verschiedenen Staaten haben kybernetisch eine ähnliche Wirkung. Neue Spielregeln (von staatlicher Stelle herausgegeben) erfordern eine Anpassung an die
veränderten Bedingungen und wirken
dämpfend.
Es täte der Ökonomie gut, sich intensiv mit dem Regelverhalten komplexer Systeme auseinanderzusetzen.
Briefe an die Redaktion …
4
Dr. Ulrich Grob, Hamm am Rhein
Vertrieb und Abonnementverwaltung: Spektrum der Wissenschaft
Verlagsgesellschaft mbH, c/o ZENIT Pressevertrieb GmbH,
Postfach 81 06 80, 70523 Stuttgart, Tel. 0711 7252-192, Fax 0711
7252-366, E-Mail: [email protected], Vertretungsberechtigter: Uwe Bronn
Bezugspreise: Einzelheft �€� 7,40/sFr. 14,00; im Abonnement �
€� 79,20 für 12 Hefte; für Studenten (gegen Studiennachweis)
€�� 66,60. Die Preise beinhalten �€� 7,20 Versandkosten. Bei Versand
ins Ausland fallen €� 7,20 Portomehrkosten an. Zahlung sofort
nach Rechungserhalt. Konto: Postbank Stuttgart 22 706 708 (BLZ
600 100 70). Die Mitglieder des Verbands Biologie, Biowissenschaften und Biomedizin in Deutschland (VBio) und von Mensa e. V.
erhalten SdW zum Vorzugspreis.
Anzeigen: iq media marketing gmbh, Verlagsgruppe Handelsblatt
GmbH; Bereichsleitung Anzeigen: Harald Wahls; Anzeigenleitung:
Jürgen Ochs, Tel. 0211 6188-358, Fax 0211 6188-400; verantwortlich für Anzeigen: Ute Wellmann, Postfach 102663, 40017
Düsseldorf, Tel. 0211 887-2481, Fax 0211 887-2686
Anzeigenvertretung: Berlin: Michael Seidel, Goethestraße 85,
10623 Berlin, Tel. 030 526821-841, Fax 030 7526821-828; Hamburg: Matthias Meißner, Brandstwiete 1 / 6. OG, 20457 Hamburg,
Tel. 040 30183-210, Fax 040 30183-283; Düsseldorf: Hans-Joachim
Beier, Kasernenstraße 67, 40213 Düsseldorf, Tel. 0211 887-2053,
Fax 0211 887-2099; Frankfurt: Axel Ude-Wagner, Eschersheimer
Landstraße 50, 60322 Frankfurt am Main, Tel. 069 2424-4507,
Fax 069 2424-4555; Stuttgart: Andreas Vester, Werastraße 23,
70182 Stuttgart, Tel. 0711 22475-21, Fax 0711 22475-49;
München: Bernd Picker, Josephspitalstraße 15/IV, 80331 München,
Tel. 089 545907-18, Fax 089 545907-24
Druckunterlagen an: iq media marketing gmbh, Vermerk: Spektrum
der Wissenschaft, Kasernenstraße 67, 40213 Düsseldorf,
Tel. 0211 887-2387, Fax 0211 887-2686
Anzeigenpreise: Gültig ist die Preisliste Nr. 30 vom 01. 01. 2009.
Gesamtherstellung: Vogel Druck- und Medienservice GmbH & Co. KG,
97204 Höchberg
Sämtliche Nutzungsrechte an dem vorliegenden Werk liegen bei
der Spektrum der Wissenschaft Verlagsgesellschaft mbH. Jegliche
Nutzung des Werks, insbesondere die Vervielfältigung, Verbreitung,
öffentliche Wiedergabe oder öffentliche Zugänglichmachung, ist
ohne die vorherige schriftliche Einwilligung des Verlags unzulässig.
Jegliche unautorisierte Nutzung des Werks berechtigt den Verlag
zum Schadensersatz gegen den oder die jeweiligen Nutzer.
Bei jeder autorisierten (oder gesetzlich gestatteten) Nutzung
des Werks ist die folgende Quellenangabe an branchenüblicher
Stelle vorzunehmen: © 2009 (Autor), Spektrum der Wissenschaft
Verlagsgesellschaft mbH, Heidelberg.
Jegliche Nutzung ohne die Quellenangabe in der vorstehenden
Form berechtigt die Spektrum der Wissenschaft Verlagsgesellschaft
mbH zum Schadensersatz gegen den oder die jeweiligen Nutzer.
Wir haben uns bemüht, sämtliche Rechteinhaber von Ab­bildungen
zu ermitteln. Sollte dem Verlag gegenüber der Nachweis der
Rechtsinhaberschaft geführt werden, wird das branchenübliche
Honorar nachträglich gezahlt. Für unaufgefordert eingesandte
Manuskripte und Bücher übernimmt die Redaktion keine Haftung;
sie behält sich vor, Leserbriefe zu kürzen.
ISSN 0170-2971
SCIENTIFIC AMERICAN
415 Madison Avenue, New York, NY 10017-1111
Editor in Chief: John Rennie, Chairperson: Annette Thompson,
President: Steven Yee, Vice President: Frances Newburg,
International Managing Director: Kevin Hause, Vice President,
Finance and General Manager: Michael Florek, Managing Director,
Consumer Marketing: Christian Dorbandt, Vice President and
Publisher: Bruce Brandfon
Erhältlich im Zeitschriften- und Bahnhofs­
buchhandel und beim Pressefachhändler
mit diesem Zeichen.
9
Spektrogramm
Medizin
q Mitunter genügen wenige Zellen, um
ein Herzkranzgefäß zu verengen und
schlimmstenfalls einen Infarkt auszu­lösen. Ein chirurgischer Eingriff in solch
kleinen­Dimensionen erfordert Greifin­strumente im Mikrometermaßstab. Die
gibt es, aber sie müssen bislang über
Kabel mit Strom versorgt und aktiviert
werden; zudem sind sie schlecht manövrierbar.
Einem Team um David Gracias von der
Johns Hopkins University in Baltimore
(Maryland) ist nun ein entscheidender
Fortschritt gelungen: Ihre 700 Mikrometer
messenden Greifer sind kabellos und, weil
sie eine metallische Legierung enthalten,
magnetisch durch den Körper lenkbar. Per
David H. Gracias, Johns Hopkins University
Chirurgische Mikrohände
Magnetresonanztomografie lassen sich
überdies Weg und räumliche Orientierung
exakt verfolgen.
Die Metallarme sind vorgespannt und
werden nur durch einen Kunststoffüberzug
im gestreckten Zustand gehalten. Dieser
kann durch lokale Temperaturerhöhung
auf über 40 Grad Celsius oder durch
Zugabe von Chemikalien aufgelöst werden.
Daraufhin biegen sich die metallischen
Finger nach innen: Der Greifer schließt
sich um das benachbarte Gewebe und
packt es (Bild).
Auf diese Weise gelang den Forschern
bereits die Biopsie eines Zellhaufens aus
dem Gewebe einer Rinderblase. Problematisch sei bislang nur, dass biochemische
Fluoreszenzmikroskopische Aufnahme eines
gerade durch eine Chemikalie aktivierten
Mikrogreifers, der einen Zellhaufen packt
(hier grün eingefärbt)
Signale im Körper den Greifreflex fälschlich
auslösen können, erklärt Gracias. Man
arbeite daher an spezifischeren Polymer­
überzügen.
PNAS, Bd. 106, S. 703
WErkstoffe
Auch Bienen können bis drei zählen
Biegsame trans­
parente Elektroden
Biene beim Zähltest. Die Tiere lernten
schnell, an der Menge der Objekte auf dem
Brett zu erkennen, ob sich dahinter das Zu­
ckerwasser befand.
q Menschen können Mengen von bis zu
vier Gegenständen auf einen Blick erfassen. Schon 1871 bewies das der englische
Ökonom William S. Jevons mit Hilfe einer
Schachtel Bohnen. Größere Mengen erfordern dagegen exaktes Abzählen. Einen
Blick für die genaue Zahl von einer Hand
voll Objekten demonstrierten in späteren
Versuchen auch Affen, Tauben und andere
Wirbeltiere.
10 Aber wie steht es mit Insekten? Honigbienen zum Beispiel? Das fragten sich
kürzlich Forscher um Jürgen Tautz vom
Biozentrum der Universität Würzburg. Für
Bohnen haben Bienen natürlich nichts übrig, wohl aber für ein Schälchen mit süßem
Zuckerwasser. Dieses postierten die Wissenschaftler hinter einem von zwei Brettern mit je einem Loch, durch das die
Insekten fliegen konnten. Hinter welchem
sich die Belohnung verbarg, war in der
Anzahl der auf dem Holz abgebildeten
Objekte kodiert. So hatten die Bienen im
ersten Versuch bald heraus, dass sich das
Zuckerwasser immer hinter dem Brett mit
den zwei Gegenständen befand – gleich ob
es sich dabei um rote Äpfel oder gelbe
Punkte handelte.
Das Experiment funktionierte auch mit
drei oder vier aufgemalten Objekten. Waren es mehr, scheiterten die Bienen jedoch.
Offensichtlich konnten sie die Mengen
nicht mehr auseinanderhalten, und zum
Zählen fehlen ihnen nun einmal die Finger.
Und was haben die Bienen von ihrem
intuitiven Zahlensinn? Die Würzburger
Biologen vermuten, dass sie so zum
Beispiel schnell abschätzen können, wie
viele Blüten an einem Zweig oder andere
Bienen auf einer Blüte sitzen. Damit wissen
sie sofort, ob sie landen oder besser
durchstarten sollten.
q Bislang ist Silizium das Material der
Wahl für die meisten Produkte der Halb­
leiterindustrie, doch nun erwächst ihm
vielleicht bald Konkurrenz durch einen erst
vor wenigen Jahren entdeckten Stoff:
Graphen. Es besteht aus einer einzelnen
Schicht wabenartig angeordneter Kohlenstoffatome. Innerhalb der Flächen ist es
außerordentlich steif und rissfest, nach
vorne und hinten lässt es sich dagegen
leicht biegen. Überdies zeichnet sich das
neuartige Material durch außergewöhnliche elektrische Eigenschaften aus. Da die
einzelnen Kohlenstoffschichten bisher
Eine durchsichtige Silikonfolie mit aufge­
brachtem Graphenmuster bildet einen trans­
parenten Elektronikbaustein, der sich elas­
tisch verbiegen lässt.
Ji Hye Hong
Mario Pahl, BEEgroup der Universität Würzburg
Insekten
PLoSOne, Bd. 4, e4263
SPEKTRUM DER WISSENSCHAFT · März 2009
astrophysik
Entstehung
über­gewichtiger Sterne
q Sterne mit mehr als der 20-fachen Sonnenmasse
leuchten so hell, dass der Strahlungsdruck auf das
umgebende Gas ihre Anziehungskraft übersteigt.
Dadurch sollten sie kein Material mehr aufnehmen
und nicht weiter wachsen können. Doch wie man aus
Beobachtungen weiß, schaffen es manche Sterne aus
bislang rätselhaften Gründen, mindestens die
120-fache Masse der Sonne zu erreichen.
Mark Krumholz von der University of California in
Santa Cruz und Kollegen konnten jetzt in einer drei­
dimensionalen Simulation das Rätsel lösen. Demnach
kommt es bei der Wechselwirkung zwischen Gravi­
tation und Strahlungsdruck zu Instabilitäten, die ein
praktisch unbegrenztes Wachstum erlauben. Eine
Rolle spielt dabei insbesondere die Rayleigh-TaylorInstabilität, die an der Grenzfläche zweier flüssiger
oder gasförmiger Substanzen unterschiedlicher Dichte
auftreten kann. Wenn die schwerere über der leichteren liegt, dringen beide fingerartig ineinander ein.
Analog wird das Material um den Stern nicht
gleichmäßig davongetrieben. Vielmehr tun sich durch
Verwirbelung Kanäle auf, durch die Gas, der Schwerkraft folgend, lokal nach innen strömen kann. So erhält der Stern Nachschub und wächst weiter.
Science, Online-Vorabveröffentlichung
mühselig vom Graphit abgespalten wurden,
lag die Ausdehnung der Plättchen allerdings nur im Mikrometerbereich.
Mittels chemischer Gasphasenabscheidung ist Byung Hee Hong von der Sung­
kyunkwan University in Korea zusammen
mit Kollegen bei den Abmessungen nun ein
gewaltiger Sprung gelungen: Die Forscher
erzeugten bis zu vier Quadratzentimeter
große Graphenfilme.
Dazu leiteten sie eine gasförmige
Mischung von Kohlenwasserstoffen über
eine erhitzte Nickelfolie. Auf ihr schieden
sich einzelne Kohlenstoffatome ab und
vereinigten sich zur wabenartigen Graphenstruktur. Durch rasches Abkühlen
erhielten Hong und seine Kollegen schließlich einen ultradünnen, flexiblen und
transparenten Film, von dem sich das
Nickel leicht wegätzen ließ. Auf andere
Trägermaterialien übertragen, könnten
solche Filme nach Meinung der Forscher
als Elektroden für Solarzellen oder Displays dienen.
Nature, Online-Vorabveröffentlichung
SPEKTRUM DER WISSENSCHAFT · März 2009
Dieser Schnappschuss der Entstehung eines massereichen Sterns in einer dreidi­
mensionalen Computersimulation zeigt die verwirbelte Struktur des umgebenden
Gases auf Grund der Wechselwirkung zwischen Strahlungsdruck und Gravitation.
NEUROPSYCHOLOGIE
Halluzinogener Kaffee
q Eine heiße Tasse Kaffee am Morgen bringt
so manchen überhaupt erst in Schwung.
Dass man es mit dem anregenden Getränk
aber nicht übertreiben sollte, mahnt eine
englische Studie: Demnach verdreifacht sich
bei sieben Tassen am Tag die Wahrscheinlichkeit, Stimmen von Menschen zu hören
oder Objekte zu sehen, die gar nicht da sind.
Diesem Zusammenhang kamen Simon
Jones von der Durham University und seine
Kollegen auf die Spur, als sie 200 Studenten zu ihrem täglichen Konsum von Kaffee,
Tee, Schokolade oder Koffeintabletten
befragten. Anschließend sollten die Probanden Angaben über halluzinatorische Erlebnisse machen. Dabei zeigte sich eine klare
Korrelation: Wer viel Koffein zu sich nahm,
hatte öfter Sinnestäuschungen.
Jones bietet auch eine mögliche Er­klä­
rung, warum Koffein Halluzinationen fördert. Die Droge steigert das Stressniveau.
Ernst Rose / PIXELIO
Mark Krumholz, UCSC / Science, AAAS
Problematisches Anregungsmittel
Als Folge davon schüttet die Nebennierenrinde das Steroidhormon Cortisol aus.
Dieses wiederum beeinflusst über den
Fettstoffwechsel die Wirkung von Adrenalin – ein Hormon, das für seine psychischen
Nebenwirkungen wie Ruhe­losigkeit,
Nervosität oder Angst bis hin zu psychotischen Reaktionen bekannt ist.
Charles Fernyhough, ein Kollege von
Jones, hält die Studie allerdings nicht für
wirklich beweiskräftig. Seiner Ansicht nach
könnten Studenten mit einer bereits
vorhandenen Anlage zu Halluzinationen
einfach mehr Koffein zu sich nehmen –
beispielsweise, um die durchaus Angst
einflößenden psychischen Phänomene
besser zu ertragen.
Personality and Individual Differences, Bd. 46, S. 562
11
q Ein aus fünf Quarks bestehendes Teilchen namens N* meinen Maxim Polyakov
von der Universität Bochum und Viatcheslav Kuznetsov von der Universität Kyungpook in Daegu (Südkorea) jetzt in Daten
des Bonner Elektronenbeschleunigers ELSA
entdeckt zu haben.
N* erscheint als so genannte Resonanz
nach Photonenbeschuss von Kernteilchen
bei 1685 Megaelektronenvolt und existiert
zehnmal länger als alle bekannten Anregungszustände, die bei anderen Energien
auftreten. Ferner lässt sich über die Zerfallsprodukte des Teilchens sein Aufbau
aus fünf Quarks erschließen. Laut Polyakov
entstehen solche Pentaquarks, wenn
Photonen ein virtuelles Quark-AntiquarkPaar des Vakuums in ein reales Paar
umwandeln, das sich anschließend mit
jenen drei Quarks vereinigt, aus denen das
Kernteilchen besteht.
Sollte das N* mehr als ein statistisches
Artefakt sein, stützt es die Theorie der
Quantenchromodynamik. Demnach verdankt ein Kernteilchen seine Eigenschaften
auch den umgebenden virtuellen Quarks
und nicht nur den drei realen, aus denen es
aufgebaut ist.
Seit der 1997 von Polyakov und Kollegen veröffentlichten Vorhersage der Pentaquarks sind Physiker weltweit auf der Suche danach. Schon 2003 gab es indirekte
Hinweise auf ein Theta-Teilchen genanntes
Exemplar, die sich aber nicht erhärten
ließen. ELSA habe bisherige Experimente – etwa der europäischen Kollaboration
Amtseinführung
aus dem All
Trotz stürmisch-kalten Wetters strömten am 20. Januar mehr als eine Million Menschen
in Washington zusammen, um die Vereidigung Barack Obamas zum 44. Präsidenten
der USA mitzuerleben. Der kommerzielle Satellit GeoEye-1 schoss dieses hoch aufgelös­
te Foto der enor­men Menschenmassen aus 681 Kilometer Höhe. Der Blick fällt auf die
Spektrum der Wissenschaft
Mitarbeit: S. Czaja, V. Spillner und M. Ruhenstroth
Experimenteller Beleg für Pentaquark
Das nun vermutlich gefundene exotische
Teilchen namens N* setzt sich aus je zwei
up- und down-Quarks sowie einem anti­
down-Quark zusammen.
GRAAL – verfeinert und erweitert, sagt
Polyakov. Auch wenn die jetzigen Daten
mit einer Signifikanz von drei Standardabweichungen noch nicht als endgültiger
Beweis ausreichten, halte er sie für überzeugend.
Pressemitteilung der Universität Bochum
GeoEye
Spektrogramm
Teilchenphysik
12 SPEKTRUM DER WISSENSCHAFT · März 2009
Biomechanik
Feingefühl dank Fingerrillen
de Physique Statistique in Paris und
Kollegen wollten diesen Vorgang nun
genauer ergründen. Dazu machten sie
Versuche mit einer künstlichen Fingerspitze, bestehend aus einem mechanischen
Sensor mit einer elastischen Gummikappe.
Damit registrierten die Forscher die
Frequenzspektren der Vibrationen, die
Julien Scheibert, CNRS-ENS Paris / Science, AAAS
q Das Rillenmuster in unseren Finger­
kuppen sorgt für einen eindeutigen Fingerabdruck. Aber das kann nicht sein biologischer Zweck sein. Bisher dachte man, die
Leisten und Rillen auf der Fingerbeere
seien zum besseren Festhalten von Objekten da. Das ist aber, wie sich nun zeigte,
längst nicht alles. Die geriffelten Fingerkuppen helfen uns auch, die Feinstruktur
von Oberflächen genauer zu ertasten.
Unebenheiten im Abstand von weniger
als 0,2 Millimetern auf einer Unterlage
erkennen Menschen mit einem speziellen
Mechanorezeptor, dem Vater-Pacini-Körperchen. Er registriert Vibrationen in der
Haut, die entstehen, wenn die Fingerspitzen über eine fein strukturierte Oberfläche
gleiten. Julien Scheibert vom Laboratoire
beim Gleiten über eine fein strukturierte
Oberfläche entstehen. Bei glatter Gummikappe ergab sich eine breite, unspezifische
Kurve. War die künstliche Fingerspitze jedoch gerillt, dominier­te im Spektrum eine
bestimmte Frequenz. Diese hing vom Abstand der Rillen und von der Gleitgeschwindigkeit ab. Menschen streichen
gewöhnlich mit 10 bis 15 Zentimetern pro
Sekunde über eine Oberfläche, und die
Papillarleisten auf dem Finger liegen etwa
einen halben Millimeter auseinander. Daraus ergibt sich eine Vibrationsfrequenz
von 200 bis 300 Hertz. Das entspricht genau dem Wert von 250 Hertz, auf den das
Pacini-Körperchen am stärksten anspricht.
Science, Online-Vorabveröffentlichung
Die Rillen auf der Oberfläche des mensch­
lichen Fingers ergeben nicht nur den charak­
teristischen Fingerabdruck, sondern unter­
stützen auch den Tastsinn.
bild des monats
National Mall zwischen dem Kapitol (rechts) und dem Obelisken des Washington Monument (links). Was aussieht wie riesige Insektenschwärme oder Ameisenhaufen, sind dichte
Menschentrauben. Sie sammelten sich an den Stufen des Kapitols, auf denen die Amts­einführung stattfand, und vor diversen Großbildschirmen, die das Ereignis übertrugen.
FORSCHUNG AKTUELL
Quantenphysik
Bose-Einstein-Kondensat mit Swing
Forscher an der ETH Zürich haben ein Bose-Einstein Kondensat in einer Spiegelkammer
an elektromagnetische Felder angekoppelt und dabei eine neue Spielwiese im Grenzbereich
zwischen klassischer Physik und Quantenmechanik eröffnet.
Von Stefan Maier
A
uch wer den Physikunterricht in der
Schule in schlechter Erinnerung hat,
denkt doch vielleicht gern an Versuche
über mechanische Schwingungen zurück.
An Federn aufgehängte Massen oder oszillierende Pendel ergeben eindrucksvolle
Effekte, und auch die mathematische
Beschreibung ist nicht so schwer, solange
die Auslenkungen klein genug bleiben.
Da solche harmonischen Schwingungen
in vielen Zusammenhängen auftauchen –
von Wasserwellen bis zur Stromverteilung in der Radioantenne –, kann man
hier mit wenig Grundwissen eine Menge
Physik verstehen.
Die Forschergruppe von Tilman Esslinger am Institut für Quantenelektronik
der Eidgenössischen Technischen Hochschule Zürich hat nun ein besonders
schönes Experiment über mechanische
Oszillationen im Grenzbereich zwischen
klassischer Physik und Quantenmechanik veröffentlicht (Science, Bd. 322, S.
235). Dabei lässt der Strahlungsdruck
eines Lasers in einer Spiegelkammer ein
quantenmechanisches Objekt schwingen. Und als Folge davon wird das Licht
periodisch reflektiert oder durchgelassen.
Wechselwirkungen zwischen Strahlung und mechanischen Systemen machen sich viele Geräte zu Nutze, angefangen von CD-Spielern, die per Laser
feinste Vertiefungen in der Platte abtasten, bis zu Detektoren für Gravitationswellen, die auf optischem Weg winzige
Abstandsänderungen zweier Spiegel messen. Noch um einiges interessanter wird
es, wenn der Strahlungsdruck der Photonen ausreicht, das Objekt, auf das er
trifft, in Bewegung zu setzen. Das bekannteste Beispiel dafür sind wohl optische Pinzetten. Dabei werden mikroskopisch kleine Gegenstände im Brennpunkt eines Laserstrahls festgehalten und
lassen sich so etwa durch eine Flüssigkeit
bewegen. Auch die Laserkühlverfahren
zur Herstellung ultrakalter Gaswolken
14
beruhen auf dem Impulsübertrag zwischen Photonen und Atomen.
Die Physik der Wechselwirkung zwischen Lichtwellen und mechanischen
Schwingungen lässt sich in einem einfachen Versuch mit zwei Spiegeln veranschaulichen, die parallel zueinander aufgehängt sind. Zwischen ihnen kann nun
ein Lichtstrahl hin- und herreflektiert
werden – im Idealfall beliebig oft. Allerdings funktioniert das nur für Licht, dessen Wellenlänge ein ganzzahliger Teiler
des doppelten Spiegelabstands ist. Anderenfalls würde sich der Strahl, dessen
Wellenzüge sich beim Hin- und Herlaufen überlagern, nach mehrfachen Reflexionen selbst auslöschen.
Spieglein an der Wand
In der Fachwelt spricht man von einem
eindimensionalen Hohlraumresonator
und optischen Moden, die sich darin
ausbilden. Sind die Spiegel halb durchlässig, kann ein Lichtstrahl an einer Seite
eingespeist und an der anderen ausgekoppelt werden. Dabei wirkt der Resonator wie ein Filter, den nur Lichtstrahlen, deren Wellenlängen den Moden entsprechen, durchqueren können; alle
anderen werden erst gar nicht eingelassen, sondern gleich reflektiert.
Und wie kommt eine mechanische
Schwingung ins Spiel? Ganz einfach:
Man muss nur einen der beiden Spiegel
an einer Feder befestigen. Wird der
Lichtstrahl an diesem Spiegel reflektiert,
übt er einen Strahlungsdruck auf ihn aus
und verschiebt ihn ein kleines Stückchen. Im Wechselspiel mit der rück­
treibenden Kraft der Feder kommt es so
zu mechanischen Schwingungen. Ahnen
Sie schon, was nun passiert? Richtig: Da
die Schwingungen den Abstand zwischen den Spiegeln und somit die Länge
des Hohlraumresonators periodisch modulieren, ändern sich die Wellenlängen
der erlaubten Moden. Infolgedessen wird
der Strahl abwechselnd durchgelassen
oder reflektiert, und am Ausgangsspiegel
ist ein Blinken im Takt der mechanischen Schwingung zu beobachten.
Um diese Rückkopplung noch interessanter zu gestalten, wandelten die Züricher Forscher den Versuch so ab, dass
ein Quantenobjekt ins Spiel kam. Zunächst einmal verzichteten sie auf die Feder und brachten die Spiegel starr in
einem Abstand von etwa 0,2 Millimetern voneinander an. Zum Erzeugen der
mechanischen Schwingung diente ein
Gas aus etwa 10 000 Rubidiumatomen,
das Esslinger und seine Kollegen in den
Hohlraumresonator einführten. Indem
sie es bis fast auf den absoluten Nullpunkt der Temperaturskala abkühlten,
verwandelten sie es in ein Bose-EinsteinKondensat. Das ist ein Zustand, in dem
die Gasatome gewissermaßen zu einem
gemeinsamen Quantenobjekt verschmolzen sind. Genau aus diesem Grund lieben
Physiker Bose-Einstein-Kondensate –
können sie damit doch gewissermaßen
Quantenmechanik in makroskopischen
Dimensionen treiben.
Analog zu obigem Versuch speisten die
Forscher einen schwachen Laserstrahl in
den Resonator ein. In diesem Fall oszillierten zwar nicht die Spiegel, da sie starr
fixiert waren. Aber dafür geriet das BoseEinstein-Kondensat in Schwingungen;
denn der Strahlungsdruck der Photonen
übertrug auch einen Impuls auf die Gaswolke und versetzte sie dadurch in Bewegung. Weil es sich um ein Bose-Einstein
Kondensat handelte, pendelten alle enthaltenen Rubidiumatome im Gleichtakt
hin und her. Dadurch begann die Dichte
der Wolke rhythmisch zu fluktuieren.
Diese Dichteoszillationen führten wiederum dazu, dass der so genannte opti­
sche Weg zwischen den Spiegeln periodisch kürzer oder länger wurde. Wenn
sich ein Lichtstrahl statt im Vakuum in
einem materiehaltigen Medium ausbreitet, verringert sich nämlich seine Geschwindigkeit proportional zum Brechungsindex dieses Mediums. Zugleich
nimmt seine Wellenlänge ab, während die
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
Aktuell
Ein Bose-EinsteinKondensat (bläulich)
zwischen zwei halb durchlässigen Spiegeln (grauweiß) kann
Licht periodisch durchlassen und blockieren. Vom Laserstrahl (rot) verur­sachte
Dichtefluktuationen ändern die Wellenlänge der im
Resonator hin- und herlaufenden Lichtwellen so, dass sie
sich abwechselnd auslöschen und verstärken.
Tilman Esslinger, ETH Zürich
Frequenz, die über Farbe und Energie
entscheidet, gleich bleibt. Bei kürzerer
Wellenlänge passen aber mehr Wellen­
züge zwischen die beiden Spiegel. Da
der Brechungsindex normalerweise mit
der Dichte eines Mediums steigt, haben
Dichtefluktuationen also den gleichen Effekt wie ein variierender Spiegelabstand.
Entsprechend äußerten sich die
Schwingungen des Bose-Einstein-Kondensats in einer periodischen Modula­
tion der von einem Detektor hinter dem
Ausgangsspiegel aufgefangenen Photo­
nen. Anhand einer genauen mathemati­
Biomedizin
schen Analyse der Ergebnisse schafften es
die Forscher, ein quantenmechanisches
Pendant zur klassischen Beschreibung
der Koppelung zwischen mechanischer
und optischer Schwingung zu formu­
lieren. Dabei zeigte sich, dass selbst ganz
schwache Laserstrahlen, also sehr wenige
Photonen in der Spiegelkammer, die
­mechanische Schwingung des Bose-Einstein-Kondensats stark beeinflussen – ein
Phänomen, das mit klassischer Physik
nicht mehr erklärbar ist.
Nach diesem Erfolg sind die Forscher
zuversichtlich, mit ihrer Versuchsanord-
nung auch das quantenmechanische Gegenstück von komplizierteren klassischen
Kopplungen zwischen mechanischen
und optischen Schwingungen erforschen
zu können, bei denen zum Beispiel
nichtlineare Effekte auftreten. Damit
verlassen sie zwar den Bereich, in den ihnen Laien mit rudimentären Kenntnissen aus der Schulphysik gerade noch folgen können. Aber der wissenschaftliche
Ertrag dürfte umso größer sein.
Stefan Maier ist Professor für Physik am Impe­
rial College in London.
Diesen Artikel können Sie als Audiodatei beziehen; siehe www.spektrum.de/audio
Kelchproteine für den Kampf gegen Krebs
Ein kelchartiges Transportprotein aus dem Kohlweißling ist Vorbild für eine neue Klasse von
Wirkstoffen. Diese so genannten Anticaline können sich wie Antikörper spezifisch an Zielmoleküle
heften und sie gezielt ausschalten. Damit eignen sie sich besonders für die Krebstherapie.
Von Thorsten Braun
M
onoklonale Antikörper gelten als
viel versprechende Waffe der modernen Medizin. Mit ihrer spezifischen
Wirkungsweise erlauben sie, eine Vielzahl von Krebs- und Autoimmunerkrankungen sehr gezielt zu behandeln. So
hemmt Bevacizumab – Handelsname:
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009 Avastin – die Wucherung von Bronchialund Dickdarmkarzinomen, indem er
sich an den Wachstumsfaktor VEGF (für
englisch vascular endothelial growth factor) heftet und ihn neutralisiert. Dieser
Faktor wird von allen soliden Tumoren
ins angrenzende Gewebe ausgesendet,
sobald sie Stecknadelkopfgröße erreicht
haben. Er bewirkt das Aussprossen von
Blutgefäßen in die Geschwulst, so dass
die schnell wachsenden Krebszellen mit
Sauerstoff und Nährstoffen versorgt werden können.
Avastin hat wie alle anderen monoklonalen Antikörper jedoch einige Nachteile. Vor allem kann das Molekül wegen
seiner Größe – es besteht aus mehreren
Polypeptidketten mit insgesamt 1334
15
FORSCHUNG AKTUELL
Antikörper
gebundenes
Protein
Anticalin
gebundenes
Protein
Rechts: Durch Variation des Kelchrands kann
man Anticaline mit der optimalen Passform
für ein bestimmtes Zielmolekül versehen.
Die dargestellte Überlagerung dreier unterschiedlich gefärbter Beispielstrukturen vermittelt einen Eindruck von der Variationsbreite.
Arne Skerra, TU München
Aminosäuren – nur sehr schwer in die
Zwischenräume von Zellen eindringen.
Zudem erfordert seine Produktion in
Bio­reaktoren den Einsatz von Säugetierzellen, deren Kultivierung verhältnismäßig teuer und aufwändig ist.
Diese Nachteile vermeidet ein Wirkstoff, den das bayerische BiotechnologieUnternehmen Pieris aus Freising nun
entwickelt hat. PRS-050, so sein Kürzel,
fängt ebenfalls VEGF ab, ist aber nur ein
Achtel so groß wie Avastin und lässt sich
in Bakterien- oder Hefekulturen gentechnisch herstellen. An Tieren wurde er
schon erfolgreich erprobt. »Bei krebskranken Mäusen, die unseren Wirkstoff
erhielten, wuchsen die Tumoren noch
langsamer als bei solchen, die Avastin bekamen«, sagt Arne Skerra. Der Gründer
von Pieris und Professor für Biologische
Chemie an der Technischen Universität
München führt die Überlegenheit von
PRS-050 unter anderem darauf zurück,
dass das kleine Molekül besser ins Tumorgewebe eindringt. Nach dem Erfolg
im Tierversuch sind dieses Jahr erste klinische Tests geplant.
PRS-050 besteht aus einer einzelnen
Polypeptidkette, in der rund 180 Aminosäuren aneinandergereiht sind. Das maßgeschneiderte Protein gehört zur neuen
Klasse der Anticaline, die den in der Natur vorkommenden Lipocalinen nachempfunden wurden. Deren Name setzt
sich aus lipos und kalyx zusammen, den
griechischen Begriffen für Fett und Kelch.
Ihre Polypeptidkette ist nämlich so gefaltet, dass sie einen Kelch bildet. An dessen
Rand sitzen vier Peptidschleifen, die ein
anderes Molekül umschließen und fest16
Links: Kelchförmige Anticaline können wie
Antikörper Proteine spezifisch binden, sind
allerdings wesentlich kleiner. Gezeigt sind
jeweils Strukturmodelle des Proteinrückgrats mit Faltblatt- (Pfeile) und Helix-Motiven auf der Basis von Röntgenbeugungsdaten. Beim Antigen wurde nicht nur der
Verlauf der Aminosäurekette dargestellt,
sondern auch die Proteinoberfläche transparent wiedergegeben.
halten können. So binden und transportieren die Kelchproteine im menschlichen
Körper wasserunlösliche Vitamine, Hormone und andere fettartige Substanzen.
Zum Beispiel versorgt ein Lipocalin den
Tränenfilm mit Fettsäuren und Lipiden,
während ein anderes, das Retinol bindende Protein, den Transport von Vitamin A im Blut übernimmt.
Eine Bibliothek aus
Milliarden von Viren
Als Anticaline bezeichnet Skerra künstlich erzeugte Kelchproteine, die wie Antikörper auf ein bestimmtes Zielmolekül
zugeschnitten sind. Allerdings ist es nicht
ganz einfach, die jeweils passende Bindungstasche zu kreieren. Als Standardmethode dient das so genannte PhagenDisplay. Eine entscheidende Rolle spielen dabei Bakteriophagen: Viren, die
normalerweise Bakterien befallen und
sich darin vermehren.
Zunächst variiert man das Gen eines
natürlichen Lipocalins, indem man in
dem Abschnitt, auf dem der Bauplan für
die Peptidschleifen steht, mit einem automatisierten Verfahren Kodewörter für
Aminosäuren austauscht. So ergeben sich
Milliarden von Varianten. Deren Erbsubstanz wird dann jeweils derart in Bakteriophagen eingeführt, dass diese das
zugehörige Protein auf ihrer Oberfläche
präsentieren. Das Ergebnis ist eine so genannte Phagen-Bibliothek aus Milliarden von Viren – jedes mit dem Erbgut
für eine bestimmte Anticalin-Variante,
die es auf seiner Oberfläche darbietet.
All diese Phagen lassen sich nach Belieben in Bakterien vermehren. Nun muss
man die Bibliothek nur noch mit dem
Zielmolekül zusammenbringen, das seinerseits in vielen Kopien auf einem Trägermaterial fixiert ist. Anticaline mit einer
passenden Bindungstasche geben sich
dann selbst zu erkennen, indem sie samt
den zugehörigen Phagen haften bleiben.
Die Viren brauchen schließlich nur noch
vermehrt und auf ihre Erbsubstanz ana­
lysiert zu werden. Daraus lässt sich die
Abfolge der Aminosäuren in dem passenden Anticalin bestimmen und dieses
selbst synthetisieren. Um die Affinität der
beiden Bindungspartner zueinander zu
er­höhen, verbessert man in zusätzlichen
Schritten die Passform des Anticalins
noch durch systematische Variation.
In den 1990er Jahren wurde die dreidimensionale Struktur der ersten Lipocaline aufgeklärt. »Als ich damals diese
Strukturen miteinander verglich, stellte
ich fest, dass sie alle ein konserviertes
Grundgerüst haben, verbunden mit aufgesetzten Schleifen, die sich von Lipocalin zu Lipocalin unterscheiden«, sagt
Skerra über sein Aha-Erlebnis. »Das Aufbauprinzip ist das gleiche wie bei Antikörpern, die ebenfalls aus einem konstanten und einem variablen Teil bestehen.« In den Folgejahren beschäftigte
sich das Team des Biochemikers mit der
Suche nach Verfahren, die Gestalt von
Lipocalinen routinemäßig so abzuwandeln, dass sie vorgegebene Zielmoleküle
spezifisch binden.
Als Ausgangspunkt diente zunächst ein
strukturell besonders gut charakterisiertes
Lipocalin, das im Großen Kohlweißling
vorkommt und dort den blauen Farbstoff
Bilin bindet. Die Schmetterlingsart Pieris
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
Arne Skerra, TU München
Aktuell
brassicae war dann auch Namensgeber des
Unternehmens, das Skerra 2001 als Ausgründung der Technischen Universität
München ins Leben rief.
Den Wissenschaftlern bei Pieris ist es
mittlerweile gelungen, außer PRS-050
weitere Anticaline als potenzielle Arzneimittel-Kandidaten zu kreieren. Zwei da-
von befinden sich bereits in einem fort­
geschrittenen Entwicklungsstadium. Das
eine, PRS-055, zielt auf die feuchte Makuladegeneration, eine altersbedingte Erkrankung der Augennetzhaut, die allmählich zum Verlust der Sehfähigkeit führt.
Das andere, PRS-010, soll das körpereigene Immunsystem beim Kampf gegen
Krebs und Infektionskrankheiten mobilisieren. Es lagert sich dabei an ein Rezeptorprotein an, das auf der Oberfläche von
stimulierten T-Lymphozyten präsentiert
wird, und hält diese so länger aktiv.
Inzwischen erproben die Pieris-Forscher auch Möglichkeiten, den Einsatzbereich der Anticaline zu erweitern. »Wir
sind gerade dabei, zwei verschiedene Anticaline miteinander zu verknüpfen«, erklärt Skerra. »Die eine Bindungstasche
dieses Duocalins würde die Tumorzelle
erkennen, während die andere sich an einen Lymphozyten anlagern könnte.« Bei
bispezifischen Antikörpern funktioniert
dieses Prinzip bereits. Eine weitere viel
versprechende Möglichkeit sieht Skerra
darin, Anticaline mit einem Toxin oder
einer radioaktiven Substanz zu koppeln.
Die Kelchproteine könnten dann Krebszellen nicht nur aufspüren, sondern
gleichzeitig auch vergiften oder durch
Bestrahlung vernichten. Angesichts solcher Perspektiven dürfte den Anticalinen
noch eine große Zukunft bevorstehen.
Thorsten Braun ist promovierter Chemiker und
freier Wissenschaftsjournalist in Berlin.
Anzeige
Für die neueste Wissenschaft, die Ihre Zukunft bestimmen wird.
www.nature.com/nature
Als Abonnent haben
Sie viele Vorteile!
ABONNIEREN ODER VERSCHENKEN
Wenn Sie Spektrum der Wissenschaft selbst abonnieren oder verschenken, bedanken wir uns bei
Ihnen mit einem Präsent. Wenn Sie ein Geschenkabo
bestellen, verschicken wir das erste Heft zusammen
mit einer Grußkarte in Ihrem Namen.
Das Buch »Der
mittelalterliche Kosmos«
zeigt anhand alter
Karten, welches Bild von
Welt und Kosmos das
lateinische Abendland
und der islamische
Orient hatten.
1.
Sie sparen gegenüber dem Einzelkauf und zahlen pro Heft
nur € 6,60 statt € 7,40. Als Schüler, Student oder Azubi
LESER WERBEN LESER
Sie haben uns einen neuen Abonnenten vermittelt?
zahlen Sie sogar nur € 5,55.
Dann haben Sie sich eine Dankesprämie verdient!
2.
Sie haben online freien Zugang zu allen SpektrumAusgaben seit 1993 mit derzeit über 6000 Artikeln.
3.
Unter www.spektrum.de/plus finden Sie jeden Monat einen
kostenlosen Zusatzartikel, der nicht im Heft erscheint, das
Produkt des Monats, das Sie als Abonnent mit Preisvorteil
bestellen können, sowie den Spektrum-Mitgliederausweis
mit zahlreichen Vergünstigungen.
4.
Toolbag von Reisenthel:
enthält alles, was für Reparaturen im Haushalt
benötigt wird.
Sie erhalten für Ihre Bestellung ein Dankeschön
Ihrer Wahl.
5.
Sie können die Online-Wissenschaftszeitung
»spektrumdirekt« günstiger beziehen.
PRODUKT DES MONATS
>>
Zum Bestellen einfach nebenstehende Karte ausfüllen und
abschicken oder
per Telefon:
06221 9126-743
per Fax:
06221 9126-751
per E-Mail:
[email protected]
oder per Internet:
www.spektrum.de/abo
Spektrum der Wissenschaft Verlagsgesellschaft mbH | Slevogtstr. 3–5 | 69126 Heidelberg | Telefon
06221 9126-600 | Telefax 06221 9126-751 | www.spektrum.de | Geschäftsführer: Markus Bossle,
Thomas Bleck | Amtsgericht Mannheim | HRB 338114 | Abonnementsverwaltung: ZENIT Pressevertrieb GmbH | Julius-Hölder-Str. 47 | 70597 Stuttgart | Vertretungsberechtigter: Uwe Bronn
Sonderpreis
für
Abonnenten
Aktuell
Sozialpsychologie
Diesen Artikel können Sie als Audiodatei beziehen; siehe www.spektrum.de/audio
Tief verwurzeltes Statusdenken
Versuche zeigen: Unser Gehirn ist darauf programmiert, Hierarchien zu beachten. So schenken
wir sozial höher stehenden Personen automatisch mehr Aufmerksamkeit als rangniederen.
Von Andreas Meyer-Lindenberg
K
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009 okzipitaler/parietaler
Kortex
Parahippocampus
präfrontaler
Kortex
ventrales
Striatum
Andreas Meyer-Lindenberg
aum ein Phänomen ist im Sozialverhalten von Tieren so auffällig und
weit verbreitet wie Hierarchien. Sie finden sich bei vielen Spezies – von Insekten über Vögel bis zu Primaten – und
natürlich beim Menschen. Wie Studien
belegen, bilden sich stabile hierarchische
Strukturen schon bei zweijährigen Kindern aus. Sie begleiten uns während des
gesamten Lebens in Familie, Beruf und
Freizeit. Manche Sprachen wie Koreanisch bilden die hierarchische Position
des Sprechers relativ zum Adressaten sogar in der Grammatik ab. Verhaltens­
untersuchungen zufolge schätzen wir
anhand von Aspekten wie Alter, Geschlecht und Kleidung schnell und automatisch den Status unseres Gegenübers
ein. Hierarchische Strukturen wirken
sich auch auf die Gesundheit aus: Lebenserwartung und Krankheitshäufigkeit
werden vom gesellschaftlichen Status beeinflusst – gerade auch bei psychischen
Erkrankungen wie der Schizophrenie.
Es erstaunt daher, dass darüber, wie
sich soziale Hierarchien im Gehirn manifestieren, bisher so gut wie nichts
bekannt war. Als mein Team und ich
Untersuchungen zu diesem Thema
durchführen wollten, betraten wir daher
Neuland. Wir entschlossen uns, eine
künstliche Hierarchie im Rahmen einer
Spielsituation einzuführen und mit Hilfe
der funktionellen Magnetresonanztomografie (fMRT) die betroffenen Gehirn­
regionen zu ermitteln.
Die Versuchspersonen sollten eine
Reaktionszeitaufgabe lösen oder die Anzahl von Punkten auf dem Bildschirm
schätzen. Für jede korrekte Runde des
Spiels versprachen wir einen Geldbetrag
als Belohnung. Zugleich gaben wir zu
verstehen, dass noch zwei andere Probanden an der Untersuchung beteiligt
seien. Diese existierten jedoch nicht
wirklich, und auch die Ergebnisse jeder
Runde waren vorher festgelegt. Wir
konnten der Versuchsperson daher
glaubhaft machen, ihre Leistung liege im
In einem festgefügten hierarchischen System führt allein schon der Anblick einer rang­
höheren Person zu einer erhöhten Aktivierung von Hirnregionen, die an der Bewertung von
Wichtigkeit, der Handlungssteuerung und der visuellen Aufmerksamkeit beteiligt sind
(oben). Bei instabilen Hierarchien kommen zusätzlich Regionen ins Spiel, die mit Emotionen
zu tun haben (unten). Die Anwesenheit rangniederer Individuen wirkt sich dagegen nicht auf
die Hirnaktivität aus.
Mittelfeld; einer der anderen Teilnehmer
sei deutlich besser und der dritte wesentlich schlechter. Diese künstliche Hierarchie verstärkten wir noch, indem wir den
Spielern in Anlehnung an militärische
Rangabzeichen einen bis drei Sterne verliehen. Für eine Position im Mittelfeld
gab es zwei Sterne.
Während eine Versuchsperson im
MRT-Scanner lag, sah sie zunächst das
Bild eines mit ihr spielenden fingierten
­ eilnehmers inklusive Rangabzeichen,
T
absolvierte dann den Test und erfuhr
schließlich, ob sie selbst und/oder ihr
Mitspieler in dieser Runde Geld gewonnen hatte. Bei der einführenden Unterweisung hatten wir ausdrücklich betont,
dass die Rangfolge für die Belohnung
unerheblich sei, weil die Teilnehmer
nicht gegeneinander anträten, sondern
jeweils für sich spielten. Eine »rationale«
Versuchsperson hätte die Hierarchie also
19
FORSCHUNG AKTUELL
einfach ignoriert. Um zu sehen, ob das
der Fall war, untersuchten wir mittels
fMRI, wie die Einführung eines ranghöheren oder -tieferen Mitspielers die Gehirnaktivierung beeinflusste.
Tatsächlich beachteten die Versuchspersonen die künstliche Hierarchie sehr
wohl. Wenn ein als höher stehend gekennzeichnetes Individuum auf dem
Bildschirm zu sehen war, ließen sich ausgeprägte Aktivierungen in verschiedenen
Hirnregionen beobachten – unter anderem im ventralen Striatum, einem Wichtigkeits-/Belohnungszentrum, sowie im
dorsolateralen präfrontalen Kortex, der
für die Handlungssteuerung wesentlich
ist, und im visuellen Aufmerksamkeitssys­
tem. Erschien ein rangniederer Spieler
auf dem Bildschirm, war dagegen keine
Hirnregion stärker als normal aktiviert.
Geldwertes Prestige
Wir schließen aus diesen Ergebnissen,
dass soziale Hierarchien, selbst wenn
man weiß, dass sie in der betreffenden
Situation unwichtig sind, vom Gehirn
automatisch berücksichtigt werden. Die
Aufmerksamkeit wendet sich spontan
den sozial höherstehenden Individuen zu
und von den rangniederen ab. Dieser
neurobiologische Befund stimmt gut mit
Ergebnissen von Verhaltenstests überein
und stützt insbesondere das Konzept der
sozialen Vergleichsprozesse, das der USSozialpsychologe Leon Festinger schon
1954 aufgestellt hat. Darin wird die Bedeutung der Vergleiche »nach oben hin«
betont.
Ein wichtiger Aspekt von Hierarchien
ist auch ihre Stabilität. Nur bei gefes­
tigter Rangordnung erfreuen sich zum
Beispiel in einer Affenhorde die sozial
hoch stehenden Tiere besserer Gesundheit und Lebensqualität. Geraten die
­Hierarchien dagegen ins Wanken, müssen speziell die ranghöheren Gruppenmitglieder andauernd ihren Status verteidigen und leiden so unter besonders viel
Stress.
Spiegelt sich derlei auch beim Menschen in der Hirnfunktion wider? Dazu führten wir ein zweites Experiment
durch, bei dem im Unterschied zum ersten die Hierarchie von der vermeintlichen Leistung abhing, also instabil war.
Diesmal erzählten wir den Versuchs-­
personen, dass sie zu Beginn als ZweiSterne-Spieler eingruppiert worden seien,
ihre Rangfolge sich aber im Lauf des
Spiels ändern könne – abhängig davon,
20
wie viel Geld sie relativ zu den anderen
Teilnehmern gewinnen würden.
Erwartungsgemäß feuerten die bei der
stabilen Hierarchie aktiven Hirnregionen
auch in diesem Fall besonders stark. Wieder sprachen ausgedehnte Areale auf sozial höher stehende und keine auf niedriger
eingruppierte Individuen an. Anders als
zuvor traten nun aber auch emotionale
Systeme wie die Amygdala (der Mandelkern) in Aktion. Dies könnte gut etwas
mit der erhöhten Stressbelastung in instabilen Hierarchien zu tun haben.
In der Tat zeigte sich, dass das Ausmaß der Erregung in der Amygdala damit korrelierte, welche Bedeutung die
Probanden bei einer Befragung nach
Ende des Versuchs ihrem Status beimaßen: Spieler, für die es sehr wichtig war,
drei Sterne zu bekommen, zeigten die
höchste Amygdala-Aktivität. Außerdem
wurden mit negativen Emotionen assoziierte Hirnregionen aktiv, wenn ein Spielergebnis die hierarchische Stellung der
Versuchsperson bedrohte – weil sie zum
Beispiel in einer Runde kein Geld be-
kam, der rangniedere Spieler aber eine
Belohnung kassierte.
Wie wichtig den Probanden der Status in dieser künstlichen Hierarchie war,
ließ sich aber auch in den MRT-Bildern
ablesen. Der entscheidende Bereich ist
dabei das schon erwähnte ventrale Striatum: ein Teil des Streifenkörpers, der
zum Belohnungszentrum des Gehirns
gehört. Es reagierte nicht nur auf das
Geld, das die Probanden erhielten, sondern auch auf den Auf- oder Abstieg in
der Hierarchie. Bemerkenswerterweise
war die Aktivierung in beiden Fällen
etwa gleich stark. Weil es sich bei Geld
um einen realen Wert, bei dem Rang jedoch nur um eine ideelle, kurzfristige
Prestigefrage handelte, macht dieser Befund deutlich, welch große motivierende
und belohnende Bedeutung dem sozialen Status beim Menschen zukommt.
Andreas Meyer-Lindenberg ist Professor für
Psychiatrie und Psychotherapie am Zentralin­
stitut für Seelische Gesundheit in Mannheim, das
er zugleich als Direktor leitet.
Biomedizin
Tanz der Moleküle zeigt
lebendiges Bild der Zelle
Eine neue Methode zur Abbildung bestimmter Molekülsorten in lebenden
Geweben verspricht einen Durchbruch in der biomedizinischen Forschung­. In einem ersten Test ließ sich zum Beispiel die Aufnahme von
Omega-3-Fettsäuren in eine Zelle verfolgen.
Von Michael Groß
A
tome und Moleküle halten niemals
still. In Gasen schwirren sie wild
durcheinander. Auch in Flüssigkeiten
können Moleküle frei umherschwimmen und sich zusätzlich um ihre Achse
drehen. Selbst wenn sie in Festkörpern
eingeschlossen sind, vibrieren sie fort­
während. Bei diesem Tanz gibt die
Quan­tenmechanik den Takt vor; denn
Moleküle können nicht beliebig schnell
vibrieren oder rotieren, sondern nur in
bestimmten »Gängen«, die separaten
­Energieniveaus entsprechen. Der Wechsel von einem Niveau zum anderen geht
mit der Aufnahme oder Abgabe eines ge-
nau definierten Energiebetrags einher –
gewöhnlich in Form von elektromagnetischer Strahlung.
Wissenschaftler benutzen dieses Phänomen schon seit Langem in der Spektroskopie. Indem sie messen, bei welcher
Wellenlänge eine Probe Licht absorbiert
oder freisetzt, können sie die enthaltenen
Verbindungen anhand der spezifischen
Schwingungen ihrer Moleküle identi­
fizieren. Dabei ergibt sich jedoch nur
ein Mittelwert für die gesamte durchstrahlte Region. Die kleinräumige Verteilung oder eventuelle Wanderung der Moleküle lässt sich nicht feststellen.
Die Arbeitsgruppe von Sunney Xie an
der Harvard University in Cambridge
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
Die schönsten Arien
und Duette auf 16 CDs:
€ 69,–*
Die berühmtesten
Opern auf
7 Einzel-DVDs und
1 Doppel-DVD:
€ 99,–*
*
Unverbindliche Preisempfehlung; zzgl. Versandkosten.
Sichern Sie sich jetzt 400 Jahre Oper auf CD und DVD.
FOCUS und Universal Music präsentieren:
IHRE VORTEILE:
Auf 7 Einzel-DVDs und 1 Doppel-DVD:
acht komplette Inszenierungen der berühmtesten Opern.
Auf 16 CDs: die schönsten Arien und Duette, gesungen von
den größten Opern-Stars unserer Zeit. Erleben Sie Anna
Netrebko, Rolando Villazón, Cecilia Bartoli, Plácido Domingo,
Montserrat Caballé, Thomas Quasthoff, Renée Fleming,
Luciano Pavarotti, Nicole Cabell, Juan Diego Flórez u. v. a.
•
•
•
•
Vorzugspreis gegenüber Einzelkauf
beide Editionen im hochwertigen Schmuckschuber
40 Stunden Musik in brillanter Bild- und Tonqualität
exklusiv für FOCUS Abonnenten versandkostenfrei
Auch einzeln im Handel erhältlich: die Doppel-CDs für je € 9,99 und die DVDs für je € 14,99. (Unverbindliche Preisempfehlung)
Jetzt Editionen bestellen und alle Vorteile sichern:
Tel. 0180 5 160 800 21
www.focus-mall.de/oper
€ 0,14 /Min. aus dem Festnetz der Deutschen Telekom; abweichende
Preise aus den Mobilfunknetzen
Christian W. Freudiger et al., Science, Bd. 322, S. 1860
FORSCHUNG AKTUELL
a
b
d
e
(Massachusetts) hat nun eine etwas kompliziertere Version der Rotations- und
Schwingungsspektroskopie so weiterentwickelt, dass sie auch detaillierte räumliche Informationen liefert und für die
medizinische Bildgebung taugt (Science,
Bd. 322, S. 1857). Es handelt sich um
ein Verfahren, das nach seinem Ent­
decker Chandrasekhara Venkata Raman
benannt ist und auf der Lichtstreuung
beruht. Fällt ein dünner Lichtkegel in
einen dunklen Raum, können wir ihn
in der Regel sehen, obwohl die Strahlen
eigentlich an uns vorbeigehen. Das liegt
daran, dass Staubteilchen einen Teil
des Lichts ablenken. Das Streulicht hat
dabei dem Anschein nach die gleiche
Farbe – und damit Energie – wie der eigentliche Strahl, der sich geradeaus an
uns vorbeibewegt.
Tor zu neuer Ära aufgestoßen
Raman stellte aber schon 1928 fest, dass
das nicht 100-prozentig gilt: Unter dem
abgelenkten Licht befindet sich auch ein
sehr kleiner Anteil von Photonen mit geänderter Wellenlänge. Sie haben das
streuende Teilchen auf einem höheren
oder tieferen Energieniveau zurückgelassen und selbst den entsprechenden Energiebetrag verloren oder hinzugewonnen.
Da der Effekt äußerst schwach ist, war
die Messung von Raman-Streuung zunächst sehr schwierig. Die darauf beruhende Spektroskopie wurde erst praktikabel, als Laser starkes Anregungslicht
einheitlicher Frequenz lieferten.
22
Sunney Xie und seine Mitarbeiter benutzen für ihr Verfahren sogar gleich zwei
Laserstrahlen verschiedener Wellenlänge.
Passt deren Energiedifferenz genau zu der
charakteristischen Änderung im Schwingungszustand eines bestimmten Moleküls, so lässt sich damit feststellen, ob
dieses sich am Schnittpunkt der beiden
Strahlen befindet; die entsprechende Bande im Raman-Spektrum erscheint dann
deutlich verstärkt. Dabei handelt es sich
um eine stimulierte Emission ähnlich derjenigen, die den Laserstrahl selbst erzeugt.
Durch weitere Tricks konnte Xies
Team die Empfindlichkeit der Methode
noch erheblich steigern. So verwendete
es einen Pulslaser, der nicht kontinuierlich strahlt, sondern flackert – ähnlich
wie ein Stroboskop, nur sehr viel schneller. Auf diese Weise ließ sich die Nachweisgrenze für Biomoleküle bei RamanUntersuchungen um vier Zehnerpotenzen
verbessern und zugleich die Konzentra­
tion der angepeilten Moleküle ermitteln.
Damit taugt das Verfahren nun auch für
medizinische Anwendungen.
Als erstes Beispiel untersuchten die
Forscher die Aufnahme von Omega-3Fettsäuren in die Zelle. Tatsächlich konnten sie mit ihrer Methode nicht nur die
Konzentration von Eicosapentaensäure
(EPA) zu verschiedenen Zeiten oder an
bestimmten Orten messen, sondern auch
die Verteilung des Moleküls in der Zelle
darstellen. Dabei zeigte sich, dass die
Säure nach einer Weile zu kleinen Tröpfchen zusammenklumpt.
c
Durch Aufnahmen bei verschiedenen Wellen­
längen lässt sich mit der neu entwickelten
Mikroskopie mittels stimulierter RamanStreuung die Verteilung verschiedener Biomoleküle in einem Gewebe gleichzeitig
sichtbar machen. Das ist hier für ein Stück
Haut demonstriert, das mit den beiden Chemikalien Dimethylsulfoxid (DMSO) und Retinolsäure (RS) versetzt wurde. Das Eindringen von beiden Substanzen in das Gewebe
ließ sich verfolgen. Wiedergegeben sind
Schnappschüsse der Verteilung von DMSO
(grün) und RS (blau) in der Hornschicht der
Oberhaut – zum einen in der Aufsicht (a, b)
und zum anderen als Tiefenprofil längs der
gelben Linie (d, e). Die dritte Abbildung (c)
zeigt gleichzeitig die Verteilung von körpereigenen Lipiden (rot) und DMSO im Fettgewebe der Unterhaut.
In einem weiteren Anwendungsbeispiel benutzten Xie und Kollegen die
Schwingungen körpereigener Fettmoleküle zur Abbildung von Gewebestrukturen in Hirn- und Hautpräparaten. Dabei hat ihre Methode den großen Vorteil,
dass das Gewebe nicht angefärbt werden
muss. Desgleichen gelang es, den Transport eines Medikaments in die Zelle zu
verfolgen – ebenfalls ohne Farbstoff.
Indem sich die Forscher die Schwingungen der Moleküle und eine 80 Jahre
alte Entdeckung zu Nutze machten,
konnten sie somit erstmals unverfälschte
bewegte Bilder von Vorgängen in der lebenden Zelle gewinnen. Es ist wohl
kaum übertrieben, zu sagen, dass damit
das Tor zu einer neuen Ära der biologisch-medizinischen Forschung aufgestoßen wurde.
Michael Groß ist promovierter Biochemiker und
arbeitet als freier Wissenschaftsjournalist in Ox­
ford (England).
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
Aktuell
Hören Sie dazu auch unseren Podcast Spektrum Talk unter www.spektrum.de/talk
Springers Einwürfe
PR A K T I SCHE S
AUS
DEM
LESERSHOP
REGENSCHIRM »SONNENFRAKTALE«
Mit Robotern leben und sterben
Wir werden mit Kunstwesen auskommen müssen – und sie mit uns.
Solche Entwicklungen muten umso gruseliger an, als sie in allen Industrieländern
einem wachsenden Bedarf nach individueller Pflege bei zunehmendem Zerfall tradi­
tioneller Betreuungsstrukturen begegnen. Darum mahnt der britische Computerwis­
senschaftler Noel Sharkey von der University of Sheffield, rechtzeitig die ethischen
Nebenwirkungen solch technischer Problemlösungen zu bedenken (Science, Bd. 322,
S. 1800).
Vollends makaber ist die Anwendung von Robotern in der Kriegsführung. Fernge­
steuerte Drohnen, die aufs Gefechtsfeld Raketen und Bomben herabregnen lassen,
sind schon heute üblich, gleichen aber technisch gesehen noch dem Babyfon, da sie
einem anderswo sitzenden Menschen die Initiative überlassen. Doch die Militärs las­
sen bereits autonom agierende Kampfroboter entwickeln. Das ethische Problem
sieht Sharkey hier vor allem in der mangelhaften Fähigkeit, zwischen gegnerischen
Soldaten und der Zivilbevölkerung zu unterscheiden. Diese kognitive Leistung wird
Roboter selbst auf lange Sicht noch viel stärker überfordern als menschliche Rekru­
ten – vor allem in den schmutzigen, asymmetrischen Kriegen,
die anscheinend immer häufiger werden.
Und weit hinter alldem lauert ein komplementäres ethisches
Problem, auf das der Philosoph Thomas Metzinger hartnäckig
hinweist. Ein künftiger Roboter mit autonomem Intellekt dürf­
te eine Art Bewusstsein und Empfindungen entwickeln. Spätestens dann werden wir uns nicht nur fragen müssen, was er uns
antut, sondern auch, was wir als Schöpfer eines leidensfähigen
Michael Springer
maschinellen Sklaven anrichten.
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009 So macht Ihnen auch der heftigste Schauer
nichts mehr aus. Der etwa 75 cm lange
Schirm mit 8 Fiberglasschienen hat einen
blauen Polyesterüberzug und ist mit
seinem ansprechenden Fraktalmotiv ein
echter »Hingucker« . Mit seinem Durchmesser von fast 130 cm auch bestens für
zwei Personen geeignet
€ 25,– (zzgl. Porto/Versand).
PAPPAUFSTELLER
EINSTEIN
Die fast lebensgroße
Standfigur von
Albert Einstein
als Inspirationsquelle für Ihr
Arbeitszimmer
Material:
stabiler Karton
€ 34,50
(zzgl. Porto)
160 cm
So ein Babyfon ist eine feine Sache. Wir legen das Kind schlafen und besuchen die
Nachbarn, die uns zum Abendessen eingeladen haben. Während wir plaudern, haben
wir ein Ohr auf das regelmäßige Atmen im mitgebrachten Lautsprecher, der drahtlos
mit einem Mikrofon neben dem Gitterbett verbunden ist. Wenn das Kleine aufwacht
und zu weinen beginnt, laufen wir schnell nach nebenan und beruhigen es.
Vielleicht können wir uns den Weg bald sparen. Schon heute bieten japanische
und südkoreanische Firmen Roboter an, die mit Videospielen und einfachen Unter­
haltungen Kindern die Zeit vertreiben oder sie beruhigen und in den Schlaf singen.
Wird man sich schon bald angewöhnen, die Kleinen zeitweilig mehr oder weniger in­
telligenten Maschinen zu überlassen, die etwa Teddybären, sprechenden Puppen
oder gar einem menschlichen Babysitter ähnlich sehen? Erste Tests verliefen viel ver­
sprechend. Kinder sind offenbar noch viel eher als Erwachsene bereit, selbst einfach
gestrickte Roboter als Personen zu akzeptieren. Dabei sage ich ja auch über meinen
Computer: Heute spinnt er wieder.
Noch ist kaum erforscht, welche Auswirkungen es hat, Heranwachsende schon
früh mit interaktionsfähigen Maschinen zu konfrontieren. Wird dadurch die kindliche
Entwicklung gehemmt? Werden die Kleinen so stark auf die allzeit willigen Helfer
und Diener fixiert, dass menschliche Erzieher es künftig noch schwerer haben wer­
den? Oder ist es sogar sinnvoll, Kinder möglichst früh auf die von elektronischem Ge­
rät geprägte Alltags- und Arbeitswelt vorzubereiten?
Nicht nur am Anfang, auch gegen Ende des Lebens sollen Roboter einspringen. In
der Altenpflege sehen Firmen wie Sanyo und Mitsubishi einen Markt für intelligente
Geräte, die bei Körperpflege, Nahrungsaufnahme und Medikation zur Hand gehen.
Künstliche Haustiere, die schnurren, wenn man sie streichelt, geben einsamen alten
Menschen die Illusion, nicht ganz allein zu sein.
23
sp ek trum.com/le sershop
Weltraumwetter
weltraumwetter
solare
SuperstÜrmE –
die verkannte Gefahr
Wiederholt sich der große Sonnensturm von 1859, drohen Milliardenschäden an Satelliten und Stromversorgungsnetzen. Denn noch schützen
wir uns nur unzureichend gegen geomagnetische Störungen, obwohl
bereits Ausbrüche mittlerer Stärke die globale Energie- und Kommunikationsinfrastruktur in Mitleidenschaft ziehen können.
Diesen Artikel können Sie als Audiodatei beziehen; siehe www.spektrum.de/audio
Hören Sie dazu auch unseren Podcast Spektrum Talk unter www.spektrum.de/talk
In Kürze
r Der Sonnensturm von
1859 war der stärkste, der
je aufgezeichnet wurde. Bis
tief nach Italien und in die
Karibik waren Polarlichter zu
sehen, Magnetkompasse
spielten verrückt und Telegrafensysteme fielen aus.
r Eisbohrkerne deuten darauf hin, dass derartige Ausbrüche solarer Teilchen im
Mittel nur alle 500 Jahre
vorkommen. Aber schon ein
Sturm, wie er alle 50 Jahre
auftritt, könnte zum Verlust
von Satelliten führen, Radiosender stören und kontinentübergreifende Stromausfälle
verursachen.
r Um Folgekosten in Milliardenhöhe zu vermeiden,
müssen wir die Sonne systematischer als bisher beobachten und Schutzmaßnahmen für Satelliten und
Stromnetze verbessern.
24 Von Sten F. Odenwald und James L. Green
U
nerwartet bescherte die Nacht
vom 28. auf den 29. August 1859
vielen Menschen eine völlig neue,
fremdartige Erfahrung: das geisterhafte Leuchten von Polarlichtern, die sich
als helle Vorhänge aus Licht über den Himmel erstreckten. Selbst fern polarer Breiten
wie in Rom und Havanna richteten sich
verwunderte oder entsetzte Blicke gen Himmel – so mancher glaubte an jenem Sonntag, seine Stadt stünde in Flammen. Auch
Logbücher von Schiffen, die zu dieser Zeit
in Äquatornähe kreuzten, beschreiben purpurfarbene Leuchterscheinungen, die bis zur
halben Zenithöhe reichten. Messinstrumente
überall auf der Welt, die sonst nur winzige
Änderungen des Erdmagnetfelds registrieren,
schlugen plötzlich wild aus.
Doch dies war nur der erste Teil des Spektakels. Am 1. September beobachtete der englische Astronom Richard C. Carrington kurz
vor Mittag eine Gruppe enorm großer Sonnenflecken. Während er sie skizzierte, registrierte er um 11.18 Uhr einen intensiven weißen Lichtblitz, der von zwei Orten in der
Flecken­gruppe ausging – ein Phänomen, das
rund fünf Minuten andauerte. 17 Stunden
später machte eine zweite Welle rötlicher und
grünlicher Polarlichter die Nacht zum Tag,
selbst noch in so südlichen Regionen wie Panama. Und überall in Europa und Nordamerika brachen die Telegrafennetze zusammen.
Was war passiert? Nicht einmal die Wissenschaftler selbst, bedrängt von Reportern
auf der Suche nach einer Erklärung, konnten
eindeutige Auskunft über die Himmelslichter
geben. Handelte es sich um meteoritische
Materie aus dem All, um Licht, das an polaren Eisbergen reflektiert wurde, oder um
eine Art Blitze in großen Höhen? Zur Aufklärung trug erst der Sturm von 1859 selbst bei.
Dem »Scientific American« vom 15. Oktober
jenes Jahres zufolge war »eine Verbindung
zwischen den Nordlichtern und den Kräften
der Elektrizität und des Magnetismus nun
vollständig nachgewiesen«.
Mittlerweile kennen wir dank zahlreicher
Messdaten und Untersuchungen auch den
Ursprung der Polarlichter, der letztlich in
energiereichen Ereignissen auf der Sonne liegt.
Dann und wann stößt sie gewaltige Wolken
aus Plasma aus, die, wenn sie unseren Planeten erreichen, das irdische Magnetfeld durcheinanderwirbeln (siehe »Das Wüten der Weltraumstürme« SdW 7/2001, S. 30).
Der Sonnensturm von 1859 traf auf eine
vergleichsweise wenig technisierte Zivilisation.
Heute wären seine Folgen dramatischer: Satelliten würden schwer beschädigt, der Funkverkehr bräche zusammen und kontinentweite
SPEKTRUM DER WISSENSCHAFT · März 2009
Astronomie & Physik
Pat Rawlings, SAIC
Stromausfälle würden wochenlange Reparaturarbeiten erfordern. Zwar treten Stürme
dieser Stärke im Mittel nur alle 500 Jahre auf.
Doch Ereignisse mit immerhin der halben Intensität geschehen bereits zehnmal so häufig.
Zuletzt am 13. November 1960, als ein Sonnensturm weltweite geomagnetische Störungen verursachte und Radiosender ausfallen
ließ. Trifft uns der nächste Supersturm unvorbereitet, könnte er zum kosmischen »Katrina«
werden. Berechnungen zufolge lassen sich seine direkten und indirekten Folgekosten mit
denen eines großen Hurrikans wie jenem vergleichen, der 2005 so zerstörerisch über die
Südküste der USA fegte.
Wer wissen will, wie sich solche Stürme zusammenbrauen, muss einen genauen Blick auf
die Sonne werfen. Die Anzahl der Sonnenflecken wächst und sinkt ebenso wie andere
Zeichen der Sonnenaktivität in elfjährigen Zyklen. Im Januar 2008 begann der aktuelle
Zyklus, bis 2013 wird die Aktivität des Zentralgestirns nun stetig zunehmen. Was im vorigen Zyklus geschah, haben Sonnenforscher
lückenlos dokumentiert: Sie beobachteten
21 000 Strahlungsblitze oder »Flares« und
13 000 koronale Massenauswürfe (siehe Kurzglossar rechts). Beide sind Folgen der unaufhörlichen Turbulenzen solarer Gase. Sonnenstürme – der Begriff fasst Flares und Massenauswürfe zusammen – ähneln in mancher
SPEKTRUM DER WISSENSCHAFT · März 2009
Hinsicht irdischen Stürmen, besitzen allerdings eine weitaus größere Ausdehnung. Und
vor allem: Auf der Sonne bestimmen nicht
Druck- und Temperaturverhältnisse, sondern
Magnetfelder über die Dynamik der Gase
(sie­he »Explosionen auf der Sonne« SdW
6/2006, S. 40, »Die rätselhafte Heizung der
Sonnenkorona« 9/2001, S. 28).
Weltraumunwetter mit Folgen:
Wenn sich der Sonnenwind zum
Sturm entwickelt und auf das
irdische Magnetfeld (blaue
Linien) trifft, kann dies unsere
hochtechnisierte Zivilisation
teilweise außer Gefecht setzen.
Entfesselte Kräfte
Die meisten solcher Stürme lassen allenfalls
Polarlichter am irdischen Himmel tanzen.
Doch gelegentlich entfesselt die Sonne vielfach größere Kräfte. Zwar hat niemand, der
heute lebt, je einen solaren Supersturm mitgemacht, doch um zu verstehen, was damals
geschah, rekonstruierten wir gemeinsam mit
vielen anderen Forschern die Ereignisse des
großen Sturms – einerseits aus historischen
Aufzeichnungen, andererseits auf Basis von
Satellitendaten der letzten Jahrzehnte.
1. Der Sturm zieht herauf. Vor dem Supersturm von 1859 erscheint auf der Sonne, etwa
auf dem Höhepunkt ihres Aktivitätszyklus,
eine auffällige Sonnenfleckengruppe. Die Flecken nahe dem solaren Äquator sind so groß,
dass Astronomen wie Carrington sie ohne
technische Hilfsmittel (aber mit geschützten
Augen) sehen. Zum Zeitpunkt des ersten
koro­nalen Massenauswurfs – im Verlauf des
Sturms wird es noch zu einem weiteren kom-
Lexikon
Flares sind Ausbrüche energiereicher Teilchen und
intensiver Röntgenstrahlung,
die als Folge von Magnet­
feld­än­derungen auf relativ
klei­nen Skalen in der Grö­
ßenord­nung von einigen
tau­send Kilometern auftreten. Koronale Massenauswürfe wiederum (die Korona
ist die äußere Atmosphäre
der Sonne) sind magnetische
Blasen, die Millionen von
Kilometern durchmessen und
in denen Milliarden Tonnen
Plasma mit Geschwindigkeiten von mehreren Millionen Kilometern pro Stunde
ins All geschleudert werden.
25
Der Supersturm von 1859
Wie es Weltraumwetter
zum geomagnetischen Cha0s kommt
So haben ihn die Autoren rekonstruiert. Die Koordinierte Weltzeit (UTC) entspricht fast genau der
Mittleren Greenwich-Zeit (GMT).
Normalerweise lenkt das irdische Magnetfeld die geladenen Partikel ab, die von der Sonne zur Erde strömen. Die tränenförmige Raumregion, in der das irdische Magnetfeld dominiert und in der dieser Schutz wirksam ist, wird als Magnetosphäre bezeichnet. Die Grenze
zwischen ihr und dem solaren Plasma, die Magnetopause, ist auf der sonnenzugewandten
Seite rund 60 000 Kilometer von der Erdoberfläche entfernt. Eine zusätzliche magnetische
»Falle« für geladene Teilchen ist der torusförmige Van-Allen-Gürtel.
Magnetopause
26. August
Auf der Sonne erscheint bei
einer westlichen Länge von 55
Grad eine große Gruppe von
Flecken. Vermutlich kommt es
jetzt zu einem ersten koronalen Massenauswurf.
magnetische
Feldlinie
28. August
Erde
Der Massenauswurf erreicht
die Erde, sein Magnetfeld ist
nach Norden gerichtet.
Van-Allen-Gürtel
(magnetische »Falle«
für geladene Teilchen)
Sonne
Sonnenflecken
28. August 7.30 UTC
Sonnenwind
Das Greenwich Magnetic
Observatory registriert Störungen, die auf eine Stauchung
der Magnetosphäre hindeuten.
Magnetosphäre
28. August 22.55 UTC
Die Hauptphase des Sturms
beginnt. Jetzt treten starke
magnetische Störungen, Unterbrechungen der Telegrafen­
verbindungen und Polarlichter
bis zu einer magnetischen
Breite von 25 Grad Nord auf.
Zieht ein Sonnensturm in Form eines koronalen Massenauswurfs herauf, rast eine Blase
ionisierten Gases auf die Erde zu, staucht die irdische Magnetosphäre und passiert unseren
Planeten mit Überschallgeschwindigkeit. In extremen Fällen wird die Magnetopause sogar
in den Van-Allen-Gürtel hineingeschoben, der dadurch vorübergehend verschwindet.
koronaler
massenauswurf
30. August
Sonnenflecken
An diesem Tag enden die
durch den ersten koronalen
Massenauswurf ausgelösten
geo­magnetischen Störungen.
koronaler
Massenauswurf
1. September 11.18 UTC
Magnetfeld des Auswurfs
(zeigt Richtung Süden)
Der Astronom Richard C.
Carrington und andere be­
obachten einen weiß leuchtenden Strahlungs­blitz (Flare)
auf der Sonne. Die große
Flecken­gruppe hat sich nach
12 Grad West weiterbewegt.
Erdmagnetfeld
(zeigt Richtung Norden)
Weil das solare Gas sein eigenes Magnetfeld mit sich führt, bringt es das irdische
Magnetfeld in Unordnung. Zeigen beide in entgegengesetzte Richtung, kommt es zur Rekonnektion: Beide Felder verbinden sich miteinander, wobei magnetische Energie frei wird.
Diese kann Teilchen auf hohe Geschwindigkeiten beschleunigen und dadurch helle Polarlichter hervorbringen, aber auch starke elektrische Ströme erzeugen.
2. September 5.00 UTC
Region mit neu
verbundenen Feldlinien
(Rekonnektion)
Polarlichter
Region mit neu
verbundenen Feldlinien
(elektrische) Ströme
Illustrationen: Melissa Thomas; Sonnenflecken: Carnegie Institution of Washington;
Koronaler Massenauswurf und Röntgen-Flare: SOHO / NASA
turbulente Feldlinien
solares Plasma
sichtungen von
Polarlichtern
Die Magnetfeld-Observatorien
von Greenwich und Kew regis­
trieren Störungen, denen unmittelbar ein geomagneti­sches
Chaos folgt. Binnen 17 Stunden
erreicht ein zweiter koro­naler
Massenauswurf die Erde. Seine
Geschwindigkeit beträgt 2380
Kilometer pro Sekunde, sein
Magnetfeld ist nach Süden
gerichtet. Helle Nordlichter erscheinen bis zu einer magneti­
schen Breite von 18 Grad Nord.
röntgen-Flare
3. und 4. September
Die Hauptphase der geomag­netischen Störungen durch
den zweiten Auswurf endet.
Am Himmel sind noch einzelne
Polarlichter mit deutlich ver­
ringerter Intensität zu sehen.
sichtungen von
Polarlichtern
Astronomie & Physik
men – steht die Fleckengruppe der Erde genau
gegenüber, hat sie also gewissermaßen im Fokus. Dabei müsste die Sonne nicht einmal
sonderlich genau zielen, denn sobald ein Massenauswurf die Erdbahn erreicht, hat er sich
zumeist auf gut 50 Millionen Kilometer und
damit auf eine Breite von einem Mehrtausendfachen des Erddurchmessers ausgedehnt.
2. Der erste Treffer. Der erste Massenauswurf
benötigt vermutlich 40 bis 60 Stunden, um
die Erde zu erreichen. Magnetometerdaten
von 1859 deuten auf eine spiralförmige Struktur des Magnetfelds im ausgeworfenen Plasma
hin. Als das ionisierte Gas zum ersten Mal die
Erde trifft, zeigt sein Feld nach Norden. Dadurch verstärkt es das irdische Magnetfeld,
was die Folgen gering hält. Gleichzeitig aber
staucht es die Magnetosphäre, also die Raumregion, in der das irdische Magnetfeld über
das der Sonne dominiert. Zu diesem Zeitpunkt registrieren die Magnetometer den Beginn eines magnetischen Sturms.
Doch während das Plasma weiter an der
Erde vorbeiströmt, dreht sich das Feld allmählich. 15 Stunden später zeigt es genau in die
dem irdischen Magnetfeld entgegengesetzte
Richtung. Dabei kommt es zu einem magnetischen »Kurzschluss«, einer Rekonnektion: Die
nach Norden zeigenden Feldlinien des Erdmagnetfelds und die nach Süden zeigenden Feldlinien des Plasmas berühren einander, verbinden sich und nehmen eine energieärmere Konfiguration ein. Dabei setzen sie große Energien
frei, womit die Störungen der Telegrafen und
das Auftreten der Polarlichter ihren Anfang
nehmen. Erst ein bis zwei Tage später, als das
Plasma die Erde passiert hat, normalisiert sich
das geomagnetische Feld wieder.
3. Das Röntgen-Flare. Die größten koronalen Eruptionen gehen typischerweise mit
einem oder mehreren intensiven Flares einher.
Der Strahlungsblitz, den Carrington und andere am 1. September im optischen Bereich
beobachteten, deutet auf Temperaturen von
fast 50 Millionen Kelvin und damit auf enorme Energiemengen hin, die in der Sonnenatmosphäre frei werden. Dabei muss neben
sichtbarem auch Röntgen- und Gammalicht
abgestrahlt worden sein. Nach achteinhalb
Minuten treffen die energiereichen Photonen
auf der Erde ein und übertragen Energie in
die Ionosphäre. Hätte es damals schon Kurzwellenempfänger gegeben, wären sie dadurch
nutzlos geworden. Denn an dieser hochatmosphärischen Schicht aus ionisiertem Gas wird
kurzwellige Radiostrahlung normalerweise zurück zum Erdboden reflektiert, nun aber wird
sie immer stärker absorbiert. Die Energie der
Röntgenstrahlung heizt außerdem die obere
Atmosphäre auf, die sich dadurch um meh­
SPEKTRUM DER WISSENSCHAFT · März 2009
Es regnet
Protonen
Solare Protonenereignisse
sind Schauer energiereicher
Protonen, die gelegentlich
zusammen mit Flares und
koronalen Massenauswürfen
auftreten. Sie können Datenspeicher und elektronische
Schaltkreise in Satelliten
zerstören, belasten aber auch
Astronauten und Flugpassagiere mit einer zusätzlichen
Strahlungsdosis.
Die energiereichsten Protonen
erzeugen in der Atmosphäre
auch sekundäre Neutronen,
die bis auf den Erdboden gelangen und sich dort als
ground level events von entsprechenden Instrumenten
detektieren lassen. Die Gesundheit gefährden die
neutralen Teilchen aber nicht.
Georg Wolschin
Facetten der Physik
Höhepunkte moderner
physikalischer und
astronomischer Forschung
Mit einem Vorwort von
Peter Grünberg
Sturmspuren
im EIS
Als Kenneth G. McCracken
von der University of Maryland Bohrkerne aus dem Eis
Grönlands und der Antarktis
untersuchte und die Kon­
zentration von im Eis eingeschlossenen Nitraten maß,
stieß er auf plötzliche
sprunghafte Veränderungen.
In den zurückliegenden
Jahrzehnten scheinen diese
Sprünge mit bekannten
Ereignissen auf der Sonne zu
korrelieren. Die größte
Nitratanomalie, die für die
vergangenen 500 Jahre
gefunden wurde, lässt sich
auf das Jahr 1859 zurück­
führen und ist etwa äquivalent zur Summe aller grö­
ßeren Ereignisse der letzten
vier Jahrzehnte.
Höhepunkte moderner physikalischer und astronomischer
Forschung der letzten zehn Jahre werden in zahlreichen aufeinander abgestimmten Einzelbeiträgen dargestellt. Die mit
aufschlussreichen Bildern und
Internet-Quellen zur eigenen
Recherche versehenen Essays
begleiten in Form einer Chronik die Forschung und zeigen
exemplarisch das Fortschreiten naturwissenschaftlicher Erkenntnis. Zum Internationalen
Jahr der Astronomie 2009 liegt
ein besonderer Schwerpunkt
auf astrophysikalischen Themen.
266 Seiten / Format 17 x 24 cm
geb. Ausgabe / 39,90 Euro
ISBN 978-3-86858-060-0
www.shaker-media.de
27
Weltraumwetter
Polarlichter wie hier im isländischen Njardvik entstehen,
wenn geladene Teilchen vor
allem aus dem Sonnenwind mit
Gasmolekülen in der Atmosphäre
kollidieren. (Die Farben entsprechen den Emissionen verschiedener chemischer Elemente.) Sie
treten meist in polaren Regionen
auf, große Sonnenstürme lassen
sie aber auch in tropischen
Breiten erscheinen.
Unbeachtetes
Risiko
Durch ihre Abhängigkeit von
elektronischen Geräten wird
die Gesellschaft immer verletzlicher gegenüber Sonnenstürmen, was in der öffentlichen Wahrnehmung
aber keine Rolle spielt. Als
die Autoren Zeitungsausgaben seit den 1840er Jahren
auf die Berichterstattung
über Weltraumwetter-Ereignisse durchforsteten, stellten sie fest: In der Zeit etwa
vor 1950 waren magnetische
Stürme, solare Flares und
ihre Folgen den Tageszeitungen aufwändige Titelgeschichten wert. In fünf Zentimeter großen Lettern
titelte beispielsweise der
»Boston Globe« am 24. März
1940: »U.S. Hit by Magnetic
Storm« (USA von magnetischem Sturm getroffen). Seit
1950 aber werden solche
Berichte in die Innenteile
der Zeitungen verbannt.
28 rere zehn oder gar Hunderte von Kilometern
ausdehnt.
4. Der zweite Treffer. Das Raumgebiet, durch
das der erste Auswurf zog, ist nun fast frei von
Plasma. Bevor der Sonnenwind, ein steter
Strom geladener Partikel, es wieder auffüllen
kann, feuert die Sonne aber ein zweites Mal.
Diesen Massenauswurf blockiert nur noch
wenig Material, so dass er schon nach 17
Stunden eintrifft. Diesmal weist sein Magnetfeld nach Süden, als es auf die Magnetosphäre
der Erde trifft. Sofortiges geomagnetisches
Chaos ist die Folge. Der Aufprall ist so stark,
dass die in Sonnenrichtung rund 60 000 Kilometer weit reichende Magnetosphäre auf
7000 Kilometer oder möglicherweise gar bis
in die obere Stratosphäre hinein gestaucht
wird. Der unseren Planeten umgebende VanAllen-Gürtel – eine torusförmige Raumregion, in der geladene Teilchen wie in einer magnetischen Falle gefangen gehalten werden –
verschwindet vorübergehend. So wird eine
große Zahl von Protonen und Elektronen frei,
die für die intensiven roten Polarlichter weltweit verantwortlich gewesen sein könnten.
5. Neutronenregen durch energiereiche Protonen. Der Strahlungsblitz und die Massenauswürfe beschleunigen Protonen auf Energien
von 30 Megaelektronvolt oder mehr. Im Bereich der Arktis, wo das Erdmagnetfeld am wenigsten Schutz bietet, dringen sie bis auf 50
Kilometer über der Erdoberfläche vor und laden weitere Energie in der Ionosphäre ab.
Nach Berechnungen von Brian C. Thomas von
der Washburn University in Topeka (Kansas)
sinkt die Menge stratosphärischen Ozons dadurch um fünf Prozent. Die schnellsten Protonen mit Energien von über einer Milliarde
Elektronvolt reagieren jetzt mit den Kernen
von Stickstoff- und Sauerstoffatomen der Luft
und setzen dabei Neutronen frei, die auf den
Erdboden treffen und Nitratanomalien verursachen (siehe »Sturmspuren im Eis«, S. 27).
Satelliten in Gefahr
Schon das alltägliche Weltraumwetter fordert seinen Tribut von Satelliten. Ein Supersturm aber würde binnen weniger Stunden
Schäden anrichten, die dem Verschleiß während mehrerer Jahre entsprechen.
Illustrationen: Melissa Thomas; Satellit: JPL
Corbis / Arctic-images
6. Starke elektrische Ströme. Während sich
die Polarlichter von den hohen Breiten, wo sie
üblicherweise sichtbar sind, in südlichere Gefilde ausbreiten, induzieren die in der Ionosphäre und den Polarlichtern fließenden elektrischen Ströme auch am Erdboden starke
Ströme. Sie breiten sich über ganze Kontinente aus und finden auch Wege in das Telegrafennetz, wo die Spannung zu hochgefährlichen, viele Ampère starken Entladungen
führt und mehrere Telegrafenstationen in
Brand setzt.
Letztlich aber waren die Folgen des Sturms
von 1859 überschaubar. Trifft uns ein solches
»Unwetter« heute erneut, drohen unheilvollere Szenarien. Am offensichtlichsten bedroht sind Satelliten, denn Sonnenstürme
schaden der Energieversorgung der ohnehin
empfindlichen Sonden. Schon unter normalen Umständen lassen die Partikel der kosmischen Strahlung die Solarzellen erodieren,
wodurch sie jährlich etwa zwei Prozent weniger Strom erzeugen. Außerdem stören eindringende Teilchen die Elektronik. So wurde
etwa der US-Kommunikationssatellit Telstar
401 im Jahr 1997 irreparabel beschädigt, und
bereits 1994 hatte solare Aktivität die kanadische Sonde Anik E2 für Monate außer Kontrolle geraten lassen. Nach einer neuerlichen
Treffen solare Teilchen und Strahlung auf
die Erdatmosphäre, bläht sich diese auf. Für
Satelliten auf niedrigen Umlaufbahnen
erhöht sich dadurch die Luftreibung.
SPEKTRUM DER WISSENSCHAFT · März 2009
Astronomie & Physik
solaren Attacke im Jahr 1996 war auch ein
Solarmodul ihres Schwestersatelliten Anik E1
nicht mehr zu gebrauchen – es musste fortan
mit halber Energie auskommen. Generell gilt,
dass starke Sonnenstürme die Lebensdauer
von Satelliten binnen Stunden um ein bis drei
Jahre verringern und hunderte Fehler auslösen
können, von harmlosen falschen Kommandos
bis hin zu zerstörerischen elektrostatischen
Entladungen.
Machtlos gegenüber den Folgen
Welche Kosten damit einhergehen könnten,
zeigten wir, indem wir anhand 1000 unterschiedlicher Sturmszenarien das Schicksal speziell von Kommunikationssatelliten untersuchten. Die Intensitäten lagen dabei zwischen der des Ereignisses von 1859 und jener,
die der größte Sturm im Raumfahrtzeitalter
am 20. Oktober 1989 aufwies. Unter anderem fanden wir heraus, dass Satellitenbetreiber Umsatzverluste von oft über 20 Milliarden
US-Dollar hinnehmen müssten, weil sie keine
Kommunikationsverbindungen zur Verfügung
stellen können. Dabei gingen wir allerdings
von der Annahme aus, dass sie von vornherein
große Ersatzkapazitäten für die Datenübertragung und eine anfänglich zehnprozentige
Überschussproduktion von Energie vorsehen.
Unter weniger optimistischen Annahmen
können die Verluste hingegen bis zu 70 Milliarden Dollar betragen. Das entspricht etwa
dem jährlichen Umsatz aller Kommunikationssatelliten zusammengenommen. Noch gar
nicht berücksichtigt sind dabei Folgekosten
für die Nutzer ihrer Dienste.
Glücklicherweise sind geostationäre Kommunikationssatelliten zumindest gegenüber
Sonnenstürmen einer Stärke, wie sie statistisch
einmal pro Jahrzehnt auftritt, erstaunlich robust. Ihre Lebensdauer ist seit 1980 von
damals knapp fünf Jahren auf jetzt fast 17 Jahre gestiegen. Außerdem bestehen ihre Solarzellen mittlerweile nicht mehr aus Silizium, sondern aus Galliumarsenid, weshalb sie leichter
und effizienter, aber auch widerstandsfähiger
als ihre Vorgänger sind. Und schließlich erhalten Satellitenbetreiber (ebenso wie Fluglinien)
mittlerweile Sturmwarnun­gen, etwa vom europäischen Weltraumwetternetz SWENET oder
vom Zentrum für Weltraum­wettervor­hersage
der amerikanischen Wetter- und Ozeanografiebehörde NOAA. Letztere informiert rund
1000 US-Regierungsstellen und Firmen, so
dass sie fehleranfällige Satellitenmanöver während des Sturms vermeiden können.
Doch nicht alle Folgen eines Supersturms
lassen sich abmildern. Transportiert Röntgen-
Energiereiche Teilchen lassen Solarzellen erodieren. Außerdem dringen sie in die elektronischen Schaltkreise ein und lösen
dort falsche Signale aus. Datenverlust oder
gar der Verlust der Kontrolle über den
Satelliten kann die Folge sein.
Computer
unter Strom
Auch elektronische Geräte
leiden unter starken Son­
nenstürmen, denn energiereiche Protonen von der
Sonne können im Erdboden
Neutronen erzeugen. Ergebnisse einer Studie des
IT-Konzerns IBM aus den
1990er Jahren deuten darauf
hin, dass die Sekundäreffekte kosmischer Strahlung
in Computern (die in der
Regel nicht abgeschirmt
sind) typischerweise einen
Fehler pro 256 Megabyte
Arbeitsspeicher (RAM) und
Monat verursachen. Die
Strahlungsflüsse, die mit
einem Sonnensturm einhergehen, würden weltweit also
zahlreiche Computer versagen lassen. Ein Neustart der
Geräte dürfte das Problem
allerdings in den meisten
Fällen beheben.
SchutzmaSSnahmen
Noch widerstandsfähiger
würden die Satelliten,
wenn die Ingenieure
deren Abschirmungen
verstärkten, die elektrischen Spannungen der
Solarmodule verringerten
(um elektrostatischen
Entladungen entgegenzuwirken), zusätzliche
Back-up-Systeme einbauten und gegenüber
Datenverlusten unempfindlichere Software entwickelten.
Elektronen können sich auf Satelliten ansammeln und zu elektrostatischen Entladungen führen, die wiederum die Elektronik beschädigen.
SPEKTRUM DER WISSENSCHAFT · März 2009
29
Wenn
die Lichter ausgehen
Weltraumwetter
Elektrische Ströme in der Ionosphäre induzieren
Ströme im Erdboden und in Pipelines.
elektrische Ströme in
der Ionosphäre
Transformator
induzierter
Strom
Pipeline
vo
as;
l. Gen.
sa Thom te: mit frd
: Melis
ar
ration
d USA-K
Illust
ator un
Transform
Welche Gefahr
droht Astronauten?
Selbst bei einem Supersturm
wären Astronauten in einer
niedrigen Erdumlaufbahn
wahrscheinlich keiner tödlichen Strahlungsdosis ausgesetzt. Lawrence W. Townsend von der University of
Tennessee in Knoxville hat
für die erwartbare Belastung
einen Wert von 0,2 Gray
ausgerechnet. Das entspricht
etwa der von der NASA festgesetzten Grenze für einen
30-tägigen Aufenthalt im All,
ist aber immer noch mehr,
als Menschen am Erdboden
während eines 70-jährigen
Lebens durch natürliche
Strahlungsquellen empfangen. Die Belastung für Passagiere in einem hoch
fliegenden Flugzeug ist vergleichbar mit der, die bei
einer Computertomografie
entsteht.
30 n John
Kappe
nman
Diese Ströme können in Transformatoren
eindringen und sie durchbrennen lassen.
Weil Sonnenstürme nicht lokal begrenzt
sind, könnte dies überall in einem Land
oder Kontinent geschehen, was wochenlange Reparaturen nach sich ziehen würde.
strahlung Energie in die Atmosphäre, bläht
sich die Lufthülle unseres Planeten auf, wodurch Satelliten stärkerer Reibung ausgesetzt
sind. So verlor der japanische Forschungssatellit ASCA infolge des Sturms am 14. Juli
2000 an Höhe, seine Stromversorgung fiel
aus, und wenige Monate später verglühte er
vorzeitig in der Atmosphäre. Dem Risiko, wenige Wochen oder Monate nach einem
starken Sturm verloren zu gehen, unterliegen
alle Satelliten auf niedrigen Umlaufbahnen bis
etwa 600 Kilometer Höhe.
Aber auch Elektrizitätsnetze sind bedroht,
zumal sie schon bei gutem »Wetter« fragile
Gebilde sind. Laut Kristina Hamachi-LaCommare und Joseph H. Eto vom kalifornischen
Lawrence Berkeley National Laboratory verliert die US-Wirtschaft durch Spannungsabfälle oder Stromausfälle jährlich etwa 80 Milliarden Dollar, da die Netze den Ansprüchen der
Nutzer immer weniger gewachsen sind. Europa ist ebenso anfällig. 2006 führte eine von
Deutschland ausgehende Kaskade von Störungen gar zu kontinentweiten Ausfällen.
Sonnenstürme stellen die Netze aber vor
völlig neue Probleme, denn geomagnetisch induzierte Ströme können die großen geerdeten
Transformatoren beschädigen. Unter Umständen dringen die Gleichströme über die Erdungskabel ein und erzeugen in den Spulen
Temperaturspitzen von über 200 Grad Celsi-
induzierter
Strom
us, woraufhin Kühlmittel verdampfen und die
Transformatoren durchbrennen. Selbst wenn
dies ausbleibt, können die Ströme dazu führen, dass deren Magnetkerne während der einen Hälfte des Wechselstromzyklus gesättigt
sind und die Wellenform des Stroms stören.
Ein Teil der Energie entfällt dadurch auf Frequenzbereiche, auf die elektrische Endgeräte
nicht zugreifen können. Weil Sonnenstürme
nicht lokal begrenzt sind, droht schließlich ein
netzweiter Kollaps der Spannungsregulation.
John G. Kappenman von der kalifornischen Metatech Corp., der 2003 auch dem
amerikanischen Kongress Rede und Antwort
stand, zeigte in Studien, dass der magnetische
Sturm vom 15. Mai 1921, träfe er uns heute
erneut, zu Stromausfällen in halb Nordame­
rika führen würde. Ein Supersturm wie der
von 1859 zwänge gar das gesamte nordamerikanische Netz in die Knie, zumal hier die
Auswirkungen auf Grund der geografischen
Nähe zum nördlichen Erdmagnetpol besonders groß sein dürften.
Gleichzeitig würde er auch den Funkverkehr und damit das globale Positionssystem
GPS stören. Denn intensive solare Flares stören nicht nur die Ionosphäre, durch die sich
die GPS-Zeitsignale hindurchbewegen. Sie verstärken auch das Rauschen auf den GPS-Frequenzen, was die Positionsbestimmung (durch
militärische wie zivile Nutzer) um 50 Meter
SPEKTRUM DER WISSENSCHAFT · März 2009
Eine Studie zeigte, dass
ein dem Sonnensturm
von 1921 vergleichbares
Ereignis in großen Teilen der USA (graue und
blaue Flächen) die Lichter ausgehen ließe. Im
Erdboden würden sich dabei elektrische Felder einer
Stärke von etwa 20 Volt pro Kilometer aufbauen. Und was geschieht mit
der Stromversorgung, wenn der Sturm so
stark wäre wie 1859? Entsprechende Simulationen stehen noch aus.
oder mehr verfälschen kann. Ein vergleichbarer
Präzisionsverlust trat beim Sonnensturm vom
29. Oktober 2003 auf. Damals schaltete sich
das Wide Area Augmentation System ab (ein
Funknetz, das die Genauigkeit der GPS-Positionen verbessert), so dass viele Piloten auf Alternativen zurückgreifen mussten.
Meidet die Polarregion!
Insbesondere in hohen Breiten würden energiereiche Teilchen auch den Funkverkehr mit
Flugzeugen beeinträchtigen und entsprechende Gefahren heraufbeschwören. Flüge über
die Polarregion wurden daher schon häufiger
in niedrigere Breiten umgelenkt, außerdem
mussten sie auf geringere Flughöhen gehen –
Umwege, die jeweils Zehntausende von Dollar Treibstoffkosten verursachen können.
Selbst schwächere Stürme kommen uns
teuer zu stehen. 2004 untersuchten Kevin
Forbes von der Catholic University of America
in Washington D. C. und Orville Chris St.
Cyr vom Goddard Space Flight Center der
NASA in Greenbelt, Maryland, eines der
größten Stromnetze der USA. Ein Teil des
Stroms daraus wird zu Real-Time-Preisen verkauft, die alle fünf Minuten ermittelt werden.
In einem 19-monatigen Zeitraum in den Jahren 2000/2001, so fanden Forbes und St. Cyr
heraus, hatten allein Sonnenstürme diese Preise um etwa drei bis vier Prozent erhöht.
SPEKTRUM DER WISSENSCHAFT · März 2009
Das US-Verteidigungsministerium wiederum schätzte ab, dass Störungen von Satelliten
der amerikanischen Regierung durch solare
Aktivitäten mit jährlich 100 Millionen Dollar
zu Buche schlagen. Und von 1996 bis 2005
zahlten Versicherungen knapp zwei Milliarden Dollar für Schäden an kommerziellen Satelliten, die zum Teil ebenfalls auf ungünstiges
Weltraumwetter zurückgehen.
Wie können wir uns schützen? Seit rund
20 Jahren bemühen sich Einrichtungen weltweit, Vorhersagemodelle für das Weltraumwetter zu entwickeln. Die Daten liefert allerdings
ein Sammelsurium von Satelliten, die für ganz
unterschiedliche Forschungsaufgaben entwickelt wurden, nicht aber für eine verlässliche,
langfristige Beobachtung des Weltraumwetters. Um mehr Messwerte und damit zuver­
lässigere Vorhersagen zu gewinnen, bräuchten
wir daher vor allem kostengünstige, langlebige
Weltraumbojen, die mit einfachen Geräten
»von der Stange« arbeiten. In jedem Fall aber
haben die Forscher noch einen langen Weg
vor sich, bis sie die Physik der Sonnenstürme
verstehen und auch deren Folgen vorhersagen
können. Wenn wir unsere technische Infrastruktur wirklich schützen wollen, müssen wir
die Investitionen in ihre Vorhersage, Modellierung und Erforschung darum deutlich erhöhen – nur dann sind wir für den nächsten solaren Supersturm wirklich gerüstet. Sten F. Odenwald (links) ist Professor für Astronomie an der Catholic University of America in Washington D. C., außerdem SeniorWissenschaftler bei SP Systems in
Greenbelt (US-Bundesstaat Maryland). Das Unternehmen berät unter
anderem die NASA in Fragen der
Weltraumforschung und Informationstechnologie. Odenwald ist auch
erfolgreicher Autor populärwissenschaftlicher Texte und steht als
solcher beim Goddard Space Flight
Center der NASA unter Vertrag.
Seine wichtigsten Forschungsgebiete sind der kosmische Infrarothintergrund und die Phänomenologie des Weltraumwetters. James L.
Green ist Direktor der Planetary
Science Division der NASA, gehört
zum Team der Magnetosphärensonde IMAGE und ist auf die Magnetosphären von Planeten spezialisiert. Während seiner Arbeit an
einer Veröffentlichung über den
Einsatz von Ballons im amerikanischen Bürgerkrieg stieß er auf mehr
als 200 Zeitungsartikel über den
Sonnensturm von 1859.
Forbes, K. F. et al.: Solar Activity
and Economic Fundamentals:
Evidence from 12 Geographically
Disparate Power Grids. In: Space
Weather 6(10), S10003, 25.
Oktober 2008.
Forbes, K. F. et al.: Space Weather
and the Electricity Market. In: Space
Weather 2(10), S10003, 21. Oktober
2004.
Odenwald, S. F.: The 23rd Cycle:
Learning to Live with a Stormy Star.
Columbia University Press, New
York 2001.
Shea, M. et al.: The Great Historical
Geomagnetic Storm of 1859: A
Modern Look. In: Advances in Space
Research 38(2), S. 117 – 118, 2006.
Weblinks zu diesem Thema finden
Sie unter www.spektrum.de/artikel/
979749.
31
Schlichting!
Diesen Artikel können Sie als Audiodatei beziehen; siehe www.spektrum.de/audio
Schnell und schmerzlos –
Physik am Morgen
Über eine nicht ganz gesellschaftsfähige, aber physikalisch
hochinteressante Methode, heiße Getränke zu kühlen
Der Mensch kann … nach allen Arten [trinken].
Er saugt an der Mutter-Brust schon und beständig
wenn er ordentlich stark trinkt, den Tee schlurft er
mit erweiterter Brust ein, und wenn er aus einer
Bouteille mit einem engen Hals trinkt, so gießt er.
Georg Christoph Lichtenberg
(1742 – 1799)
Richard Zinken
Luftsäule zwischen den gespitzten Lippen eine
chaotische Schwingung ausbildet.
Jetzt endlich durchmischen sich kühle
Luft und heiße Flüssigkeitsportionen in idealer Weise. Einerseits stellt sich eine im Mittel
gleich bleibende Mischungstemperatur ein,
die niedriger ist als die der Flüssigkeit allein.
Andererseits kommen die Schleimhäute nur
mit kleineren Flüssigkeitsportionen in Berühan kennt das: Kurz bevor morgens der rung, die durch Luft thermisch voneinander
Bus kommt, ist der Kaffee (oder Tee) isoliert sind und daher auch eine geringere
noch viel zu heiß. Schmerzlosen Genuss er- Wärme­kapazität aufweisen. Dies reduziert die
langen wir in der Eile nur, wenn wir uns auf Stärke des Wärmestroms zwischen Schleimmehr oder weniger lautstarkes Schlürfen ver- häuten und eingeschlürftem Fluid auf ein verlegen – und damit physikalisch höchst trick- trägliches Maß.
Das typische Schlürfgeräusch ist demnach
reich vorgehen. Rein praktisch gesehen­
kann nämlich, wer schlürft, den thermischen keine gewollte, womöglich provozierende AkEnergiestrom zwischen heißem Getränk und tion – auch wenn es Georg Christoph Lichempfindlichen Schleimhäuten recht präzise tenberg zufolge (»der Ochse schlurft«) eine
gewisse Verwandtschaft mit den akustischen
steuern.
Die Rückkopplungswege sind so kurz, Emissionen Wasser trinkenden Rindviehs aufdass sich die entscheidenden Schlürfpara- weist. Es ist vielmehr Begleiterscheinung eines
meter fast instantan an die jeweiligen Trink- turbulent schwingenden Fluidstroms und dabedingungen anpassen lassen. Zum einen mit unabdingbar für die unschädliche Aufkann der geschickte Schlürfer den Unterdruck nahme von heißer Flüssigkeit.
im Mund-Rachen-Raum und damit den
Natürlich geht es auch anders, zum BeiStoffstrom sehr fein dosieren. Wichtig ist da- spiel mit Suppe. Wer den heißen Dampf über
bei, den Einlassquerschnitt durch mehr oder dem Suppenlöffel wegbläst, senkt die dort
weniger starkes Zuspitzen der Lippen zu vari- herrschende extrem hohe Luftfeuchte radikal.
ieren.
Jetzt können weitere Wassermoleküle verdunsZum anderen aber muss er den Abstand ten und der heißen Suppe Energie entziehen.
zwischen Lippen und heißer Flüssigkeit fein Physikalisch und feinmotorisch anspruchsvol­
einjustieren – so, dass infolge des durch Ein- ler ist aber auch hier die Schlürfvariante: Ohne
saugen erzeugten Unterdrucks eine wohl do- den Löffel mit den Lippen zu berühren – er
sierte Flüssigkeitsmenge in den Mund gelangt. wird genauso heiß wie die Suppe, obendrein
Entscheidend ist schließlich, dass der Fluid- leitet er die Wärme besonders gut –, levitiert
strom in Turbulenzen gerät, weil sich in der man sie genießerisch vom Essbesteck.
Auch Blasen wäre eine Lösung.
Wer aber, um die Schleimhäute
zu schonen, seinen heißen Tee
schlürft, bedient sich einer
physikalisch und feinmotorisch
deutlich anspruchsvolleren
Kühlungsmethode.
H. Joachim Schlichting ist Professor
und Direktor des Instituts für
Didaktik der Physik an der Univer­sität Münster.
32
M
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
PHYSIKALISCHE UNTERHALTUNGEN
sonnensystem (II)
Romantische Venusnächte
im Erdenschein
Venus hat mit ihrem Umlauf und ihrer Rotation besondere Resonanzverhältnisse zum Erdumlauf. Da könnte
ein erdsüchtiger Venusbewohner immer wieder ein eindrucksvolles Himmelsschauspiel genießen.
Von Norbert Treitz
W
ir Erdlinge haben es mit unserem
Planeten schon ganz gut getrof­
fen. Es ist nicht nur sein Abstand von
der Sonne sehr stabil und innerhalb des
für unser Leben zuträglichen Bereichs,
auch der Anblick des Nachthimmels ist
im Sonnensystem unübertroffen. Kein
anderer Planet kann seinen Bewohnern
derart romantische Mondscheinspazier­
gänge bieten, denn unser Mond ist von
allen Trabanten, im Verhältnis zum je­
weiligen Mutterplaneten, der mit Ab­
stand größte.
Was allerdings den Anblick der an­
deren Planeten angeht, so ist zwar die
Venus von der Erde aus ganz nett anzu­
schauen; aber die Erde in Opposition
alle Abbildungen des Artikels: Christoph Pöppe, nach Norbert Treitz
Links ein (bezüglich der Erde) synodischer
Umlauf heliogeostatisch mit Venus als »Morgen- und Abendstern«; rechts ein (bezüglich
Venus) synodischer Erdumlauf helioveneristatisch mit Erdphasen, von der Venus aus
gesehen. Die Marsphasen für Erdbewohner
sehen ähnlich unauffällig aus.
zur Sonne, von der Venus aus gesehen,
bietet einen weitaus prachtvolleren An­
blick. Dann nämlich stehen Sonne, Ve­
nus und Erde in gerader Linie; die Ve­
nus ist der Erde so nahe wie überhaupt
möglich, und die Sonne in ihrem Rü­
cken bestrahlt die volle der Venus zuge­
wandte Erdhälfte.
Nur der Anblick der Venus vom
Merkur aus in entsprechender Position
kann dieses Erlebnis noch übertreffen,
und zwar etwa um den Faktor 4. Denn
die Entfernung zwischen beiden Pla­
neten ist annähernd die gleiche; aber die
Sonne strahlt wegen der größeren Nähe
doppelt so hell, und die Venus reflektiert
wegen ihrer dichten Wolkendecke das
Sonnenlicht mehr als doppelt so stark
wie die Erde.
Beim Blick von einem äußeren zu
einem inneren Planeten, zum Beispiel
von Erde zu Venus oder Mars zu Erde,
ist die Prachtentfaltung dagegen ge­
dämpft. Stehen beide Planeten von der
Sonne gesehen in der gleichen Richtung
(abgesehen von der geringen Neigung
ihrer Bahnebenen gegeneinander), so
steht der innere (hier also Venus) für
den äußeren (Erde) in »unterer Kon­
junktion« zur Sonne, der äußere »in Op­
position« zu ihr, das heißt in Gegenrich­
tung. Nach der Hälfte ihrer gemein­
samen Umlaufzeit von 1,6 Jahren stehen
sich beide Planeten gegenüber und ha­
ben die Sonne genau zwischen sich. Ve­
nus ist dann für die Erde in »oberer
Konjunktion«, diese für Venus ebenfalls,
wobei aber das Adjektiv »obere« jetzt
überflüssig ist.
Nur bei oberer Konjunktion sehen
wir die volle Tagseite, aber in größter
Entfernung und im Allgemeinen über­
strahlt durch die in der gleichen Rich­
tung stehende Sonne, bei unterer dage­
gen die volle Nachtseite, groß, aber trotz­
dem dunkel. Zwischendurch gibt es den
»größten Glanz«, das heißt die relativ
hellste Sichel (Bild unten, links).
Vom inneren zum äußeren Planeten
(Bild unten, rechts) gibt es bei Opposi­
tion die Tagseite aus der Nähe zu sehen
und bei Konjunktion noch einmal von
Weitem. Auch zwischendurch sind die
Phasen nur unauffällig, dem Vollkreis
fehlt stets nur eine schmale Sichel. Auch
wenn der äußere Planet vom inneren aus
(obere)
Konjunktion
obere
Konjunktion
östliche
Elongation
westliche
Elongation
untere
Konjunktion
Abend
Quadratur
Morgen
SPEKTRUM DER WISSENSCHAFT · März 2009 Quadratur
Opposition
33
PHYSIKALISCHE UNTERHALTUNGEN
Der verschlungene Weg der Erde – von Venus aus
Vom kopernikanischen Standpunkt aus
(kleines Bild) ist die Sache ganz einfach: Um
die Sonne (gelb) kreisen die Venus (weiß/
grau) und in etwas größerem Abstand die
Erde (hellblau/dunkelblau). Jedes Paar aus
einem hellen und einem dunklen Streifen
»dauert« in allen Bildern 1/13 Jahr. Da die
Umlaufzeiten in Resonanz stehen, passen in
die Erdbahn genau 13 und in die Venusbahn
genau 8 Streifenpaare.
Ein Beobachter auf der Venus kann die
Bewegungen von Sonne und Planeten eben­
so beschreiben, wie Tycho Brahe das auf der
Erde tat (Bild S. 35, links): Venus ruht in der Mitte, die Sonne
kreist um sie, und die Erde läuft auf einer Epitrochoide (nicht Epi­
zykloide), deren fünf innerste Scheitel die Oppositionen der Erde
bezüglich Venus zeigen. Nach diesen fünf Oppositionen (zugleich
untere Konjunktionen der Venus für die Erde) entsprechend acht
Erdjahren schließt sich die­se Kurve recht genau. Die Scheitel sind
die Ecken eines regulären Fünfecks um Venus herum. Sie werden
in der Reihenfolge des roten Fünfsterns aufgesucht, den ein auf
gesehen rechtwinklig zur Sonne steht
(»Quadratur«), zeigt er uns mehr als ei­
nen hellen Halbkreis.
Für die Phasen kommt es allein auf
das Dreieck aus Sonne, beobachtendem
Planeten und angeblicktem Planeten an,
genauer, auf den Winkel bei Letzterem.
Wie dieses Dreieck in unserem Koordi­
natensystem orientiert ist, spielt keine
Rolle. Darum kann man anhand der
Phasen – zum Beispiel – der Venus auch
nicht zwischen den Planetenbahnmodel­
len von Kopernikus und Tycho Brahe
unterscheiden (Spektrum der Wissen­
schaft 2/2009, S. 42).
Wenn in dem Dreieck Erde –Venus–
Sonne der Winkel bei der Venus ein rech­
ter ist, läuft für uns die Venus in maxi­
malem Winkelabstand (»maximale Elon­
gation«) vor der Sonne als Morgenstern
(»Phosphoros«) oder hinter ihr als Abend­
stern (»Hesperos«). Dieser Winkel, des­
sen Sinus das Verhältnis der Bahnradien
ist, beträgt rund 47 Grad. Seit Pythago­
ras weiß man, dass Morgen- und Abend­
stern ein und dasselbe Objekt sind.
Venus läuft in 224,701 Tagen = 0,615
(siderischen) Jahren um die Sonne, das
sind 1,625 Umdrehungen pro Jahr. Es
dauert daher 1/0,625 Jahre, bis sie eine
Runde Vorsprung erreicht, das sind auf
1/120 Prozent genau 1,6 Jahre. Das Ver­
hältnis der Umlauf-Winkelgeschwindig­
keiten beider Planeten ist 1,625 : 1; das ist
34
Venus ansässiger Astronom Pentagramma
Terrae nennen würde.
Dieses Bild berücksichtigt nur die um­
laufende Wanderung, aber nicht die Dre­
hung der Venus. Das Bild auf S. 35 rechts
führt ­diese Rotation nach, so dass die Hori­
zont­ebene durch einen Punkt auf dem Ve­
nus­äquator als waagerechte Gerade im Bild
erscheint und der Zenit stets oben über dem
Bild steht – in der Bildebene, aber unend­
lich weit oben. Um den endlich hohen Punkt,
durch den die Sonne am Mittag läuft, ist ein
rotes reguläres Fünfeck gezeichnet. Seine
Ecken werden immer dann durchlaufen, wenn der betrachtete Ort
Mitternacht hat. Das sind also fünf feste Richtungen, die abwech­
selnd von der Erde besetzt werden (hier durch hellblaue Marken
angezeigt). Der Lauf der Erde um den festen Ort auf der rotie­
renden Venus schließt sich (mitsamt den Entfernungen!) nach
einem Konjunktionszyklus, also nach 1,6 Jahren. Die Opposition
der Erde findet also immer zur gleichen Sonnenzeit statt, auf dem
hier gewählten Meridian stets bei Sonnenuntergang.
recht genau gleich 13 : 8, ein Quotient
aus kleinen ganzen Zahlen, sozusagen
eine »sehr rationale« Zahl. Das lässt ver­
muten, dass beide Planeten im Begriff
sind, durch gegenseitige Bahnstörungen
in eine Art Gleichgewicht, eine stabile
Resonanz, zu kommen. Unter anderen
Umständen, nämlich wenn kleine Ob­
jekte von einem großen gestört werden,
können dagegen rationale Umlaufzeitver­
hältnisse auch benachteiligt sein, wie wir
bei den Kirkwood-Lücken um Kleinpla­
netengürtel und bei den »Teilungen« der
Saturnringe gesehen haben (Spektrum
der Wissenschaft 11/2006, S. 104).
Das Pentagramma Veneris
Nach den ganzen 1,6 Jahren, also einem
vollen Konjunktionszyklus, stehen Son­
ne, Venus und Erde wieder in dieser Fol­
ge in einer Reihe, sehen aber einander
vor anderen Stellen des Fixsternhimmels,
nämlich um 1,6 beziehungsweise 2,6
Umdrehungen weiter. Beides ist (»der
Himmel ist rund«) nicht von 0,6 Um­
drehungen vorwärts oder 0,4 Umdre­
hungen rückwärts zu unterscheiden.
Nach fünf Konjunktionszyklen, also
5 . 1,6 = 8 Jahren ist Venus 13-mal um­
gelaufen, und diesmal stehen die drei
Himmelskörper auch auf den Fixstern­
himmel bezogen fast genau in derselben
Richtung. Markiert man die fünf Rich­
tungen als Punkte auf einem Kreis »rund
um den Himmel« und verbindet sie in
der durchlaufenen Reihenfolge durch
Geraden, so gibt es ein Sternfünfeck, das
Pentagramma Veneris (Kasten oben).
So hübsch das alles ist, so ist es doch
nur eine arithmetische Konsequenz aus
der 8 : 13-Resonanz zwischen Venus- und
Erdumlauf.
Eine viel erstaunlichere Resonanz be­
steht zwischen dem Umlauf der Erde
und der Eigenrotation der Venus. Diese
ist an sich schon seltsam genug und bie­
tet Anlass zu verschiedenen Spekulatio­
nen, denn sie ist sehr langsam und vor
allem retrograd.
Die meisten größeren Objekte im
Sonnensystem einschließlich der Erde
rotieren, vom Himmelsnordpol aus gese­
hen, gegen den Uhrzeigersinn. Im selben
Drehsinn durchlaufen sie auch ihre Um­
laufbahnen. Dieser bevorzugte Drehsinn
wird »rechtläufig« oder »prograd« ge­
nannt – etwas irreführend für den Erd­
bewohner, der es gewohnt ist, seine
Schrauben im Uhrzeigersinn einzudre­
hen und diese Bewegung »rechtsherum«
zu nennen. Winkelgeschwindigkeiten im
rechtläufigen Sinn werden positiv ge­
zählt und die zugehörigen Perioden
sinnvollerweise auch. Der andere Dreh­
sinn heißt »rückläufig« oder »retrograd«.
Früher vermutete man, dass die Ro­
tation der Venus mit + 224 Tagen an ih­
ren Umlauf gekoppelt sei. Demnach
SPEKTRUM DER WISSENSCHAFT · März 2009
Astronomie und Physik
würde die Venus der Sonne stets dieselbe
Seite zuwenden, so wie der Mond der
Erde, und für einen ortsfesten Venusbe­
wohner würde die Sonne immer an der­
selben Stelle des Himmels stehen: ewiger
Tag für die Bewohner der Sonnenseite,
ewige Nacht für die anderen. Aber das
ist überholt. In allen hinreichend neuen
Tabellen lesen wir, dass die Periode der
(rückläufigen) Rotation unserer Schwes­
ter – 243,0185 Tage dauert. Das sind
recht genau – 2/3 Erdjahre (tatsächlich
– 0,6653 Jahre), mit bemerkenswerten
Konsequenzen.
Wie lange dauert ein Sonnentag auf
der Venus, das heißt, wann steht für ei­
nen Venusbewohner die Sonne wieder
gleich hoch über dem Horizont? Dazu
subtrahiert man die Winkelgeschwindig­
keiten von Drehung (mit negativem Vor­
zeichen, wegen der Rückläufigkeit) und
Umlauf, das sind – (3/2) – (13/8) = – 25/8
Umläufe pro Erdjahr; die Zahlenwerte
sind so gerundet, als wäre die Resonanz
perfekt. Ein Venus-Sonnentag dauert
also – 8/25 Jahre oder –116,75 Tage, et­
was weniger als ein halbes Venusjahr. Die
Minuszeichen zeigen dabei an, dass auch
die Tageszeiten gewissermaßen rückwärts
laufen, die Sonne also im Westen aufund im Osten untergeht. Dabei über­
nehmen wir die Bezeichnungen Osten
und Westen vom Standpunkt eines Be­
obachters, der »von Norden« auf das
SPEKTRUM DER WISSENSCHAFT · März 2009 Sonnensystem schaut und sich zunächst
nicht um Rückläufigkeiten kümmert.
Nehmen wir an, ein Astronaut von
der Erde sitzt auf dem Äquator der Ve­
nus und schafft es irgendwie, durch ihre
dicke Atmosphäre seinen Heimatpla­
neten zu sehen und zu verfolgen. Er sieht
die Sonne alle 8/25 Jahre im Westen auf­
gehen, gleichmäßig über sich durch den
Zenit laufen und dann im Osten unter­
gehen.
Romantischer Abend
im Erdenschein
Nun läuft um diese Sonne die Erde, und
alle 1,6 Jahre bleibt sie um einen vollen
Umlauf zurück, läuft zwischendurch
aber ungleichmäßig für den exzen­
trischen Betrachter von der Venus. Die
hat sich in dieser Zeit um – 3/2 Umdre­
hungen pro Jahr mal 1,6 Jahre, also
– 2,4-mal um sich selbst gedreht, und
die Konjunktionsrichtung ist (im Penta­
gramma Veneris) um 0,4 Umläufe rück­
wärtsgelaufen. Wegen der gemeinsamen
0,4 hinter dem Komma finden alle Op­
positionen der Erde über dem gleichen
Venusmeridian statt. Wenn der Astro­
naut sich dorthin stellt, sieht er alle 1,6
Jahre um Mitternacht die Erde beson­
ders nah und daher groß genau im Ze­
nit. Wandert er jedoch 90 Grad den Ve­
nusäquator lang nach Osten oder Westen, so hat er alle 1,6 Jahre die Sonne
und die maximal groß erscheinende Vollerde in Opposition genau gegenüber am
Horizont – fast so romantisch wie auf
der Erde der Vollmond gegenüber der
untergehenden Sonne.
In vollen acht Jahren haben wir fünf
solche Oppositionen, die Sterne gehen
12-mal auf (und unter), die Sonne aber
25-mal und die Erde 20-mal. Das folgt
alles aus den drei Zahlen 1, 8/13 und
– 2/3, also den siderischen Perioden vom
Umlauf der Erde und von Umlauf und
Rotation der Venus.
Bei Erde und Venus haben wir es mit
Planeten zu tun, deren Ellipsenbahnen
sehr wenig von der Kreisform abwei­
chen. Immerhin zeigen unsere Sonnen­
uhren, dass diese Abweichung selbst für
die Erde durchaus merklich ist. Und
beim Merkur ist sie noch weit größer.
Die nächste Folge handelt von den
Folgen dieser Exzentrizität; dabei gibt es
auch eine Erklärung dafür, warum wir
von der Erde aus einen Teil der Mond­
rückseite sehen können.
Norbert Treitz ist apl. Pro­fessor
für Didaktik der Physik an der
Universität Duisburg-Essen. Sei­
ne Vorliebe für erstaunliche
Versuche und Basteleien sowie
für anschauliche Erklärungen
dazu nutzt er auch zur Förde­
rung hoch begabter Kinder und
Jugendlicher.
35
Krebsmedizin
Fortschritte in der
Brustkrebstherapie
Eine effektivere Behandlung, die auf den individuellen Tumor zugeschnitten ist –
diesen Wunschtraum helfen die neuesten zielgerichteten Medikamente zu erfüllen.
Von Francisco J. Esteva
und Gabriel N. Hortobagyi
D
In Kürze
Dank verbesserter Früherkennung und neuartiger
Behandlungsmöglichkeiten
steigt die Überlebensrate
bei Brustkrebs in Nordamerika und Europa stetig.
r Viele neue Therapien
zielen auf bestimmte Moleküle von Tumorzellen.
Dadurch kann der Arzt die
Medikation individuell
auf das Tumorprofil der Patientin abstimmen.
r Brustkrebs war der erste
bösartige Geschwulsttyp,
für den molekular ziel­
gerichtete Therapien zur
Verfügung standen. Der
Erfolg dieses Ansatzes
lässt auf weitere dramatische Fortschritte hoffen.
r 38 ie schlechte Nachricht zuerst:
Brustkrebs ist in Nordamerika
wie in Deutschland die häufigste
bösartige Erkrankung bei Frauen
und führt in Nordamerika hinter Lungenkrebs, in Deutschland vor Darmkrebs die
weibliche Krebstodesstatistik an. Die gute
Nachricht: Die Überlebensrate steigt beim
Mammakarzinom seit den frühen 1990er
Jahren stark an, so dass es seinen hohen Rang
in der Todesstatistik einbüßen könnte. Nichts
würde uns Kliniker mehr freuen.
Die viel günstigeren Gesamtaussichten bei
Brustkrebs rühren zum Teil daher, dass er früher entdeckt wird, unter anderem weil Frauen
das verstärkte Angebot zur Früherkennung
wahrnehmen. Brustkrebspatientinnen profitieren zudem von der intensivierten Forschung: Diese führt zu einem wesentlich besseren Verständnis der Erkrankung und zu
einem breiteren Spektrum therapeutischer
Möglichkeiten, die der behandelnde Arzt der
individuellen Situation angepasst auswählen
und kombinieren kann.
Ein Erfolg der letzten zehn Jahre sind
Wirkstoffe, die sich zielgenau gegen bestimmte
kritische Moleküle von Tumoren richten.
Brustkrebs war hierbei die erste bösartige Geschwulstform, für die mit Trastuzumab (Handelsname Herceptin) eine solche Therapie auf
den Markt kam. Dieser Antikörper wurde
1998 in den USA und zwei Jahre später in der
EU zugelassen. Sein Zielprotein, HER2 genannt, fördert ein aggressives Tumorwachstum. Vor der Einführung von Trastuzumab
bedeutete ein Brusttumortyp, der HER2 –
und somit die davon ausgehenden Signale –
im Übermaß produziert, eine schlechte Pro-
gnose. Heute kann gerade dieser Typ mit vergleichsweise guten Überlebensaussichten einhergehen, da die Zahl wirksamer Waffen gegen
Glieder der HER2-Signalkette weiter wächst.
Auch im kommenden Jahrzehnt sind große
Fortschritte auf dem Gebiet der molekular gezielten Krebstherapien zu erwarten: Zahlreiche Substanzen werden derzeit bei Patienten oder im Tierversuch geprüft. Sie richten
sich gegen etliche weitere Moleküle, die für
Entstehen, Erhalt und Fortschreiten einer
Entartung zu immer bedrohlicheren Stadien
bedeutsam sind. Zusammen mit Verbesserungen bei konventionellen Therapieformen
und Supportivmaßnahmen bietet diese neuere Generation von Medikamenten mehr Optionen, um die Behandlung auf das individuelle molekulare Profil des jeweiligen Tumors
abzustimmen. Denn Brustkrebs ist, wie wir
mehr und mehr erkennen, alles andere als
eine einheitliche Erkrankung.
Zum Rückgang der Sterblichkeit bei den
Betroffenen tragen andere, frühere Fortschritte bei. Beispielsweise haben sich die Methoden zur Früherkennung verbessert, was definitiv hilft, mehr Fälle bereits in einem Stadium zu erfassen, bei dem Brustkrebs noch zu
einem hohen Prozentsatz heilbar ist. Ein moderneres bildgebendes Verfahren, die digitale
Mammografie, liefert klarere Darstellungen
als herkömmliche Aufnahmen auf Röntgenfilm. Frauen, bei denen auf Grund einer familiären Vorbelastung oder wegen Mutationen
in einem BRCA-Gen ein hohes Brustkrebs­
risiko besteht, können mit jährlichen kern­
spintomografischen Untersuchungen überwacht werden. Ultraschalluntersuchungen dienen vorwiegend der Abklärung bei auffälligen
Mammografie- oder Tastbefunden.
Ferner haben sich die operativen Verfahren
in den letzen 20 Jahren grundlegend gewanSPEKTRUM DER WISSENSCHAFT · März 2009
medizin & biologie
es
Po
r to
AP Photo, Angela Rowlings
Jam
delt. Wurde früher selbst bei kleinen Tumoren
das gesamte Gewebe der betroffenen Brust radikal entfernt, so kann heute oft brusterhaltend operiert werden. Auch die Bestrahlung
erfolgt fokussierter, was gesundes Gewebe der
Region, insbesondere von Herz und Lunge,
weniger schädigt. All dies macht die Behandlung schonender, bei gleicher Erfolgsrate.
Varianten der Chemotherapie
Ausgefeilter wurde überdies der Einsatz einer
zusätzlich verabreichten »adjuvanten« Therapie – dank neuer Medikamente, einfacherer
Verabreichung und besserer Beherrschung der
Nebenwirkungen. Das Ziel: im Körper noch
verborgene Krebszellen abzutöten, die durch
Operation oder Bestrahlung nicht eliminiert
wurden. Das ist oft angebracht, da selbst kleine und anscheinend gut abgegrenzte Primärtumoren bereits winzigste, nicht erkennbare
Metastasen fern vom Ursprungsherd gebildet
haben können. Indem die adjuvante Chemotherapie diese angreift, verlängert sie die
krankheitsfreien Intervalle und erhöht die Gesamtüberlebensrate.
Eine adjuvante Chemotherapie verbessert
zudem die Chancen für Patientinnen mit fortgeschrittenen Tumoren. In den 1970er Jahren
begannen unsere wie auch andere klinische
Forschungsgruppen, ein interdisziplinäres Behandlungsprogramm für Patientinnen mit
lokal fortgeschrittenem Brustkrebs zu entwickeln. Häufig ist ein solcher Tumor schon so
weit in benachbartes Gewebe eingedrungen,
dass ein chirurgischer Eingriff allein keine
Heilung mehr verspricht. Die Patientinnen
erhalten dann zunächst eine so genannte neoadjuvante Chemotherapie, um die Tumormasse vor der Operation zu verkleinern. Nach
dem Eingriff folgen weitere Chemotherapien
und Bestrahlungen. Mit diesem multimodaSPEKTRUM DER WISSENSCHAFT · März 2009
len Vorgehen konnten koordiniert arbeitende
Teams aus Ärzten, Pflegekräften und anderen
Spezialisten im Lauf der letzten drei Jahrzehnte die Heilungsrate bei lokal fortgeschrittenen Tumoren deutlich steigern. Und selbst
wenn Brustkrebs bereits Metastasen gebildet
hat, kann inzwischen mit neuen Therapiefor­
men das Leben verlängert und mit verschiede­
nen unterstützenden Maßnahmen auch die
Lebensqualität verbessert werden.
Ein weiteres Standbein der Brustkrebstherapie sind Antihormone – zumindest bei hormon­
abhängigen Tumoren, deren Wachstum von
Östrogen oder Progesteron beschleunigt wird.
Hormonelle Einflüsse zu reduzieren wurde
schon seit den 1890er Jahren versucht. Ärzte
hatten beobachtet, dass fortgeschrittene Tumoren bei jüngeren Patientinnen, noch vor den
Wechseljahren, nach operativer Entfernung der
Eierstöcke oft schrumpften. Im Jahr 1966 wurden dann molekulare Rezeptoren entdeckt, die
in der Brust und anderen Geweben Hormone
binden und ihre Wirkung vermitteln. Folgestudien ergaben, dass bis zu 75 Prozent der invasiv wachsenden Brusttumoren Östrogenund / oder Progesteronrezeptoren tragen. Hier
bot sich ein therapeutischer Ansatzpunkt.
Im Jahr 1973 wurde das Antiöstrogen Tamoxifen in Großbritannien erstmals zur Behandlung des fortgeschrittenen Mammakarzinoms zugelassen, weitere Staaten folgten. Der
Arzneistoff besetzt Östrogenrezeptoren, so dass
das körpereigene Hormon nicht mehr dort andocken kann. Er entpuppte sich zudem als
wirksame adjuvante Therapie bei lokal begrenzten Tumoren mit Östrogen- oder Progesteronrezeptoren. Als nützlich erwies sich das
Medikament auch zur Prävention bei gesunden Frauen mit hohem Erkrankungsrisiko.
Mittlerweile steht zur antihormonellen Therapie eine weitere Klasse von Substanzen zur Ver-
Das wachsende Bewusstsein
für die Bedeutung der Früh­
erkennung und die intensivere
Forschungsförderung führten
zu einem deutlichen Rückgang
der Brustkrebssterblichkeit in
den Industrieländern. Das Foto
zeigt Teilnehmerinnen eines
Wohl­tätigkeitslaufs, veranstaltet
vom größten Netzwerk von
Brustkrebsüberlebenden und
Aktivisten.
39
Krebsmedizin
Meilensteine der Brustkrebstherapie
1850 – 1970
1880 – 1900
Mit der ersten Brustamputa­tion im Jahr 1882 begann die
Ära der aggressiven Brustkrebs­
therapie. Die Krankheitsme­
chanismen und die Triebkräfte
hinter dem Tumorwachstum
waren jedoch völlig unbekannt.
Erst das seit den 1950er Jahren stetig wachsende Verständnis ermöglichte schließlich die
Entwicklung immer gezielterer
Therapien.
Ein Zusammenhang zwischen Hormonen und
Tumorwachstum wurde erkennbar, als Ärzte bei
Brustkrebspatientinnen nach operativer Ent­
fernung der Eier­stöcke oder bei Beginn der
Menopause eine deutliche Tumor­rückbildung
beobachteten.
1896
Erste operative Entfernung
der Eierstöcke im Rahmen einer Brustkrebstherapie
durch George T. Beatson
1951
Erkenntnis, dass Östrogen das Wachstum von
Brustkrebs fördert beziehungsweise Testosteron das von Prostatatumoren
1958
Krebsforscher entdecken weitere
»Wachstumsfaktoren« – Proteine,
die zum Gedeihen von Tumoren
beitragen.
1966
Entdeckung des Östrogenrezeptors
Proteinstruktur des
Östrogenrezeptors
alle Tabletten: Lisa Apfelbacher; Beatson: Wellcome Library London; ÖstrogenreZeptor: Photo Researchers, Mark j. winter
Kleine Ursache,
groSSe Wirkung
Eine ererbte Mutation im
BRCA1-Gen kann das Lebenszeitrisiko für Brustkrebs verzehn­
fachen. Erst 2007 haben Forscher
herausgefunden, weshalb dies
so ist: Das Produkt dieses Gens
ist an der Reparatur defekter
DNA beteiligt. Funktioniert es
nicht richtig, steigt die Wahrscheinlichkeit von Mutationen
in anderen krebsfördernden
Genen.
40 fügung: Sie hemmen das Enzym Aromatase
und unterdrücken dadurch die körpereigene
Produktion von Östrogen. Aromatasehemmer
haben sich bei Patientinnen nach den Wechseljahren dem Tamoxifen überlegen erwiesen.
In einem gewissen Sinne stellen Östrogenund Progesteronrezeptoren die ersten molekularen Tumormerkmale dar, an denen man
gezielt mit Medikamenten ansetzen konnte.
Allerdings besteht ein wesentlicher Unterschied zu den neueren, erst in den letzten
zehn Jahren entdeckten Zielmolekülen. Beide
Geschlechtshormonrezeptoren fördern die
Zellteilung im gesunden ebenso wie im Tumorgewebe. Veränderungen in ihrer Form
und Funktion mögen zwar manchmal zur allgemeinen Bösartigkeit der Tumorzellen beitragen – das Gen für den Östrogenrezeptor
ist jedoch bei Brustkrebs nur selten mutiert,
kann also kein echter Krebsverursacher sein.
Dass bestimmte Gene, wenn sie mutiert
sind, gesunde Zellen in Tumorzellen umwandeln können, war die vielleicht wichtigste Erkenntnis der Krebsforschung seit Entdeckung
der Geschlechtshormonrezeptoren. Die so genannten Onkogene werden sowohl für die
Umwandlung normaler Zellen, als auch für
die Förderung des Tumorwachstums verantwortlich gemacht. Daher betrachtet man
Brustkrebs (wie auch andere Krebserkrankungen) heute im Grunde als »Erkrankung der
Gene«. Eine Mutation kann ein schützendes,
tumorunterdrückendes Gen lahmlegen oder
die Aktivität eines tumorfördernden Gens
hochtreiben. Dazu genügt unter Umständen
der Austausch einzelner Buchstaben in der
DNA-Sequenz, manchmal gehen ganze Gene
verloren, in anderen Fällen werden sie vervielfacht (siehe Fotos S. 43).
Tumoren lassen sich heute entweder nach
den Genen klassifizieren, die in ihren Zellen
überaktiv oder unterdrückt sind, oder anhand
der veränderten Menge und Funktion der
entsprechenden Proteine. Welche Gene betroffen sind, kann von Tumor zu Tumor variieren. Diese Heterogenität erklärt, weshalb
Brustkrebs sich individuell so unterschiedlich
verhält. So neigen manche Tumoren wenig
dazu, in anderes Gewebe einzudringen und
Tochtergeschwulste zu bilden, andere streuen
schon frühzeitig in verschiedene Organe. Die
Kenntnis des jeweiligen molekularen Profils
sollte es ermöglichen, vor allem die Signalmechanismen zu blockieren, die den individuellen Krebs gefährlich machen.
Eines Tages wird der Arzt aus einem Arsenal
von Medikamenten ein passgenaues Sortiment
gegen die kritischen Moleküle des Tumors auswählen können – solche, die an dessen Entstehung, Wachstum und Metastasierung beteiligt
sind. Der Erfolg von Trastuzumab und anderen gegen das HER2-Protein gerichteten Strategien zeigt schon heute das Potenzial dieses
Ansatzes bei der Brustkrebstherapie.
Erfolge mit Antikörpern
Das Gen für HER2 hat eine verwickelte Geschichte, und das ist der Grund, warum man
bei Recherchen dafür verschiedene Namen
findet. Forscher am Massachusetts Institute of
Technology in Cambridge entdeckten in den
frühen 1980er Jahren bei Ratten ein mutiertes Gen in neuralen Tumoren – und nannten
dieses Ratten-Onkogen entsprechend Neu
(die kursive Schreibweise kennzeichnet ein
Gen im Gegensatz zum Protein). Bald darauf
entpuppte es sich als eine Säugetierver­sion des
schon von Viren bekannten Gens ERBB und
wurde danach auch als ERBB2 bezeichnet.
Damit nicht genug: Als Wissenschaftler das
von ERBB2 kodierte Protein identifizierten,
erkannten sie, dass es eng verwandt war mit
SPEKTRUM DER WISSENSCHAFT · März 2009
Medizin & Biologie
1970 – 1990
1973
Das Antiöstrogen Tamoxifen
wird in Großbritannien
erstmals zur Therapie bei
hormonabhängigem Brustkrebs zugelassen.
1990 – 2008
Tamoxifen, ein selektiver
Östrogenrezeptormodulator
1976
Entdeckung tumorfördernder
»Onkogene« bei Säugetieren
sein kann wie eine Brustamputation.
1976
In klinischen Vergleichsstudien
zeichnet sich ab, dass die
brusterhaltende Tumorentfernung mit nachfolgender
Bestrahlung ähnlich wirksam
1988
Klinische Studien zeigen, dass
eine Chemotherapie vor der
Operation die Tumormasse
verkleinern kann und schonendere Eingriffe ermöglicht.
1994
Das BRCA1-Gen wird isoliert;
Mutationen darin steigern das
Brustkrebsrisiko.
1997
Letrozol, ein Östrogensynthesehemmer, erhält in den USA die
Zulassung für die Behandlung
von Brustkrebs, der auf Tamoxifen nicht anspricht.
1998
Trastuzumab wird in den USA
für die Brustkrebstherapie zugelassen. Es ist das erste molekular zielgerichtete Krebsmittel.
2007
Lapatinib, ein Hemmstoff der
Wachstumssignalübertragung,
wird in den USA für die Brustkrebstherapie zugelassen.
2007
Bevacizumab, ein Antikörper,
der die Gefäßneubildung
in Tumoren hemmt, wird in
der EU für die Brustkrebs­
therapie zugelassen.
Trastuzumab trägt den
Handelsnamen Herceptin.
Tamoxifen: Science Museum; Herceptin: Photo Researchers, P. Marazzi
einem bestimmten Membranprotein: dem
epidermalen Wachstumsfaktorrezeptor (abgekürzt EGFR, nach dem englischen Begriff).
Als sie schließlich die menschliche Version des
ERBB2-Gens zu isolieren vermochten, gaben
sie ihr den Namen für den humanen epi­
dermalen Wachstumsfaktorrezeptor 2, kurz
HER2.
Wie sich herausstellte, spielt die gesamte
EGFR-Proteinfamilie eine wichtige Rolle beim
ungezügelten Wachstum verschiedener Arten
von Krebs. Solche Rezeptoren lösen, wenn ihr
Bindungspartner andockt, im Zellinneren ein
Vermehrungssignal aus, indem sie eine molekulare Kaskade in Gang setzen. In deren Verlauf werden Gene aktiviert, deren Produkte
wiederum die Aktivität untergeordneter Gene
regulieren (siehe Kasten S. 42/43). Kurz nach
der Entdeckung des HER2-Gens wiesen Wissenschaftler nach, dass Brustkrebszellen es oft
in Überzahl enthalten und dass das Vorhandensein mehrfacher Kopien damals mit einer
ungünstigen Prognose einherging.
Im Laborversuch ließen sich normale Zellen durch das Einführen zusätzlicher HER2Genkopien in Tumorzellen verwandeln – eine
kennzeichnende Eigenschaft von Onkogenen.
Da rund 20 Prozent aller bösartigen Brusttumoren das zugehörige Protein im Übermaß
auf der Zelloberfläche tragen, begannen Pharmaforscher nach Hemmstoffen zu suchen.
Wissenschaftler der Firma Genentech entwickelten in den späten 1980er Jahren Trastuzumab, einen so genannten monoklonalen
Antikörper, der Rezeptoren der Sorte HER2
besetzt und so ihre Aktivierung verhindert.
Klinische Studien ergaben eine Lebensverlängerung bei Brustkrebs sowohl im Früh- als
auch im Metastasierungsstadium.
Der Erfolg von Trastuzumab zog die Entwicklung ähnlicher Medikamente nach sich.
SPEKTRUM DER WISSENSCHAFT · März 2009
Ein Beispiel ist Pertuzumab. Dieser Antikörper dockt an einer anderen Stelle des HER2Proteins an und hat dadurch einen Zusatz­
effekt: Er unterbindet die Interaktion des Rezeptors mit anderen Mitgliedern der Familie
auf der Zellmembran, darunter mit EGFR
oder HER3 (siehe Kasten S. 42/43). Das reduziert die weitere Signalgebung im Zellinneren. Pertuzumab kann gewisse Formen der
HER2-Aktivierung selbst bei Tumorzellen
stören, die gegen Trastuzumab bereits unempfindlich geworden sind. Zudem beobachteten
wir, dass mit einer Kombination von Trastuzumab und Pertuzumab mehr HER2-positive
Brustkrebszellen Selbstmord begehen.
Überwundene Resistenzen
Eine weitere Möglichkeit der Krebsbekämpfung besteht darin, HER2-Antikörpern ein
Toxin anzuklinken. Nach der gemeinsamen
Aufnahme in eine Tumorzelle koppelt es sich
ab und verrichtet sein tödliches Werk. Erfolgreich waren solche Strategien schon bei anderen Arten von Krebs wie der akuten myeloischen Leukämie. In klinischen Studien wird
momentan die Wirksamkeit und Sicherheit
einer von Transzumab vermittelten Toxineinschleusung bei Brustkrebspatientinnen mit
Metastasen untersucht.
Statt außen am Rezeptor ließe sich auch
innen ansetzen. Proteine der EGFR-Familie
reagieren zwar auf das Andocken eines Wachstumsfaktors, doch wird das Signal weitervermittelt, indem eines ihrer Innenabschnitte
Phosphatgruppen angehängt bekommt. Dies
übernehmen Enzyme namens Tyrosinkinasen.
Hier einen Riegel vorzuschieben ist daher eine
weitere Möglichkeit, die EGFR-vermittelten
Zellteilungsstimuli zu unterdrücken. Pharmafirmen arbeiten derzeit mit Hochdruck an der
Entwicklung entsprechender Medikamente.
Östrogen nach
den Wechseljahren
Nachdem 2002 ein Report erschien, wonach die Hormon­
ersatztherapie nach den Wechseljahren das Brustkrebsrisiko
steigert, ging die Verordnung
entsprechender Medikamente
deutlich zurück. Schon im Folgejahr sank die Zahl der neu
diagnostizierten Erkrankungen
in den USA deutlich: bei invasiv
gewachsenen Tumoren um 7,3
Prozent, bei noch begrenzten,
nichtinvasiven Tumoren um 5,5
Prozent.
41
Krebsmedizin
Lapatinib (Handelsname Tykerb) ist ein
dualer EGFR/HER2-Tyrosinkinaseinhibitor.
Die Substanz wirkte in Laborversuchen bemerkenswert: Sie stoppte das Wachstum von
Brustkrebs-Zelllinien, die HER2 überproduzieren, und veranlasste sie zum Selbstmord.
Für einen noch besseren therapeutischen
Effekt liegt es daher nahe, einen Antikörper
wie Trastuzumab mit einem Tyrosinkinase­
inhibitor wie Lapatinib zu kombinieren. Beide Substanzen zusammen hemmen im Labortest tatsächlich das Wachstum von Brustkrebszelllinien besonders stark und erzielen eine
höhere Zellselbstmordrate. Lapatinib erwies
sich sogar bei Zelllinien, die nach Langzeittherapie resistent gegen Trastuzumab geworden sind, als unverändert effektiv, was die Induktion des Zellselbstmords anbelangt.
Erfreulich verlief eine große klinische Studie
an Patientinnen mit metastasiertem HER2-positivem Brustkrebs, der nicht mehr auf Trastuzumab ansprach. Die zusätzliche Therapie mit
Lapatinib, zu einer Chemotherapie mit Capecitabin, verdoppelte die progressionsfreie Medianzeit, verglichen mit dieser Chemotherapie
allein (das ist die Spanne, bis in der beobachte-
ten Gruppe schließlich bei insgesamt der Hälfte der Betroffenen die Erkrankung wieder fortgeschritten ist). Auf Grund dieser Ergebnisse
erteilte die US-amerikanische Arzneimittelbehörde 2007 die Zulassung für Lapatinib in
Kombination mit Capecitabin bei metastasiertem Brustkrebs, die europäische tat dies 2008.
Laufende klinische Studien prüfen den Nutzen
von Lapatinib in der adjuvanten Therapie unter einem breiteren Spektrum von Bedingungen. Gleiches gilt für verschiedene andere
Tyrosinkinasehemmer, die eine HER2- und
EGFR-Signalgebung unterbinden.
Selbstmord von Tumorzellen
Alternative Möglichkeiten zur Hemmung des
gleichen Signalwegs zu finden ist wichtig, da
Krebszellen schließlich oft gegen ein einzelnes
Mittel resistent werden. Im Fall von Trastuzumab wird derzeit untersucht, wie und warum
sich Resistenzen dagegen entwickeln. Diese Erkenntnisse sollen helfen, effektivere Wirkstoffkombinationen oder neue Arzneistoffe gegen
HER2-positive Tumoren zu konzipieren.
In Zellkulturen und an Tieren konnten wir
beispielsweise zeigen, dass Krebszellen viele ver-
Signalwege als Angriffspunkte
Die übermäßige Aktivität gewisser Proteine und Gene in Brustkrebszellen vermag
eine Serie molekularer Interaktionen in Gang zu setzen, die eine ungezügelte
WachstumsVermehrung (Wachstum) und das Überleben der Zellen begünstigen.
e
faktor
e ll
Beispielsweise kann das zelleigene Selbstmordprogramm außer Kraft
sz
b
re
gesetzt werden. Zu den »treibenden« Proteinen zählen viele Ober­
tk
us
r
flächenrezeptoren, etwa HER2 (es gehört in dieselbe Familie
B
wie der Rezeptor für den epidermalen Wachstumsfaktor,
IGF-1R
nach dem englischen abgekürzt EGFR) oder IGF-1R (Re­
zeptor 1 des insulinähnlichen Wachstumsfaktors).
Das Anschalten
Dockt außen ein Wachstumsfaktor an, ver­
bindet sich das besetzte Rezeptormole­
Wachskül mit einem Nachbarn. Die Paarung
tumszweier Rezeptormoleküle, eine Di­
faktor
merisierung, aktiviert ihre Tyrosin­
dimerisiertes
kinase; dieses Enzym hängt bei­
Rezeptorpaar
den an der Zellinnnenseite je
eine Phosphatgruppe an. Das
setzt eine Signalkaskade
Richtung Zellkern in Gang.
Wachstumsfaktorrezep­
toren sind daher wich­
tige Angriffspunkte
für Wirkstoffe gegen
Zellmembran
Krebs (Grafik ganz
rechts).
42 Zellkern
Signalweg
HER2
EGFR
Gen­
aktivierung
RAS
raf
pI3k
akt
Phosphorylierung
Tyrosinkinase
Östrogen
Östrogen­rezeptor
Wie andere Wachstumsfaktorrezeptoren lagern sich
auch Östrogenrezeptoren nach Aktivierung durch ihr
Hormon aneinander. Das Rezeptorpaar wandert aber selbst
in den Zellkern, interagiert dort direkt mit der DNA (rechts) und
schaltet Gene an, die Zellteilung und Zellüberleben fördern.
SPEKTRUM DER WISSENSCHAFT · März 2009
Medizin & Biologie
mek
mTOR
DNA
mapk
HER2VerVielfachung
Mutationen können ein Gen
in Zellen vervielfachen, so
dass sein Protein in zu
hoher Menge entsteht. In
Brustkrebszellen wurde
hier das HER2-Gen rot und
ein anderes grünlich fluoreszenzmarkiert. In so
genannten HER2-positiven
Brustkrebszellen (unten)
ist das Gen in vielfacher
Kopie vorhanden. Die
resultierende Überproduktion von HER2-Proteinen
bedeutet, dass die Zellen
viel zu viele Antennen
besitzen, die Wachstumsbefehle auffangen.
Angriff auf Tumorproteine
Es gibt verschiedene Möglichkeiten, die Wachstumsfaktor­
rezeptoren auf Tumorzellen am Signalisieren zu hindern.
Die Rezeptoren lassen sich auch zum Einschleusen
von zielgenauen giftbestückten Trägermolekülen
nutzen, da sie in der Zelle recycelt werden.
Alternative Mög­
lichkeiten zur
Hemmung­des
gleichen­Signal­
wegs zu finden ist
wichtig, da Krebs­
zellen oft gegen ein
einzelnes Mittel
resistent werden
Wachstums- Arzneistoff
faktor
Abfangen
des Wachstumsfaktors
Blockade der
Bindungsstelle für
den Wachstums­
faktor am Rezeptor
Zell­
wachstum
Hemmung der
Rezeptorpaarung
Überleben
der Zelle
an zielgenaues
Träger­
molekül
gekoppelter
Giftstoff
(Toxin)
SPEKTRUM DER WISSENSCHAFT · März 2009
Hemmung
der Tyrosinkinaseaktivität
Einschleusen
des Giftstoffs
in die Zelle
Jen Christiansen
Effekte in der Zelle
Die Signale aktivieren bestimmte Gene wie
RAS, deren erzeugte Proteine ihrerseits
weitere Gene beeinflussen. Die hier in ver­
einfachter Form dargestellte Abfolge von
Gen-Protein-Wechselwirkungen führt einerseits zum Zellwachstum und unter­drückt
anderseits Mechanismen, die abnorme Zel­
len zum Selbstmord veranlassen. Mutationen in irgendeinem der Glieder solcher Si­
gnalübertragungswege können ähnliche Ef­
fekte auslösen, daher sind sie ebenfalls po­
tenzielle therapeutische Angriffspunkte.
und IGF-2. Hohe IGF-1-Blutspiegel werden
mit einem erhöhten Brustkrebsrisiko in Verbindung gebracht. Zudem weisen viele Studien
in Labor und Klinik darauf hin, dass der IGF1-Rezeptor an Entstehung, Unterhalt und
Fortschreiten verschiedener Typen von Krebs
beteiligt ist. Die über ihn gestartete Signalkaskade reguliert ganz verschiedenartige Prozesse
in Zellen, darunter deren Wachstum, Bewegungsfähigkeit und Schutz vor Selbstmord.
Solche Signale können Tumorzellen sogar vor
den Auswirkungen einer Chemo- oder Strahlentherapie schützen. Wird im Tierversuch
umgekehrt die Aktivität des IGF-1-Rezeptors
während dieser Therapien unterbunden, steigt
die Selbstmordrate der Tumorzellen.
Forscher arbeiten aber nicht nur daran, seine Hemmung direkt therapeutisch gegen
Brustkrebs zu nutzen. Sie untersuchen auch,
ob damit Resistenzen gegen andere Medikamente aufgehoben oder ihnen vorgebeugt
werden könnte – etwa beim Einsatz von Antihormonen, Trastuzumab und Lapatinib. Zwischen dem Rezeptor für IGF-1 und denen für
andere Wachstumsfaktoren, darunter Östrogen, HER2 und weitere EGRFs, bestehen
mit frdl. Gen. von Francisco J. Esteva
schiedene Mechanismen nutzen, um in Gegenwart von Trastuzumab zu überleben. Ein Trick:
Sie produzieren vermehrt andere Wachstumsfaktorrezeptoren, entweder aus der EGFR/
HER-Familie oder aus weiteren Gruppen. Zu
Letzteren gehört der insulinähnliche Wachstumsfaktorrezeptor-1 (IGFR-1). In überlebenden Zellen kann auch das Tumorsuppressorgen
PTEN verloren gegangen oder inaktiviert sein.
Dessen Produkt blockiert normalerweise einen
»Survivalweg«, der das Enzym Phosphatidylinositol-3-Kinase (PI3K) beinhaltet und der geschädigten Zellen ermöglicht, den Befehl zum
Selbstmord zu ignorieren (siehe Kasten unten).
Wir stießen sogar auf Zellen, die überlebt hatten, weil die Stelle des Rezeptors, an der Trastuzumab sonst andockte, sich entweder durch
Mutation verändert hatte oder ganz fehlte. Die
Identifikation weiterer molekularer Angriffspunkte, sowohl bei HER2-positiven Tumoren
als auch bei den 80 Prozent anderen, hat daher
hohe Priorität in der weiteren Forschung.
Zu den besonders viel versprechenden neuen Angriffspunkten in der Brustkrebstherapie
gehören der IGF-1-Rezeptor und die ihn aktivierenden Wachstumsfaktoren, nämlich IGF-1
43
Krebsmedizin
kommunikative Vernetzungen. Und die sind
ein Schlüsselmechanismus für das Wachstum
und Überleben von Brustkrebszellen. Vermutlich ist die wechselseitige Abhängigkeit und
Kommunikation der verschiedenen intrazellulären Signalwege eine wesentliche Grundlage
für die Entwicklung von Resistenzen gegen
Krebsmedikamente.
Unsere Arbeitsgruppe beispielsweise konnte zeigen, dass die Blockade des IGF-1-Rezeptors durch einen monoklonalen Antikörper
die Empfindlichkeit von Tumorzellen gegen
Trastuzumab wiederherstellt und die Interaktion zwischen IGF-1- und HER2-Rezeptor
stört. Eine unterdrückte Signalübertragung
des IGF-1-Rezeptors schickt zudem die resis-
Zielgerichtete molekulare Therapien
Mehr und mehr Arzneistoffe, die spezifische Tumorproteine angreifen, werden zur
Brustkrebstherapie zugelassen (fett gedruckt) oder in klinischen Studien geprüft.
Die Liste zeigt eine Auswahl.
Wirkstofftyp
Angriffspunkt
● Aromatase­
inhibitor
(blockiert ein
Enzym, das an der
Synthese von
Östrogen und
Progesteron
beteiligt ist)
Östrogen-/
Progesteronrezeptoren
● monoklonaler
Antikörper
(stört die Akti­
vierung von
Zellrezeptoren)
● Kinaseinhibitor
(hemmt die Signalübertragung durch
Zellrezeptoren)
● Impfstoff
(regt die Bildung
spezifischer, gegen
Tumorproteine gerichteter Antikörper
an, kann aus Zellen
oder Peptiden –
Miniproteinen gewissermaßen –
bestehen)
● anderer Typ
(umfasst Arzneistoffe, die andere
Moleküle direkt
hemmen, oder Gentherapien, die
letztlich die zelluläre Proteinpro­
duktion verändern)
44 Wirkstoff
●
●
●
●
●
A
nastrozol
L etrozol
E xemestan
T
amoxifen
F ulvestrant
HER2
●
●
●
●
●
●
●
●
T
rastuzumab
Pertuzumab
L apatinib
Ertuxomab
N
euvax
d
HER2
M
VF-HER2
E
1A (Gentherapie)
IGF-1-Rezeptor
●
●
●
●
●
I MC-A12
C
P-751, 871
A
MG 479
h
7C10
O
SI-906
PI3K-AKT-mTORWeg
(Regulation des
Zellüberlebens)
●
●
●
●
B
GT226
B
EZ235A
R
AD001 (Everolimus)
R
apamycin (Sirolimus)
VEGF-Rezeptor
(seine Akti­vie­
rung fördert die
Neubildung von
Blutgefäßen)
●
●
●
●
●
●
●
●
●
B
evacizumab
S
unitinib
S
orafenib
V
atalanib
P
azopanib
A
ZD2171
A
MG706
A
MG386
P
TC299
andere
Angriffspunkte
●
●
●
●
●
●
●
●
Dasatinib
(SCR-Hemmer)
T HERATOPE
d
endritische Zellvakzine
P
53-Peptidimpfstoff
A
LT801 (p53-Inhibitor)
A
d5CMV-p53 (Gentherapie)
A
nti-p53-T-Zellen Reinfusion
A
ZD2281
(Inhibitor des PARP-Proteins)
●B
SI-201 (PARP-Inhibitor)
tenten Zellen in den Tod. Auch der Tyrosin­
kinaseinhibitor Lapatinib scheint bei derartigen Zellen die IGF-1-Signalübertragung
zu beeinträchtigen. Vielleicht beruht seine
wachstumshemmende Wirkung nicht nur darauf, dass er Aktivitäten von EGFR/HER2
unterbindet – möglicherweise hemmt er auch
direkt den IGF-1-Rezeptor.
Barrikaden auf Signalwegen
Von den beschriebenen Rezeptoren bis zu den
eigentlichen Prozessen, die eine Zellteilung
auslösen oder den Start des zellulären Selbstmordprogramms trotz DNA-Schäden verhindern, führt ein insgesamt hochkomplexes
Netzwerk von Signalwegen. Wie Forscher in
Tumorzellen festgestellt haben, sind dort
Schlüsselgene entlang den Wegetappen ebenfalls oft mutiert oder fehlreguliert. Eines der
bestuntersuchten Beispiele ist das Gen für
PI3K: Das Enzym modifiziert ein weiteres
Protein namens AKT, das seinerseits einen
Proteinkomplex modifiziert, der als mTOR
bezeichnet wird (von englisch mammalian target of rapamycin, Rapamycin-Zielstruktur im
Säugetier). In gesunden Zellen wirkt dieser
PI3K-AKT-mTOR-Signalweg entscheidend
beim Energiestoffwechsel und anderen lebenswichtigen Prozesse mit. In Krebszellen ist er
überaktiv und lässt sie länger überleben (sie­he
Kasten S. 42/43). Da die Effekte des Signalwegs überall im Körper zum Tragen kommen,
könnte seine Hemmung gesunde Zellen genauso schädigen wie Krebszellen, was dem
Einsatz entsprechender Substanzen bisher
enge Grenzen setzt.
Dennoch werden verschiedene mTOR-Inhibitoren in klinischen Studien geprüft, sowohl als Einzelsubstanzen wie auch in Kombinationen mit anderen Medikamenten. Der
mTor-Inhibitor Temsirolimus beispielsweise,
Handelsname Torisel, ist seit 2007 zur Therapie des metastasierten Nierenzellkarzinoms
zugelassen; Rapamycin, auch als Sirolimus bekannt, Handelsname Rapamun, gehört zu
den Vertretern, die schon seit einigen Jahren
als Immunsuppressiva in der Transplantationsmedizin eingesetzt werden. Bisherige Studien mit Rapamycin zusammen mit einem
IGF-1-Rezeptorhemmer deuten darauf hin,
dass solche Kombinationen der Monotherapie
überlegen sind und dass die kombinierte
Hemmung dieser beiden Signalwege wohl
keine so schlechte Idee darstellt.
Ein anderer viel versprechender Ansatz ist
die Kombination von direkt wirksamen Antitumormedikamenten mit Substanzen, die auf
Komponenten in der Umgebung des Tumors
zielen. Krebszellen setzen selbst eine Reihe
von Wachstumsfaktoren frei, die Zellen der
SPEKTRUM DER WISSENSCHAFT · März 2009
Medizin & Biologie
inneren Blutgefäßwand anlocken; diese so genannten Endothelzellen formieren sich zu neu
aussprossenden Blutgefäßen, die den Tumor
versorgen. Der Prozess wird fachlich als Angiogenese bezeichnet. Der wichtigste dieser
Proteinfaktoren ist der vaskuläre endotheliale
Wachstumsfaktor (VEGF). Seine Überproduktion dürfte die Aggressivität von Tumoren
steigern; hohe VEGF-Blutspiegel korrelieren
mit schlechteren Überlebensraten bei Patientinnen mit Brustkrebs, der in umliegendes
Gewebe vorgedrungen ist.
Ein monoklonaler Antikörper gegen VEGF
ist Bevacizumab (Handelsname Avastin), der
2004 in den USA, 2005 in der EU zur Behandlung des kolorektalen Karzinoms in Verbindung mit einem Chemotherapeutikum zugelassen wurde. Wie neuere klinische Studien
bei bereits ausgedehnt therapierten Patientinnen mit metastasiertem Brustkrebs zeigten,
hemmte dort Bevacizumab allein das Tumorwachstum nur begrenzt. Eine Kombination
mit dem Chemotherapeutikum Capecitabin
jedoch erzielte in bestimmten Fällen bessere
Ergebnisse (siehe SdW 8/2008 S. 36). In einer
anderen Studie an Patientinnen mit HER2-negativem metastasiertem Brustkrebs schritt die
Erkrankung in der Gruppe schneller fort, die
zu dem Chemotherapeutikum Paclitaxel kein
Bevacizumab erhielt. Auf Grund solcher Ergebnisse wurde der Antikörper 2007 in der EU
auch für die Brustkrebsbehandlung zugelassen.
Ein Regulator
für über 1000 Gene
Verschiedene weitere Substanzen, die den VEGF-Signalweg hemmen, wurden in den letzten Jahren eingeführt oder befinden sich in
der Entwicklung. Hierzu zählt zum Beispiel
der Multi-Tyrosinkinasehemmer Sunitinib
(Handelsname Sutent) der Firma Pfizer, der
neben dem VEGF-Rezeptor auch mehrere andere Wachtumsfaktorrezeptoren am Signalisieren hindert. Sunitinib ist in der EU als
Krebstherapeutikum für bestimmte Zwecke
zugelassen und wird bei verschiedenen anderen Tumorarten in klinischen Studien geprüft.
Gleichzeitig schreitet die Grundlagenforschung fort und fördert neue molekulare Angriffspunkte zu Tage, die sowohl etwas über
die Mechanismen der Krebsentstehung aussagen, als auch Hinweise für die künftige Medikamentenentwicklung liefern. Eine solche
Entdeckung verkündeten Anfang 2008 Terumi Kohwi-Shigematsu vom kalifornischen
Lawrence Berkeley National Laboratory und
ihre Kollegen. Ihren Erkenntnissen zufolge
fungiert ein Gen namens SATB1 als Hauptregulator für die Aktivität von mehr als 1000
Genen, die am Metastasierungsprozess bei
SPEKTRUM DER WISSENSCHAFT · März 2009
Brustkrebs beteiligt sind. Der Einfluss des zugehörigen Proteins ist, wie die Gruppe feststellte, dort eine notwendige und auch hin­
reichende Bedingung für die Entstehung von
Metastasen. Diese Eigenschaft macht es zu
einem besonders interessanten Angriffspunkt
für die Therapie. Die Gruppe entwickelt bereits einen Hemmstoff des Proteins, der innerhalb weniger Jahre in klinischen Studien geprüft werden könnte.
Fortschritte in der gezielten und individualisierten Behandlung bei Brustkrebs hängen
allgemein von der weiteren Entwicklung von
Diagnostika ab, mit denen sich ein Tumor auf
Überproduktion von kritischen, direkt attackierbaren Zielproteinen testen lässt. Zusätzlich zu einem derartigen Proteinprofil ließe
sich das gesamte Genaktivitätsmuster eines Tumors charakterisieren – und potenziell als eine
Art Signatur nutzen, die Aussagen über die
Krankheitsprognose erlaubt. Bereits verfügbare
oder kurz vor der Zulassung stehende Tests
prüfen eine Patientin auf genetische Varianten,
die mit einer langsameren Verstoffwechslung
eines Medikaments einhergehen. Dies ist
wichtig zum Beispiel für die Therapie mit Tamoxifen, das von Stoffwechselenzymen in die
aktive Form umgewandelt werden muss.
Ferner gilt es, in weiteren klinischen Stu­
dien unterschiedliche Medikamentenkombi­
nationen zu erproben, um den Nutzen eines
gleichzeitigen Angriffs auf mehrere Ziele
nachzuweisen. So soll eine multinationale
Großstudie names ALTTO Lapatinib und
Trastuzumab einzeln und in Kombination
entweder miteinander oder mit herkömmlichen Chemotherapeutika für frühe Stadien
von HER2-positivem Brustkrebs prüfen. Die
Größe dieser Studie, an der rund 1500 Kliniken in insgesamt 50 Ländern teilnehmen
und für die Forschungskonsortien in Europa
und den USA ihre Kräfte bündeln, steht beispielhaft für die beträchtlichen Ressourcen,
die heute in die Erforschung von Brustkrebs
fließen. Sie zeigt auch, dass er als bedeutende
globale Gesundheitsbedrohung anerkannt ist.
Die intensive Forschungstätigkeit und die
vermehrte Beachtung, die der Erkrankung
heute zuteilwird, tragen bereits Früchte. Im
Ver­gleich zu anderen Arten von Tumoren,
etwa der Lungen oder des Gehirns, sind die
im vergangenen Jahrzehnt beim Mammakarzinom erzielten Fortschritte beeindruckend.
Ärzte können spezifische Tumoreigenschaften
nachweisen und für die maßgeschneiderte
The­rapie auf ein wachsendes Arsenal von Medikamenten zurückgreifen, was sich schon
jetzt in Überlebensraten bemerkbar macht.
Und: Das kommende Jahrzehnt verspricht
noch dramatischere Fortschritte.
Francisco J. Esteva (links) ist Direktor des Forschungslabors für
Translationale Brustkrebsforschung
am M. D. Anderson Cancer Center
der University of Texas, Houston,
Gabriel N. Hortobagyi Direktor des
dortigen Multidisziplinären Brust­
krebsforschungsprogramms. Esteva
konzentriert sich darauf, Grundla­
genforschung schnell in Therapien
umzusetzen. Hortobagyi, früherer
Präsident der Amerikanischen
Gesellschaft für Klinische Onkolo­
gie, wurde vielfach für seine
Forschungen ausgezeichnet, die alle
Aspekte der Brustkrebsbiologie, des
Krankheitsmanagements und der
Therapeutika umfassen.
Hunt, K. K. et al. (Hg): Breast
Cancer. Second Edition. Springer,
Berlin 2008.
Moulder, S., Hortobagyi, G. N.:
Advances in the Treatment of Breast
Cancer. In: Clinical Pharmacology &
Therapeutics 83(1), S. 26 – 36,
Januar 2008.
Nahta, R., Esteva, F. J.: Trastu­
zumab: Triumphs and Tribulations.
In: Oncogene 26(25) S. 3637 – 3643,
28. Mai 2007.
Ross, J. S., Hortobagyi, G. N. (Hg.):
Molecular Oncology of Breast
Cancer. Jones and Bartlett Publi­
shers, Boston 2005.
Weblinks zu diesem Thema finden
Sie unter www.spektrum.de/
artikel/979752.
45
Evolution (Serie, Teil III)
Der Ameisenfreund
»Man urteilt nie, bevor man etwas nicht genau untersucht hat« –
Bert Hölldobler erforscht seit über 50 Jahren die Welt der
Ameisen. Ein Gespräch mit dem weltbekannten Myrmekologen
SERIE: Evolution
Teil I: Evolution – Gruppe oder Individuum?
Teil II:Missverständnisse um Darwin
Teil III: Der Ameisenforscher. Bert Hölldobler im Porträt
Teil IV: Evolution und Religion
Von Hubertus Breuer
D
raußen, hinter den Lamellen der Jalousien, hat die Aprilsonne die Luft auf flirrende 34 Grad Celsius aufgeheizt.
Drinnen, an seinem Schreibtisch, im klimatisierten LifeSciences-Gebäude der Arizona State University in Phoenix,
hustet Bert Hölldobler, 72, jedoch und wickelt ein Erkältungsbonbon aus. »Die Erkältung ist vorbei, aber im Hals kratzt es noch«, erklärt die Koryphäe für Soziobiologie und Verhaltensphysiologie.
Und dann beginnt er von seinem Leben zu erzählen – von seinen
Vorfahren aus dem Bayerischen Wald, der ersten Professur in Frank-
46 SdW 1/2009
SdW 2/2009
SdW 3/2009
SdW 4/2009
furt, vom Kulturkampf an der Harvard University und dem von ihm
mitgegründeten Theodor-Boveri-Institut an der Würzburger Uni­
versität, an dem er eine große Arbeitsgruppe zur experimentellen
Soziobiologie und Verhaltensphysiologie aufbaute. Hölldobler holt
aus, schweift ab, debattiert Wissenschaftspolitik – und das, kaum
von Fragen und Einwürfen unterbrochen, unermüdlich, bis sich die
Sonne längst über den Wüstenhorizont gesenkt und das Büro in
Schatten gehüllt hat. Auf dem Schreibtisch liegen etliche Bonbonpapiere.
Drahtig, mit einer silbernen, sternförmigen Gürtelschnalle der
Navajo-Indianer, kurzärmligen Hemd, einem Vollbart und wachen
blaugrauen Augen wirkt Hölldobler (im Bild links mit dem Autor)
wie ein Naturbursche, der gerade von einer Exkursion im Bayerischen Wald oder in der Wüste zurückgekommen ist. In der Tat
forscht Hölldobler nach wie vor eifrig. An der »School of Life Sciences« der Arizona State University ist er Forschungsprofessor. Dort
hat er in den letzten Jahren zusammen mit dem Bienengenetiker
Robert Page eine internationale Forschergruppe aufgebaut, die sich
mit dem komplexen Sozialverhalten der Bienen, Ameisen und Termiten beschäftigt. Die Erforschung der Evolution dieser Insekten­
gesellschaften steht dabei im Mittelpunkt. Zudem hat der Verhaltensphysiologe im letzten November ein umfangreiches Buch über
den »Superorganismus« veröffentlicht, zusammen mit seinem alten
Harvard-Kollegen Edward Wilson, einem Popstar der Naturwissenschaften in den USA. Staaten bildende Insekten spielen darin die
Hauptrolle. Bereits 1991 erschien ihr Standardwerk »The Ants«, für
das beide den amerikanischen Pulitzer-Preis erhielten.
SPEKTRUM DER WISSENSCHAFT · März 2009
Medizin & Biologie
alle Fotos des Artikels: Spektrum der Wissenschaft / Mark Skalny
ZUR PERSON
Spektrum der Wissenschaft: Können Sie sich
eine Welt ohne Ameisen vorstellen?
Prof. Bert Hölldobler: Ohne Menschen, ja!
Es gäbe dann zwar keine Kultur, keinen Beet­
hoven oder Picasso, die Städte würden den
Wäldern und dem Dschungel anheimfallen.
Außer für unsere Spezies wäre das keine große
Katastrophe – die Natur käme also gut ohne
uns zurecht. Aber ohne Ameisen? Hier in Ari­
zona würden viele Pflanzen aussterben, weil
Ameisen ihre Samen verbreiten. Der Boden
der Wüste würde hart und karstig werden.
Auch der Regenwald würde zu Grunde gehen.
Blattschneiderameisen eines Nestes graben in
ihrer Lebenszeit 40 Tonnen Erde um. Außer­
dem sind viele Ameisenarten Feinde Pflanzen
fressender Insekten, deren Populationen ohne
Ameisen explodieren würden. Als Folge wür­
den die Pflanzen aussterben – und danach die
Pflanzenfresser. Ameisen gehören also zweifel­
los zu den wichtigsten Tieren in allen terres­
trischen Ökosystemen.
Spektrum: Die Vorliebe für Ameisen scheint
Ihnen in die Wiege gelegt. Bereits Ihr Vater,
eigentlich Arzt, war ebenfalls ein angesehener
Zoologe, der veröffentlichte und sich in seiner
Freizeit dem Studien der Ameisen widmete.
SPEKTRUM DER WISSENSCHAFT · März 2009
Bert Hölldobler arbeitet
über experimentelle Verhaltensphysiologie, Soziobiologie sowie die Biologie
sozialer Insekten. Er wurde
1936 im oberbayerischen
Erding-Andechs als Sohn
eines Mediziners und Zoologen geboren. In Würzburg
studierte er Biologie und
Chemie, wo er 1966 über
Holzameisen und die Organisation von Ameisenstaaten promovierte. 1969
habilitierte er sich an der
Johann Wolfgang GoetheUniversität. Von 1971 hielt
er vor allem Professuren
an der Universität Frankfurt
und an der Harvard Uni­
versity in Cambridge, Massachusetts. 1989 kehrte
er an die Universität Würzburg zurück. Seit seiner
Emeritierung im Jahr 2004
forscht Hölldobler an der
Arizona State University
in Tempe bei Phoenix, Arizona.
Hölldobler: Er wird hin und wieder noch zi­
tiert; vor allem seine Arbeit über die Ameisen­
grille ist sehr schön. Und er hat mich stark be­
einflusst. Mir ist noch lebhaft in Erinnerung,
1944, als mein Vater auf Heimaturlaub von
der Ostfront war, ich war gerade sieben oder
acht Jahre alt. Wir sind gemeinsam durch den
fränkischen Wald bei Ochsenfurt gegangen.
Mein Vater hat, wie so oft, Steine umgedreht,
um nach der Ameisengrille Ausschau zu hal­
ten – und da sah ich plötzlich eine Rossamei­
sen-Kolonie, die Ameisen liefen wild durchei­
nander und brachten ihre Larven und Puppen
in Sicherheit – und versickerten förmlich wie
Wasser unter der Erde. Diese Erfahrung war
ein echtes Schlüsselerlebnis.
Spektrum: Sie waren also prädestiniert, Amei­
senexperte – Myrmekologe – zu werden.
Hölldobler: In meiner späteren Jugendzeit
habe ich mich nicht nur für Ameisen interes­
siert. Ich hatte Terrarien und Aquarien in
meinem Zimmer, in denen ich Molche, Laub­
frösche und Fische hielt. In meinem Zimmer
hatte ich sogar ein frei laufendes Ameisenvolk
mit einer Königin. Ich verbot meiner Mutter –
die eine Engelsgeduld mit mir hatte –, vor
dem Nachmittag in meinem Zimmer zu sau­
47
Evolution (Serie, Teil III)
»Ich wollte eine
Füchsin mit unserem Dackel kreuzen. Aber zu Fuchshunden ist es nicht
gekommen«
48 gen, denn erst dann hatten sich die Tiere in
ihr Nest zurückgezogen. Es mussten also nicht
Ameisen sein – es sollte sich aber bewegen
und Verhalten zeigen. Ich erinnere mich noch
gut, wie mein Vater versuchte, mir Namen
von heimischen Pflanzen beizubringen, aber
das war hoffnungslos. Dagegen hatte ich die
Namen für die Ameisen im Frankengebiet
rasch gelernt, überhaupt interessierte mich al­
les, was kreucht und fleucht.
Spektrum: Dass es Ameisen waren, auf die
Sie sich letztlich konzentrierten, kam Ihnen
später zugute – schließlich wurden die Insek­
ten zu einem Modellorganismus für viele Fra­
gen, was die Entwicklung sozialer Gemein­
schaften, Evolution und andere Dinge angeht.
Hölldobler: Sicher, aber das ist Zufall. Es hät­
ten wie gesagt auch andere Tiere sein können,
denn in unserer Familie haben über kürzere
oder längere Zeiträume alle möglichen tie­
rischen Hausgenossen gelebt. Meinem Vater
wurden oft Vögel mit gebrochenen Flügeln
gebracht, an denen ich kleine Studien durch­
geführt habe. Eines Tages brachte er eine klei­
ne Füchsin nach Hause, die wir Dolly tauften,
und ich hatte geplant, sie mit unserem Dackel
Perkele – das heißt auf Finnisch Maßkrug –
zu kreuzen. Sie haben zwar wunderbar mitei­
nander gespielt, aber zu Fuchshunden ist es
nicht gekommen (lacht).
Spektrum: Was haben Sie von Ihrem Vater
gelernt?
Hölldobler: Als 1990 das mit Edward O.
Wilson geschriebene Buch »The Ants« heraus­
kam, erschien auch eine Besprechung in der
»Chicago Tribune«. Wenig später erreichte
mich ein Brief aus Chicago, auf Deutsch ge­
schrieben von einem Dr. Eduard Huesing, der
mich wegen meines seltenen Nachnamens an­
schrieb. Und es stellte sich heraus, dass er als
junger Medizinstudent im Zweiten Weltkrieg
als Sanitäter unter meinem Vater im rus­
sischen Karelien gedient hatte – er war dort
Chefchirurg. Unter anderem hat er in dem
Briefwechsel eine Szene geschildert, in der ein
Landser mit zerfetztem Unterleib hereingetra­
gen wurde, und ein anderer Sanitäter meinte,
der sei erledigt. Dann habe mein Vater gesagt:
»Man urteilt nie, bevor man etwas nicht ge­
nau untersucht hat.« Der Mann hat überlebt.
Diese Haltung meines Vaters war mir sehr
vertraut, und den Satz habe ich oft gehört.
Das hat mich zweifellos geprägt.
Spektrum: Wer hat Sie während Ihres Studi­
ums in Würzburg besonders beeinflusst?
Hölldobler: Der Würzburger Neurophysio­
loge Hansjochen Autrum – später Ordinarius
in München – hat mir gezeigt, was wissen­
schaftliche Zoologie ist. Später, als Dokto­
rand, habe ich auf einer Konferenz in Bern
den jungen Martin Lindauer kennen gelernt,
einen Schüler Karl von Frischs. Der kam aus
Brasilien mit tollen Ergebnissen über die
Kommunikation bei stachellosen Bienen,
Meleponinen, zurück.
An seinen Lehrstuhl bin ich dann nach der
Promotion als Assistent gewechselt. Dort traf
ich den späteren Präsidenten der Max-PlanckGesellschaft, Hubert Markl, den Neurophysi­
ologen Werner Rathmayer, die Verhaltensund Sinnesphysiologen Rüdiger Wehner, Ran­
dolf Menzel – damals noch Doktoranden.
Später kamen der Verhaltensökologe Ulrich
Maschwitz und der Verhaltens- und Tropen­
ökologe Eduard Linsenmair, damals ebenfalls
noch Doktorand.
Das war eine hervorragende Forschungs­
gruppe. Ich betrachte mich heute eigentlich
als Schüler von Martin Lindauer. Seine He­
rangehensweise zeichnet sich durch genaue
Beobachtung und sauberes Experimentieren
aus. Und natürlich die Fähigkeit, herauszufin­
den, wie das Tier auf unsere Fragen antwortet.
Diese Denkweise habe ich bereits während
der Doktorarbeit in Würzburg entwickelt und
in Frankfurt weiter ausgebaut.
Spektrum: Worum ging es dabei?
Hölldobler: Ich wollte herausfinden, inwie­
weit die Männchen, die bei den Ameisen ha­
ploid sind (also nur einen Chromosomensatz
haben), in den Ameisenkolonien am sozialen
Leben teilnehmen. Ansonsten müsste man ja
annehmen, dass die Sozialgene nur bei di­
ploiden Weibchen exprimiert werden. Ei­
gentlich ist ihre einzige Funktion, beim
Hochzeitsflug die künftigen Königinnen zu
begatten. Sie haben also nur einmal Spaß im
Leben – und dann sterben sie. Dafür können
sie über 20 Jahre nach ihrem Tod noch Nach­
kommen zeugen, denn die Königinnen spei­
chern die Spermien in einer Samentasche im
Hinterleib.
Die meisten Männchen leben nun in der
Tat nicht lange, aber in einer Arbeit des Forst­
zoologen Herrmann Eidmann hatte ich einen
Hinweis gefunden, dass bei Rossameisen in
unseren nördlichen Zonen die Männchen an­
scheinend im Nest überwintern. Das heißt
SPEKTRUM DER WISSENSCHAFT · März 2009
Medizin & Biologie
also, dass sie von Herbst bis zum Hochzeits­
flug im Sommer leben. Also habe ich den
ganzen Lebenszyklus der Rossameisenkolo­
nien untersucht. Das war eine der ersten Stu­
dien seiner Art, und ich habe dabei herausge­
funden, dass die Männchen am Beginn ihres
Lebens nach dem Schlüpfen aus der Puppe
eine soziale Phase durchlaufen.
Spektrum: Sie haben die Ameisen die ganze
Zeit im Feld studiert …
Hölldobler: Ja – ständig beobachten, proto­
kollieren, das ist das tägliche Brot eines Ver­
haltensforschers. Aber natürlich mussten die
Kolonien auch im Labor etabliert werden,
denn nur dort kann man quantitative experi­
mentelle Analysen durchführen. Den ersten
Zeitabschnitt nach dem Schlüpfen – von Sep­
tember bis zum Einwintern – nannte ich, wie
gesagt, die soziale Phase. Da sind die Männ­
chen noch stark am Futteraustausch beteiligt,
bei dem Ameisen Nahrung aus ihrem »sozi­
alen Magen« – auch Kropf genannt – wieder
hervorwürgen und mit anderen teilen. Ich
habe das Futter mit radioaktiven Substanzen
markiert und konnte so den Futterfluss in der
Kolonie quantitativ messen.
Nach dieser sozialen Phase gehen die
Männchen in die Winterpause. Danach
kommt die sexuelle Vorbereitungsphase. Der
Fettkörper, den sie in der dieser Phase auf­
gebaut haben, wird jetzt aufgebraucht, die
Spermatogenese wird abgeschlossen. Jetzt sind
sie nicht mehr am sozialen Nahrungsaus­
tausch beteiligt. Sobald nun die Temperaturen
die entsprechende Höhe erreichen, findet der
Paarungsflug statt. Damit die Königinnen
gleich nachkommen, geben die Männchen,
wenn sie schwärmen, einen Synchronisations­
duftstoff ab; das habe ich mit meinem Freund
Ulrich Maschwitz entdeckt und analysiert.
Spektrum: Was kam nach der Doktorarbeit?
Hölldobler: An der Universität Frankfurt
wurde ich wissenschaftlicher Assistent in der
Arbeitsgruppe von Martin Lindauer, außer­
dem habe ich mich mit einem anderen The­
menbereich beschäftigt.
Spektrum: Worum ging es?
Hölldobler: Es war schon lange bekannt, dass
in den Ameisenkolonien andere Insekten als
soziale Parasiten leben, zum Beispiel Kurz­
flügelkäfer. Das heißt, die Käferlarven werden
von den Ameisen aufgezogen und die adulten (erwachsenen) Käfer von den Ameisen er­
nährt und beschützt. Ich wollte wissen, wie
das möglich ist. Denn die Ameisen sind be­
kannt dafür, andere Insekten zu jagen und zu
fressen.
Spektrum: Was haben Sie herausgefunden?
Hölldobler: Ich konnte nachweisen, dass im
Lauf der Evolution die parasitischen Käfer
SPEKTRUM DER WISSENSCHAFT · März 2009
den Kommunikationskode der Ameisen ent­
schlüsselt haben und ihn so effektiv nachma­
chen, dass die Ameisen sie besser füttern und
pflegen als ihre eigenen Larven und Nestge­
nossinnen. In vergleichenden Untersuchungen
konnte ich auch zeigen, wie sich dieser hoch
angepasste soziale Parasitismus entwickelte.
Spektrum: Das hat doch Aufsehen erregt ...
Hölldobler: Ja, diese Arbeit war ein Treffer,
aber ich hatte auch Glück. Die Ergebnisse
wurden unter anderem im Wissenschaftsjour­
nal »Science« publiziert und im »Scientific
American« einem größeren Publikum vorge­
stellt, das hat schon geholfen. So ist das Ge­
schäft. Danach wollte ich in die USA – und
im Herbst 1969, nachdem ich mich habili­
tiert hatte, ließ Martin Lindauer mich ziehen.
Er hat mich für ein Jahr freigestellt.
Spektrum: Wie fanden Sie Harvard?
Hölldobler: Eine Offenbarung. Nach diesen
ewigen Sitzungen mit sinnlosen Geschäftsord­
nungsanträgen, die den Universitätsbetrieb in
Frankfurt nahezu vollständig blockierten, kam
ich nach Boston. Die Stadt war zwar damals
noch reichlich verdreckt und mein Englisch
verheerend, aber die Kollegen waren alle sehr
freundlich, das intellektuelle Klima äußerst
stimulierend. Meinen ersten Vortrag nach ei­
nigen Wochen habe ich noch mehr mit Hän­
den und Füßen als mit klaren Worten gehal­
ten, aber er ging ganz passabel über die Büh­
ne. Und ich habe sofort losgelegt.
Spektrum: Mit wem haben Sie dann zusam­
mengearbeitet – mit Edward Wilson?
Hölldobler: Ed Wilson war zwar mein Gast­
geber – und er hat mich auch sehr unterstützt.
Aber er war damals sehr mit dem Schreiben an
seiner Monografie über die Insektengesell­
schaften beschäftigt. Ich habe zunächst vor
allem mit dem Insektenphysiologen Carroll M.
Williams, er verstarb 1991, und seiner Gruppe
zusammengearbeitet. Carroll war ungeheuer
stimulierend, ein wahres Energiebündel. Ich
habe mir außerdem die Vorlesungen des Evo­
lutionsbiologen Ernst Mayr angehört, der über
die Jahre zu einem väterlichen Freund wurde.
In Deutschland dagegen war die moderne Evo­
lutionsbiologie damals so gut wie nicht mehr
existent. Bei den so genannten Lunch-Semi­
naren lernte ich die moderne Populationsgene­
tik kennen; und ich habe erfahren, wie man
mit mathematischen Modellen zu neuen Fra­
gestellungen kommt. Das erste Jahr war da im
Nu vorbei – und die meisten meiner Projekte
noch nicht fertig. Da hat mich Martin Lindau­
er ein weiteres Jahr freigestellt – er war in der
Tat ein großartiger Mentor.
Spektrum: Plante er bereits anderes?
Hölldobler: Vielleicht ja, denn eines Tages er­
hielt ich die Nachricht, dass man mich in
»Das intellektuelle
Klima an der Havard University war
äußerst stimulierend«
Lexikon I
Eusozialität bezeichnet im
Tierreich die Staatenbil­
dung. Diese liegt vor, wenn
die Brut kooperativ gepflegt
wird, sich der Verband in
fruchtbare und unfruchtbare
Tiere aufteilt und mehrere
Generationen zusammen­
leben.
Staaten bildend nennt man
Insekten, die sich aus Eigennutz eusozial verhalten. Sie
haben eine gemeinsame
Verteidigung, eine Überwin­
terungs- und Schlafgemeinschaft sowie arbeitstei­
lige Fortpflanzung und Brutpflege.
49
Evolution (Serie, Teil III)
Lexikon II
Genexpression oder -exprimierung bezeichnet die
Ausprägung des Genotyps –
also der genetischen Infor­
mation – zum Phänotyp
eines Organismus oder einer
Zelle.
Tribalismus bezeichnet eine
Gesellschaft, die sich aus
einer Menge kleinerer, ethnisch und kulturell homo­
gener Gemeinschaften zusammensetzt. Hölldobler
sieht darin beim Menschen
eine starke Triebkraft für die
kulturelle Evolution.
»Damals wie heute
gab es an amerikanischen Universitäten einige Sandkastenmarxisten«
50 Frankfurt zum Professor für Zoologie ernannt
hatte. Dabei hatte ich mich gar nicht bewor­
ben! Die Ernennung, hieß es, sei aber nur gül­
tig, wenn ich eine beim deutschen Konsulat
in Boston hinterlegte Urkunde unterschreiben
würde. Also habe ich unter den Augen des
Konsuls das Dokument unterschrieben.
Spektrum: Nach Ihrer Rückkehr – wie war es
dann in Frankfurt?
Hölldobler: Für mich war es keine glückliche
Zeit. Es ging drunter und drüber – das waren
noch die Nachwehen der 68er Zeit. Ich bin
zwar ein sehr liberaler Mensch, aber unseren
armen Lindauer während Vorlesungen mit Pa­
pierfliegern und Kügelchen zu beschießen,
ging doch zu weit. Und die wertvolle Zeit, die
in den sinnlosen Sitzungen verplempert wur­
de, Sit-ins hier, Sit-ins dort … – manchmal
haben wir 40 Stunden in der Woche bei ir­
gendwelchen Sitzungen verbracht! Und das für
einen jungen Wissenschaftler, der besessen war
von seiner Arbeit, der gerade aus Amerika zu­
rückkam, seine Arbeitsgruppe aufbauen und
gute Vorlesungen halten wollte. Frustrierend!
Spektrum: Lähmte das Ihre Forschung?
Hölldobler: Nicht völlig, aber ich überlegte
mir natürlich, gerade nach der tollen Zeit an
der Harvard University, Frankfurt wieder zu
verlassen. Ich stand an der Schwelle, weltweit
bekannt zu werden. Da gab es beim Jahrestref­
fen der Internationalen Ethologischen Gesell­
schaft in Edinburgh, in der ansonsten meist
nur Wirbeltierforscher vertreten sind, erstmals
auch drei Hauptvorträge zum Insektenverhal­
ten. Ich war eingeladen, einen dieser Vorträge
zu halten. Es waren alle damaligen Größen
der Verhaltensforschung da: Leute wie Konrad
Lorenz, Nikolaas Tinbergen aus Oxford, Ro­
bert Hind aus Cambridge, Daniel Lehrman
vom New Yorker Museum of Natural History
und vom Institut for Animal Behavior in Rut­
gers, New Jersey. Der Vortrag hätte schiefge­
hen können, lief aber sehr gut. Ich konnte
über spannende Ergebnisse zur chemischen
Kommunikation bei Ameisen berichten.
Spektrum: Dann haben sich bald Cornell
und Harvard um Sie bemüht ...
Hölldobler: Ja – diese Entscheidung ist mir
nicht leicht gefallen. Denn Cornell ist nach
wie vor führend auf dem Gebiet der Verhal­
tens- und Neurobiologie. Ich habe mich aber
1972 für Harvard entschieden. Und da war
ich dann bis 1990.
Spektrum: Woran arbeiteten Sie?
Hölldobler: Meine Arbeitsgruppe hat ver­
schiedene Fragen zur experimentellen Sozio­
bio­logie untersucht. Dabei spielten nicht nur
die Ameisen eine zentrale Rolle, sondern auch
Honigbienen, soziale Wespen und Termiten.
Ich selbst habe mich sehr intensiv mit der Ana­
lyse von territorialen Strategien bei Ameisen
beschäftigt. Diese Strategien unterliegen einem
Kosten-Nutzen-Prinzip. Es wird nur um Terri­
torien gekämpft, wenn die Chance, Ressour­
cen zu gewinnen, höher ist als die, Kämpfe­
rinnen zu verlieren. Ich habe dazu 1981 einen
Leitartikel in »Science« veröffentlicht.
Spektrum: Und die Kommunikation unter
Ameisen?
Hölldobler: Sicher, die stand ebenfalls auf
dem Programm. Je tiefer und gründlicher wir
uns mit den Kommunikationsmechanismen
bei sozialen Insekten – und vor allem bei
Ameisen – beschäftigten, desto deutlicher
wurde die Komplexität ihres Kommunikati­
onsnetzwerks. Außerdem sind die meisten Si­
gnale, die vorwiegend chemischer Natur sind,
Multikomponentensignale; das heißt, sie be­
stehen aus mehreren Substanzen. Und oft sind
sie zusätzlich multimodal, das heißt, die Sti­
muli kombinieren unterschiedliche Sinnes­
modalitäten, zum Beispiel chemische und me­
chanische. Die Signale und die Verhaltensant­
worten, die diese Signale auslösen, werden
natürlich im Labor untersucht. Wo immer
möglich, werden aber diese sehr reduktionis­
tischen Analysen mit Freilanduntersuchungen
an den nicht manipulierten Ameisenkolonien
überprüft. Ohne Kommunikation gäbe es je­
denfalls kein soziales Verhalten. Übrigens
auch keine Arbeitsteilung – egal, ob nun die
von Organellen in der Zelle oder zwischen
Zellen und Organen in einem Organismus
oder zwischen Organismen in einer sozial or­
ganisierten Gruppe. Ohne Kommunikation
ist Leben nicht möglich.
Spektrum: Haben Sie ein konkretes Beispiel?
Hölldobler: Die Weberameisen der Gattung
Oecophylla sind ökologisch sehr dominante
Tiere, die in den Tropen der Alten Welt riesige
Territorien etablieren. Diese Territorien mar­
kieren sie mit einem koloniespezifischen Stoff­
gemisch, das sie über das gesamte Gebiet ver­
teilen. Doch gab es bei Oecophylla ein Pro­
blem: Die Ameisen folgten nicht oder nur sehr
zögerlich den künstlichen Spuren, die wir mit
diesem Pheromon legten, obgleich die Amei­
sen anderen, von Nestgenossinnen gelegten
Spuren präzise folgten.
Schließlich entdeckten wir, dass die rekru­
tierenden Ameisen ihre Nestgenossinnen mit
einem sehr stereotypen Verhaltenssignal alar­
mierten. Bei der Rekrutierung zur Territorial­
verteidigung gleicht dieses Verhaltensmuster
der Intentionsbewegung, die die Ameisen aus­
führen, bevor sie eine Gegnerin angreifen.
Die­se aggressive Intentionsbewegung wurde
zum Signal ritualisiert. Zusammen mit dem
chemischen Spursignal werden Nestgenossin­
nen zur Territorialverteilung rekrutiert. Das
SPEKTRUM DER WISSENSCHAFT · März 2009
Medizin & Biologie
ist ein Beispiel von multimodaler Kommuni­
kation bei Ameisen. Wir haben das auch in
anderer Form bei mehreren anderen Ameisen­
arten gefunden.
Spektrum: Sie haben einmal sogar vorsichtig
von Syntax gesprochen.
Hölldobler: Ich spreche von primitiver Syn­
tax, weil hier verschiedene Signale miteinan­
der kombiniert werden.
Spektrum: An der Harvard University haben
Sie ja auch Ihre Kooperation mit Edward O.
Wilson begonnen. Wie fanden Sie ihn?
Hölldobler: Ed ist ein wunderbarer Freund.
Als Wissenschaftler sind wir allerdings recht
verschieden. Wie Ed selbst in seiner Biografie
schreibt, ist er alles andere als ein Experimen­
tator – er ordnet und synthetisiert vielmehr
ein Gebiet. Das ist nicht verwunderlich: Er
kommt aus der Systematik. Der Blick für das
große Ganze erlaubt ihm außerdem, über die
Grenzen eines Gebiets hinwegzublicken – und
da kommt seine visionäre Qualität ins Spiel.
Ich bin dagegen eher der Mann fürs Detail.
Meine Stärke liegt in der experimentellen,
quantitativen Analyse, wenngleich ich zuneh­
mend Freude an der die Fachgebiete übergrei­
fenden Synthese habe, allerdings nicht in dem
Maß wie Ed Wilson. Auch hierbei ist mir das
Detail wichtiger als Ed. Aber diese Unter­
schiede unserer Talente ergänzen sich sehr gut.
Spektrum: Sie haben die Debatte um E. O.
Wilsons Buch »Sociobiology« (1975) hautnah
miterlebt. Das Buch handelt davon, wie Gene
tierisches Verhalten beeinflussen – und das
Schlusskapitel stellt die These zur Debatte,
dass nicht nur die Kultur, sondern auch die
Gene unser Verhalten steuern. Das löste da­
mals einen Skandal aus.
Hölldobler: In den öffentlichen Disput war
ich ziemlich involviert. Damals wie heute gab
es an amerikanischen Universitäten einige
Marxisten – oder anders gesagt, Sandkasten­
marxisten, wie ich sie gerne nenne. Denn sie
spielen diese Rolle letztendlich nur, während
sie andererseits ein wohlbestalltes Leben füh­
ren und von den Auswüchsen des realen Mar­
xismus wenig erfahren haben. An der Har­
vard University war das nicht anders – allem
voran fallen die Biologen Stephen Jay Gould
und Richard Lewontin in diese Kategorie,
beide von der Harvard University.
Nun ist es eine Sache, sachlich zu diskutie­
ren. Lewontin hatte sein Büro ein Stockwerk
unter uns; er hätte nur ein paar Stufen nach
oben gehen müssen, an Wilsons Tür klopfen
und erklären können, dass sie einige seiner
Aussagen für nicht gerechtfertigt hielten.
Doch das machten sie nicht. Stattdessen ver­
öffentlichten Lewontin, Gould und andere
(die Gruppe nannte sich »Science for the Peo­
SPEKTRUM DER WISSENSCHAFT · März 2009
ple«) einen Brief in der Zeitschrift »New York
Review of Books«. Darin behaupteten sie
nicht nur, dass es wahrscheinlich genetische
Grundlagen nur für Essen, Stuhlgang und
Schlaf gäbe. Sie brachten Eds Thesen auch in
Zusammenhang mit den Gaskammern des
Dritten Reichs. Das ging zu weit. Und ehe
sich diese Leute dafür nicht entschuldigen,
kann ich ihnen nicht vergeben.
Spektrum: Aber Sie haben sich doch sicher­
lich gewehrt – ganz davon abgesehen, dass
heute die Debatte weit gehend zu Gunsten
Wilsons entschieden ist.
Hölldobler: Ed hat sich meisterhaft mit der
Feder gewehrt, das ist sein Florett. Ich dage­
gen bin zu Podiumsdiskussionen gegangen
und habe ihn so gut ich konnte verteidigt.
Spektrum: Was war der Anlass, mit E. O.
Wilson in den 1980er Jahren das über drei
Kilo schwere Buch »Ameisen« zu schreiben,
für das Sie auch den Pulitzer-Preis bekamen?
Hölldobler: Ich wollte zunächst nur ein
kleineres Buch über Ameisenkommunikation
verfassen. Ed und ich trafen uns oft zum Mit­
tagessen, und als ich auf das Thema Arbeits­
teilung kam und oft seine Arbeiten zu diesem
Thema zitierte, meinte ich, warum schreiben
wir das Buch nicht gemeinsam? Ed war sofort
begeistert und schob nach, dass wir bei dieser
Gelegenheit erstmals auch einen systemati­
schen Bestimmungsschlüssel mit Abbildungen
aller Ameisengattungen der Welt in das Buch
mit aufnehmen könnten.
Ich ächzte innerlich und dachte bei mir:
»O Gott, da gehen die nächsten zwei Jahre da­
hin …« Aber wir waren uns einig, das musste
sein, denn wir wollten ja eine große Monogra­
fie über diese wichtige Tiergruppe schreiben,
und da darf die Systematik nicht fehlen. Die
Kapitel gingen dann ständig zwischen Ed und
mir hin und her … das Buch hat ein Eigen­
leben entwickelt. Und man kann heute kaum
noch sagen, welcher Teil von wem stammt.
Spektrum: Warum sind Sie nach diesem gro­
ßen Erfolg nach Würzburg gegangen?
Hölldobler: Es war eine Zäsur, ein guter Ab­
schluss für meine Zeit an Harvard. Außerdem
wurde mir immer klarer, dass ich trotz meiner
sehr guten Versorgung mit amerikanischen
Forschungsgeldern keine interdisziplinäre Ar­
beitsgruppe mit langfristiger Perspektive auf­
bauen konnte. Aber ich wusste, jetzt müssten
Genetik und Neurobiologie dazukommen, um
soziale Insekten vertieft zu erforschen. Und der
mir in Würzburg angebotene Lehrstuhl war
fast so gut ausgestattet wie eine entsprechende
Abteilung eines Max-Planck-Instituts.
Mein Umzug ging einher mit der Grün­
dung des Biozentrums, in dem sich die biolo­
gischen Disziplinen aus drei Fakultäten zu­
»Ed Wilson ist der
Visionär. Ich bin
dagegen der Mann
fürs Detail«
51
Evolution (Serie, Teil III)
INFOS
Ameisen gehören zu den
Staaten bildenden Insekten
und bilden eine Familie
innerhalb der Hautflügler.
Rund 12 500 Ameisenarten
sind bekannt, darunter 180
in Europa. In Deutschland
dominieren die Rote Wald­
ameise sowie die Schwarze
Wegameise.
Ein Ameisenstaat kann aus
mehreren Millionen Indivi­
duen bestehen, überwiegend
unfruchtbare Weibchen,
dazu eine oder mehrere
Königinnen, die für die
Reproduktion sorgen.
Ameisen orientieren sich mit
Duftstoffen (Pheromonen)
sowie polarisiertem Him­
melslicht, manche Arten sogar über Ultraschall. Bei der
sozialen Verständigung
spielt auch das Betasten mit
Fühlern und Beinen eine
Rolle.
Literaturhinweise:
Hölldobler, B., Wilson, E. O.: The
Superorganism: The Beauty,
Elegance, and Strangeness of Insect
Societies. Norton & Company 2009;
deutsche Ausgabe in Vorbereitung
Hölldobler, B., Wilson, E. O.:
Ameisen. Piper, München 2001.
Weblinks zu diesem Thema
finden Sie unter www.spektrum.de/
artikel/979753.
52 sammenschlossen, ein Konzept, das ich sehr
gut fand. Dann habe ich noch den LeibnizPreis bekommen, ein richtiger Glücksfall. Ich
hatte tolle Postdocs, wir haben viel veröffent­
licht. Dennoch, hätte Harvard mir nicht an­
geboten, meine Professur zwei Jahre für mich
freizuhalten, ich hätte den Sprung zurück
nach Deutschland wohl nicht gewagt.
Spektrum: Wie würden Sie die deutschen
Universitäten von den amerikanischen unter­
scheiden?
Hölldobler: Der Vergleich fällt mir schwer, da
die Universitätslandschaft in den USA viel he­
terogener ist als in Deutschland. Im Allgemei­
nen aber ziehe ich das amerikanische dem
deutschen Universitätssystem vor. Der Haupt­
grund ist, dass die amerikanischen Universi­
täten wesentlich autonomer sind, weil keine
Wissenschaftsministerien vorgeschaltet sind.
Ich zitiere gerne den deutschstämmigen ehe­
maligen Präsidenten der Stanford University,
Gerhard Caspar, der einen Artikel in einer
deutschen Zeitung mit der Schlagzeile begann:
»Schafft die Wissenschaftsministerien ab!«
Das Führungspersonal wird nicht von der
Kollegenschaft gewählt, sondern von Fin­
dungskommissionen benannt. Universitäts­
präsidenten müssen Entscheidungen treffen
und verantworten, das gilt auch für die De­
kane und »Chairs« der Departments. In
Deutschland ist das zum Teil ein Trauerspiel.
Ein für mich naheliegendes Beispiel: Seit
2004 ist meine Stelle in Würzburg unbesetzt
… seit über vier Jahren! Dabei hätte man das
alles im Voraus planen können. Nichts ge­
schah. Seither gab es immer wieder Listen,
auf denen höchst unterschiedliche Kandi­
daten standen. Es dauerte ewig, bis man sich
auf eine Person einigte – und selbst dann ließ
man sich so viel Zeit oder offerierte so
schlechte Bedingungen, dass die Gefragten
letztlich abwinkten. So ruiniert man einen
über Jahre aufgebauten sehr guten Ruf.
Spektrum: Und in Amerika ist das besser?
Hölldobler: Zumindest werden Entscheidun­
gen schneller und mit größerer Kompetenz ge­
troffen. Die Führungskräfte haben Entschei­
dungsmacht, aber sie agieren nicht ohne Kon­
trolle – sie werden an ihren Leistungen gemes­
sen. Denken Sie nur an Larry Summers, den
ehemaligen Harvard-Präsidenten: Ein brillan­
ter Kopf, aber als sich herausstellte, dass ihm
die Führungsnatur für eine solche Institution
fehlt, musste er wieder gehen. Der frühere
langjährige Harvard-Präsident Derek Bok hat
mir bei einer Cocktailparty einmal gesagt, dass
sein Ruf mit der Qualität der Professoren, die
er auf Lebenszeit ernennt, steht und fällt. Und
so hat er uns damals vor Fehlern bewahrt und
verhindert, dass einige Leute – gegen unseren
eigenen Vorschlag – berufen wurden. Natür­
lich berät sich der Präsident bei jeder Einstel­
lung eines Professors. Da geht immer eine in­
ternationale Suche voraus, mit einer eigens da­
für bestellten internationalen Ad-hoc-Kom­
mission. In Deutschland wird dagegen ewig an
einem Kompromiss geschmiedet, bei dem am
Ende oft nichts Vernünftiges herauskommt.
Spektrum: Also kein Nachteil in den USA?
Hölldobler: Na ja, es ist schon schwierig, dass
in den USA in den Naturwissenschaften alles
von Fördergeldern abhängt. Das macht es für
Grundlagenforschung wie die unsere manch­
mal beschwerlich. Das kann man sich in
Deutschland gar nicht vorstellen, wie es ist,
wenn die National Science Foundation mit­
unter weniger als acht Prozent aller Anträge
genehmigt.
Spektrum: Jetzt haben Sie mit Edward Wil­
son wieder ein Buch geschrieben – »The Su­
perorganism« heißt es.
Hölldobler: Ja, das ist gerade bei Norton er­
schienen. Ich bin stolz auf das Werk, aber es
war auch eine schwere Geburt. In dem Buch
geht es um einen der großen Übergänge in
der Natur, vom solitären oder primitiv sozi­
alen Leben zum Leben in der Gruppe, in der
die Gruppenmitglieder im Lauf der Evolution
immer enger interagieren, so dass die Gruppe
schließlich Merkmale eines normalen Orga­
nismus entwickelt. Bei den eusozialen Insek­
ten – Ameisen, sozialen Bienen, sozialen Wes­
pen, Termiten – findet man solche komplexen
Sozietäten, die man als Superorganismen be­
zeichnen kann.
Spektrum: Aber auch dieses Werk begleitet
eine Debatte, ob soziale Insektenstaaten – und
damit der Altruismus einiger Individuen –
durch Verwandten- oder Gruppenselektion
entstanden ist.
Hölldobler: Ja, richtig. Das hat die Arbeit an
dem Buch nicht immer ganz einfach gemacht.
Ed und ich sind uns einig, dass eine reine
Gen-Perspektive der Evolution nicht reicht,
um die Entstehung der komplexen Organisa­
tionen der hoch entwickelten Ameisensozie­
täten zu verstehen. Unsere »Multilevel Selec­
tion Theory« ist dafür der bessere Ansatz. Das
heißt aber nicht, dass die Gen-Perspektive, die
vor allem der Verwandtenselektion zu Grunde
liegt, falsch ist. Mathematisch kann man bei­
de Theorien ineinander überführen. Es hat
anfangs einige Mühe gekostet, Ed davon zu
überzeugen. Denn er wollte die Verwandten­
selektion völlig ad acta legen zu Gunsten der
Gruppenselektion, die übrigens wenig mit der
einst von Konrad Lorenz und seinen Zeitge­
nossen propagierten Gruppenselektion ge­
mein hat. Wie gesagt, Ed und ich stimmen
darin überein, dass das Multilevel-SelectionSPEKTRUM DER WISSENSCHAFT · März 2009
Medizin & Biologie
Modell die Evolution von Superorganismen
besser erklärt, allerdings sind wir uns uneinig
über die Bedeutung von Verwandtschaft für
die Evolution von Eusozialität.
Spektrum: Können Sie das näher erläutern?
Hölldobler: Die Frage ist: Wie kommt es,
dass ein Gen, das altruistisches Verhalten för­
dert, sich in einer Population ausbreitet? Die
Antwort, auf die Evolutionsbiologen sich seit
Langem geeinigt haben, ist, dass sich ein sol­
ches Gen dann schneller in einer Gruppe aus­
breitet, wenn ihre Mitglieder bereits eng mit­
einander verwandt sind. Der Grund: Dann ist
die Chance höher, dass die anderen Indivi­
duen selbst Träger dieses Gens sind. Das ist
die klassische Verwandtenselektion. Die Ent­
stehung eusozialer Systeme, in denen sich nur
ein oder wenige Individuen reproduzieren
und viele sterile Individuen die Nachkommen
dieser reproduzierenden Individuen aufzie­
hen, lässt sich meines Erachtens nur mit der
Verwandtenselektion erklären. Sicherlich kann
sich kooperatives Gruppenverhalten auch un­
ter nicht verwandten Individuen entwickeln,
aber es wird nie zur Eusozialität kommen.
Spektrum: Das behauptet Wilson aber.
Hölldobler: In der Tat. Natürlich ist es so,
dass in hoch entwickelten eusozialen Sozie­
täten der durchschnittliche Verwandtschafts­
grad ziemlich niedrig sein kann, weil die Kö­
niginnen sich mit vielen Männchen gepaart
haben, oder weil es mehrere nicht verwandte
Königinnen in der Kolonie gibt. Aber diese
Arten haben den point of no return längst
überschritten, das heißt es gibt keine Entwick­
lung zurück. In solchen Insektenstaaten ist
größere genetische Vielfalt sogar vorteilhaft.
In unserem Buch hat sich Gott sei Dank nach
zähem Ringen meine Sicht stärker durchge­
setzt, sonst wäre es noch nicht auf dem Markt.
Natürlich wird es nicht allen Kollegen gefal­
len, aber das wäre ja auch langweilig.
Spektrum: Und warum dann überhaupt noch
von Gruppenselektion sprechen?
Hölldobler: Auf der Basis der Verwandten­
selektion ergibt die Gruppenselektion Sinn:
Wenn die gegenseitige Hilfe verwandter Indi­
viduen den Sozialverband stärkt, schlägt dieser
womöglich andere Gruppen aus dem Feld.
Dann konkurrieren Sozietäten als Ganzes mit­
einander. Die Kolonie, die auf Grund eines
besseren Kommunikationssystems schneller
eine rare Ressource findet, setzt sich besser
durch und hat höhere Chancen, zu überleben
und sich fortzupflanzen. Das heißt in der Kon­
sequenz, dass die Selektion auf verschiedenen
Ebenen wirkt. Die Einheit der Evolution ist
unbestritten das Gen. Aber die Selektion
»sieht« nur den Phänotyp, den des Individu­
ums und den erweiterten Phänotyp der Grup­
SPEKTRUM DER WISSENSCHAFT · März 2009
pe. Je stärker dabei die Konkurrenz zwischen
den Gruppen ist, desto besser funktioniert in
der Regel die Kooperation innerhalb der
Gruppen. Schließlich sind die Individuen in­
nerhalb der Gruppe so stark aufeinander ange­
wiesen und die Arbeitsteilung so intensiv und
Konflikte innerhalb der Gruppe völlig ver­
schwunden, dass man tatsächlich von einem
echten Superorganismus sprechen kann. Der
ist jetzt die Zielscheibe der Selektion.
Spektrum: Fast nebenbei haben Sie und Wil­
son mehrmals behauptet, das ließe sich auch
auf den Menschen anwenden ...
Hölldobler: Zumindest ist es plausibel anzu­
nehmen, dass zu Beginn der Menschheitsge­
schichte Zusammenschlüsse aus Familien
durch ihre soziale Organisation, Technik oder
moralische Vorstellungen gegenüber anderen
Gesellschaften einen Wettbewerbsvorteil ge­
wannen. Diese Gruppen hatten bessere Chan­
cen, sich im Lauf der Menschheitsgeschichte
durchzusetzen. Und es ist plausibel anzu­
nehmen, dass genetische Grundlagen der Kul­
tur in der Evolutionsgeschichte mit selektiert
wurden. Die Bedeutung der Gruppe sehen
Sie heute außerdem noch am XenophobieEffekt, dem Hang zum Tribalismus (siehe Le­
xikon II) – einer der stärks­ten Triebkräfte des
Menschen. Das hat in der Vergangenheit
zweifellos soziale Verbände gestärkt, ist aber in
unserer Zeit ein weit gehend negatives Merk­
mal, das wir kulturell kontrollieren müssen.
Spektrum: Zu einem Superorganismus haben
wir es aber noch nicht geschafft.
Hölldobler: Wir sollten das auch nicht an­
streben, denn das Leben in einem den Amei­
senstaaten ähnlichen Superorganismus wäre
ziemlich langweilig.
Spektrum: Wie würden Sie Ihre bisherige
Laufbahn beurteilen?
Hölldobler: Ich habe drei Berufsziele: Ich
möchte ein möglichst guter Forscher sein;
dann liegt mir sehr daran, ein guter akademischer Lehrer sein, das heißt Studenten für die
Forschung begeistern und junge Wissenschaft­
ler heranziehen. Für mich ist die größte Er­
füllung meines Berufs, wenn ehemalige Schü­
ler in ihrer wissenschaftlichen Laufbahn erfolg­
reich sind. Und drittens will ich, so gut ich es
kann, unsere Wissenschaft einer breiten Öf­
fentlichkeit vermitteln. Denn wir machen un­
sere Arbeit großteils mit öffentlichen Geldern.
Und daraus ergibt sich eine Bringschuld. Wir
sollten nicht nur unseren Kollegen von unseren
Ergebnissen berichten, sondern auch den
Laien. Jetzt kann nicht jeder auch gute Prosa
schreiben, aber es gibt immerhin eine Aus­
kunftspflicht. Sonst würde ich auch nicht hier
mit Ihnen den ganzen Nachmittag sitzen, um
aus meinem Leben zu erzählen.
»Das Leben
in einem den
Ameisenstaaten­
ähnlichen
Superorganismus
wäre ziemlich
langweilig­«
Hubertus Breuer arbeitet als
Wissenschaftsjournalist in Brooklyn/New York. Er erhielt gerade
den GlaxoSmithKline-PublizistikPreis 2009.
53
Serie Mathematik (Teil VI)
Hören Sie dazu auch unseren Podcast Spektrum Talk unter www.spektrum.de/talk
Wie real ist das
Unendliche
Die seit 120 Jahren ungelöste Frage nach der Kontinuumshypothese
nähert sich einer überraschenden Antwort. Das liefert gute Gründe
für die An­nahme, dass die Theorie des Unendlichen kein Produkt wissenschaftlicher Willkür ist, sondern tiefe Wahrheiten ans Licht bringt.
Von Jean-Paul Delahaye
K
ommen die natürlichen Zahlen
in der Natur vor? Offensichtlich
nicht. Noch nie ist jemandem die
Sieben leibhaftig über den Weg ge­
laufen, gar nicht zu reden davon, dass man
die Drei mit der Fünf – oder gar mit sich
selbst – beim Multiplizieren beobachtet hätte.
Gleichwohl tragen die natürlichen Zahlen
ihren Namen irgendwie zu Recht. Man findet
nicht die Sieben in der Natur, aber sehr häufig
sieben Dinge. Es gibt viele Vorgänge in der re­
alen Welt, die durch eine Addition oder Multi­
plikation natürlicher Zahlen zu beschreiben
sind. Streng genommen sind natürliche Zahlen
nur Abstraktionen; aber sie sind so nützliche
und universelle Hilfsmittel zum Verständnis
der realen Welt, dass man geneigt ist, ihnen
selbst eine Realität zuzugestehen – nicht in der
beobachtbaren Welt, sondern in der Welt der
Ideen, die der antike Philosoph Platon für re­
aler erklärte als die handgreifliche Realität.
SERIE: Die gröSSten Rätsel der Mathematik
Teil I: Interview mit Gerd Faltings SdW 09/2008
Die riemannsche Vermutung Teil II: Das Komplexitätsproblem P = NP
SdW 10/2008
Teil III: Goldbachsche Vermutung und
Primzahlzwillingsvermutung
SdW 12 /2008
Teil IV: Die Vermutung von Birch und Swinnerton-Dyer SdW 01/2009
Teil V: Die ABC-Vermutung
SdW 02/2009
Teil VI: Hierarchien des Unendlichen
SdW 03/2009
Teil VII: Das Navier-Stokes-Problem
SdW 04/2009
Teil VIII: Das Yang-Mills-Problem
SdW 05/2009
Teil IX: Was ist Mathematik?
SdW 06/2009
54 Das bedeutet insbesondere, dass die natür­
lichen Zahlen nicht nur im Kopf irgendwel­
cher Menschen existieren, sondern außerhalb
von ihnen: nicht persönliches Hirngespinst,
nicht bloße soziale Konvention, sondern Ob­
jekte eigenen Rechts. Gleiches gilt für die re­
ellen und sogar die komplexen Zahlen; auch
sie haben ihre Unentbehrlichkeit für die Be­
schreibung der Natur über jeden Zweifel er­
haben unter Beweis gestellt. Das passt zu der
alltäglichen Erfahrung der Mathematiker: Sie
erleben ihre Funktionen, Operatoren und na­
türlich auch die natürlichen Zahlen als Ge­
genstände, die nicht der Willkür des Betrach­
ters, sondern – häufig zu dessen Unmut – ih­
ren eigenen Gesetzen folgen.
Es passt allerdings nicht zur offiziellen
Lehrbuchweisheit. Angesichts der Frage »Was
genau sind denn nun die natürlichen Zahlen?«
greifen die Mathematiker ausdrücklich nicht
auf irgendwelche Beobachtungen in der Real­
welt zurück oder nehmen einen besonderen
Zugang zur platonischen Ideenwelt für sich in
Anspruch. Vielmehr berufen sie sich auf Axi­
ome. Das sind möglichst einfach gehaltene
Aussagen, die ohne Beweis zu glauben einem
nicht sonderlich schwerfallen sollte. Aus ihnen
leiten die Mathematiker durch logische
Schlussfolgerungen die ganze reichhaltige Viel­
falt an Sätzen her, die – in diesem Fall – die
Arithmetik und die Zahlentheorie ausmachen.
Das Problem ist nur: Ein Axiomensystem
ist ohne Zweifel eine soziale Konvention. Für
die natürlichen Zahlen wurden verschiedene
Systeme diskutiert; daraus ging eines als allge­
mein akzeptiertes Standardsystem hervor. Man
nennt es ZFC nach Ernst Zermelo (1871–
1953) und Abraham Fraenkel (1891–1965);
das C steht für choice, weil zu den von Zerme­
lo und Fraenkel aufgestellten Axiomen noch
SPEKTRUM DER WISSENSCHAFT · März 2009
rechts: Linas Vepstas (http://linas.org); übrige Abbildungen: Pour la Science
1? 2
0
?
Mensch & geist
MEnsch
& Geist
Dies ist nur eine von den unendlich vielen Kugeln, die das
Titelbild dieser Ausgabe zeigt;
aber schon in ihr spiegeln sich
unendlich viele Kugeln unendlichfach.
SPEKTRUM DER WISSENSCHAFT · März 2009
55
Serie Mathematik (Teil VI)
In Kürze
Das durch das Auswahlaxiom ergänzte Axiomen­
system von Zermelo und
Fraenkel (ZFC) gilt als
geeignete Basis für die
Mengenlehre; insbesondere hat man nie irgendwelche Widersprüche in ZFC
gefunden.
r Die Kontinuums­hypo­
these besagt, dass es
keine Unendlichkeit
zwischen derjenigen der
natürlichen und derjenigen der reellen Zahlen
gibt. Sie ist auf der Basis
von ZFC unentscheidbar:
Man kann die Hypothese
selbst oder auch ihr
Gegenteil zu ZFC hinzu­
fügen, ohne neue Widersprüche zu erzeugen.
r In den letzten Jahren
sucht man nach neuen
Axiomen, die diese Indifferenz (»Symmetrie«) von
ZFC gegenüber der Kontinuumshypothese brechen.
r Allem Anschein nach
liefert jede Methode, die
überhaupt die Symmetrie
bricht, das Ergebnis, dass
die Kontinuumshypothese
falsch ist.
r das Auswahlaxiom (axiom of choice) hinzu­
kommt. Woher wissen wir, dass ausgerechnet
dieses Axiomensystem die natürlichen Zahlen
getreulich reproduziert? Die aus dem plato­
nischen Ideenhimmel, wohlgemerkt, denn die
Zahlen für den täglichen Gebrauch axioma­
tisch zu begründen ist nicht schwer. Interes­
sant und problematisch wird es erst da, wo die
uns umgebende Realität nicht hinreicht: im
Unendlichen.
Georg Cantor (1845 – 1918), dem Schöp­
fer der modernen Mengenlehre, verdanken
wir die Einsicht, dass das Unendliche in ver­
schiedenen Größen vorkommt. Ein Beispiel
für die kleinste Sorte ist die Menge der natür­
lichen Zahlen. Dagegen ist die Menge der re­
ellen Zahlen »noch viel unendlicher«, und da­
rüber gibt es eine unendliche Hierarchie von
immer größeren unendlichen Mengen.
Tücken des Unendlichen
Cantor war davon überzeugt, dass es zwischen
der Unendlichkeit der natürlichen und jener
der reellen Zahlen keine »Zwischengröße« ge­
ben könne. Eine Menge, die »wesentlich mehr«
Elemente enthält als die natürlichen Zahlen,
müsse bereits so groß sein wie das »Kontinu­
um«, sprich die Menge der reellen Zahlen. Al­
lerdings gelang es Cantor zeitlebens nicht, die­
se Vermutung, die so genannte Kontinuums­
hypothese, zu beweisen. Das Problem erwies
sich als so hartnäckig und so bedeutend, dass
David Hilbert (1862 – 1943) in seinem weg­
weisenden Vortrag auf dem 2. Internationalen
Mathematikerkongress 1900 in Paris die Kon­
tinuumshypothese auf Platz 1 seiner berühmt
gewordenen Liste von 23 Problemen setzte.
Mittlerweile gibt es eine Antwort auf Hil­
berts Frage: Sowohl die Kontinuumshypothe­
se als auch ihre Verneinung sind mit dem Axi­
omensystem ZFC vereinbar. Für einen Plato­
nisten ist ein solches Ergebnis ein harter
Schlag. Ignorabimus. Wir wissen nicht, ob es
in dem Ideenhimmel eine unendliche Menge
in der Zwischengröße gibt, und wir können es
niemals wissen, denn wenn wir es wüssten,
dann wäre entweder die Kontinuumshypothe­
se oder ihr Gegenteil mit ZFC unvereinbar –
was nicht der Fall ist.
Aus diesem Befund kann man den nahelie­
genden Schluss ziehen, dass die ganze Vorstel­
lung vom Ideenhimmel zu verwerfen ist. Die
Theorie des Unendlichen wäre demnach nichts
weiter als ein ziemlich belangloses Glasperlen­
spiel, der Willkür der Mathematiker anheim­
gestellt, und von einer Realität jenseits des Be­
obachtbaren könnte keine Rede sein. Es ver­
steht sich, dass eine solche Konsequenz, die
der ganzen Mathematik den üblen Anschein
des Beliebigen und Belanglosen anzuheften
droht, vielen Vertretern des Fachs nicht schme­
cken will.
Die Auseinandersetzung ging bis ins Persön­
liche. Cantor litt sehr darunter, dass seine Kol­
legen seinem Werk diese Belanglosigkeit zu­
schrieben. Leopold Kronecker (1823 – 1891),
einer seiner Lehrer und später sein erbitterter
Gegner, hat diese Auffassung in die berühmt
gewordenen Worte gefasst: »Gott hat die na­
türlichen Zahlen geschaffen, alles andere ist
Menschenwerk.«
Aber es gibt einen Ausweg. Es könnte ja
sein, dass das Axiomensystem ZFC unvollstän­
dig ist. Vielleicht haben wir nur noch nicht
verstanden, dass man den herkömmlichen
Axiomen eines oder einige wenige hinzufügen
muss, damit das so ergänzte System das »wah­
re« Unendliche getreulich wiedergibt.
Es gibt unendlich viele Unendlichkeiten
(I)
f(x)
C c
x
f(a)
a
A
(II)
P(A)
C
f(x)
x
f(a)
A
c
a
P(A)
56 Eine der erstaunlichsten Entdeckungen Cantors
war, dass es unendlich viele unterschiedliche Typen von Unendlichkeiten gibt. Dies ergibt sich daraus, dass die Menge P(A) aller Teilmengen von A
nicht bijektiv auf A abgebildet werden kann.
Beweis: Nehmen wir an, es gäbe eine Bijektion f
von A auf P(A), welche jedem Element a in A genau
ein Element f(a) in P(A) zuordnet. Hieraus werden
wir einen Widerspruch herleiten. Wir definieren
die Menge C als die Menge der Elemente x aus A,
die nicht Element ihrer eigenen »Bildmenge« f (x)
aus P(A) sind. Da C eine (möglicherweise leere)
Teilmenge von A ist, ist C ein Element von P(A). Da
f nach Voraussetzung bijektiv ist, gibt es ein eindeutig bestimmtes c in A mit C = f(c). Ist c Element
von C (Bild I), so ist es nach Definition von C kein
Element von f (c) = C; Widerspruch. Liegt c nicht in
C (Bild II), so ist c kein Element von f (c). Folglich
liegt es nach der Definition von C in C; Widerspruch.
Dieser Widerspruch zeigt, dass f nicht existiert.
Unser Beweis ähnelt dem Paradox von dem Barbier, der alle Männer rasiert, die sich nicht selbst
rasieren. Man kann weder sagen, der Barbier rasiere sich selbst, noch, er rasiere sich nicht selbst.
P(A) ist also strikt größer als A, denn kleiner als
A ist es bestimmt nicht.
der
Ausgehend von der unendlichen Menge
natürlichen Zahlen erhält man mit dem obigen Resultat eine erste Staffel von unendlichen Mengen:
, P( ), P(P( )), P(P(P( ))), …
SPEKTRUM DER WISSENSCHAFT · März 2009
Mensch & geist
Ontologischer Maximalismus und mittelalterlicher Gottesbeweis
Anselm von Canterbury (1034 – 1109) glaubte
die Existenz Gottes mit einem Argument be­
weisen zu können, das eine kuriose Ähnlichkeit
mit dem ontologischen Maximalismus aufweist.
»Wenn Gott existiert, so ist er vollkommen«, argumentierte Anselm. »Aber die Vollkommenheit
schließt die Existenz ein, denn Existenz ist eine
vornehmere Eigenschaft als Nichtexistenz, gehört folglich zur Vollkommenheit. Da Gott alle
diese Eigenschaften besitzt, muss er existieren.« Damit nutzte er die Paradoxien des Unendlichen, denen die Griechen der Antike noch
aus dem Weg gingen, für seine Zwecke.
Im »Proslogion« erklärt Anselm, dass die reale Existenz noch vollkommener sei als die bloß
vorgestellte Existenz in Gedanken. »Wir glauben, dass (Gott) etwas so Großes ist, dass nichts
Größeres gedacht werden kann. Existiert ein solches Wesen etwa nicht, bloß weil die Toren in ihrem Herzen sprechen: ›Es ist kein Gott‹ (Psalm
14)? Dennoch wird dieser Tor zumindest verstehen, was er hört, wenn ich sage: ›etwas, über das
hinaus nichts Größeres gedacht werden kann‹.
Rein formal könnte man diese Aufgabe da­
durch lösen, dass man kurzerhand die Konti­
nuumshypothese zum Axiom erklärt. Aber ein
solch brachialer Akt wäre schiere Willkür. Die
Kontinuumshypothese ist beim besten Willen
nicht als eine einfache Aussage zu bezeichnen,
die »eines Beweises weder fähig noch bedürf­
tig« ist, so die klassische Definition eines Axi­
oms. Außerdem könnte man ebenso gut per
Axiom die Existenz einer Menge in Zwischen­
größe postulieren, und damit wäre der alte
unbefriedigende Zustand wiederhergestellt.
Nein, das zu findende Axiom muss seine Plau­
sibilität aus besseren Gründen beziehen als
aus dem schlichten Wunsch, sich einer läs­
tigen Unbestimmtheit zu entledigen.
Wiederherstellung der Gewissheit
Möglicherweise hat Hugh Woodin von der
University of California in Berkeley ein sol­
ches Axiom samt plausibler Begründung ge­
funden. Noch sind nicht alle Schritte seines
Gedankengangs ausgearbeitet; aber wenn sei­
ne Ideen Bestand haben, dann ist deren über­
raschendes Ergebnis, dass die Kontinuums­
hypothese falsch ist. Von diesen Ideen soll im
Folgenden die Rede sein.
Auf jeden, der sich näher mit der Unend­
lichkeit beschäftigt, warten einige äußerst ge­
wöhnungsbedürftige Erkenntnisse. So hatte
schon Galileo Galilei bemerkt, dass es ebenso
SPEKTRUM DER WISSENSCHAFT · März 2009
Und was er versteht, ist in seinem Verstand,
selbst wenn er nicht versteht, dass es existiert.
Denn etwas im Verstand zu haben und zu verstehen, dass dieses Etwas existiert, ist zweierlei …
Gewiss kann ein Wesen, über das hinaus
nichts Größeres gedacht werden kann, nicht
nur im Verstand existieren; denn wenn es nur
im Verstand existierte, kann man es sich auch
in der Realität denken, was größer ist. Damit
wäre genau das, über das hinaus nichts Größeres gedacht werden kann, etwas, über das hinaus etwas Größeres gedacht werden kann.
Das aber ist sicherlich unmöglich.«
Et certe id quo maius cogitari nequit,
non potest esse in solo intellectu. Si enim
vel in solo intellectu est, potest cogitari
esse et in re; quod maius est. Si ergo id
quo maius cogitari non potest, est in
solo intellectu: id ipsum quo maius cogitari non potest, est quo maius cogitari
potest. Sed certe hoc esse non potest.
viele natürliche Zahlen wie Quadratzahlen
gibt. Denn die Menge der natürlichen Zah­
len lässt sich bijektiv, das heißt umkehrbar
eindeutig, auf die Menge der Quadratzahlen
abbilden: 1 → 1, 2 → 4, 3 → 9, … Jedem
Element der ersten Menge entspricht genau
ein Element der zweiten; keines wird wegge­
lassen, und keines kommt mehrfach vor. Aus
dem »Paradoxon des Galilei« schlossen die
Zeitgenossen, dass die Erkenntnis des Unend­
lichen Gott vorbehalten sei, oder auch, dass
das Unendliche nicht existiere.
Über diese Position sind wir dank Georg
Cantor inzwischen hinaus. Wir können zwar
bei einer unendlichen Menge offensichtlich
nicht sinnvoll von der Anzahl ihrer Elemente
sprechen, aber immerhin definieren, was es
heißen soll, dass zwei Mengen »gleichmächtig
sind«, das heißt gleich viele Elemente haben,
nämlich immer dann, wenn es eine bijektive
Abbildung zwischen ihnen gibt.
Und bijektive Abbildungen (kurz: »Bijekti­
onen«) gibt es reichlich. So kann man zeigen,
dass nicht nur die Menge der Quadratzahlen,
sondern auch die der Primzahlen, die der
Zweierpotenzen und viele andere Teilmengen
der Menge dieser Menge selbst gleichmäch­
tig sind. Ein Teil kann so groß sein wie das
Ganze.
Nicht nur das: Man kann auch beträcht­
lich über die natürlichen Zahlen hinausgehen,
Bijektion oder
bijektive Abbil­
dung:
eine Zuordnung, bei welcher
jedem Element a der Menge
A eindeutig ein Element b
der Menge B entspricht und
umgekehrt. Die Menge der
natürlichen Zahlen­und die
Menge der Quadratzahlen
stehen in einer Bijektion;
daraus folgt, dass sie die
gleiche Größe (»Mächtigkeit«) haben.
B
A
b
a
57
Serie Mathematik (Teil VI)
Kontinuumshypothese
Es gibt keine unendliche
Menge, deren Größe zwischen derjenigen der
natürli­chen Zahlen und
derjenigen der reellen
Zahlen R liegt.
Auswahlaxiom
Gegeben sei eine unendliche
Menge von Mengen; dann
kann man aus jeder dieser
Mengen ein Element auswählen und aus diesen Elementen eine neue Menge
bilden. Für endlich viele
Mengen ist das trivial: Aus
{a, b, c}, {1, 2} und {A, E, I,
O, U} kann man {b, 1, U}
bilden. Interessant ist das
Auswahlaxiom in Fällen,
in denen eine Auswahl nicht
durch eine Vorschrift beschreibbar ist.
1/2
1/3
1/4 1/8 1/9 1/27
...
1/4
1/16 1/32
...
...
1/5
1/125
1/25
1/6
1/36 1/216
... ...
58 ...
1/7
1/49 1/343
...
1/4
1/25
1/9
1/16
1/49
1/36
...
ohne dass die Menge dadurch »wesentlich un­
endlicher« würde. So ist die Menge Q der ra­
tionalen Zahlen auch nur »abzählbar unend­
lich«, das heißt von der Mächtigkeit der na­
türlichen Zahlen, denn es gibt eine Bijektion
zwischen und Q .
Allerdings gibt es ein Verfahren, mit dem
man von einer Menge zu einer mächtigeren
Menge kommt: Zu einer Menge M bilde man
die »Potenzmenge« P(M ), das ist die Menge
ihrer Teilmengen. So ist zum Beispiel zu der
dreielementigen Menge M={1, 2, 3} die Po­
tenzmenge P(M )={∅, {1}, {2}, {3}, {1, 2},
{1, 3}, {2, 3}, {1, 2, 3}}. Diese hat acht Ele­
mente; im Allgemeinen enthält eine Menge
mit n Elementen 2n Teilmengen. Für unend­
liche Mengen ist es weniger offensichtlich,
aber immer noch wahr: P(M ) ist immer grö­
ßer als M, denn es kann keine Bijektion zwi­
schen M und P(M ) geben (Kasten S. 56).
Wendet man das Verfahren mehrfach an,
so erhält man eine unendliche Folge von im­
mer größeren Unendlichkeiten:
➤ die abzählbare Unendlichkeit der natür­
lichen Zahlen ={0, 1, 2, …}, die mit ℵ0
(»aleph-null«) bezeichnet wird;
➤ die Unendlichkeit von P( ), also diejenige
aller Teilmengen von . Diese Menge lässt
sich in eine Bijektion mit der Menge R der
reellen Zahlen bringen; sie bildet das »Konti­
nuum« und wird mit 2ℵ0 bezeichnet ;
➤ noch größer: die Unendlichkeit der Menge
P(P( )), der Menge aller Teilmengen von
P( ), in Formeln 22ℵ0
➤ und so weiter.
Neben dieser ersten Serie von Unendlich­
keiten kann man mit Cantors Theorie noch
eine zweite konstruieren. Man definiert ℵ1
als die kleinste Unendlichkeit, die größer ist
als ℵ0, entsprechend ℵ2 als die kleinste Un­
endlichkeit oberhalb von ℵ1 und so weiter.
Hier stellt sich die naheliegende Frage:
Sind diese beiden Hierarchien des Unend­
lichen in Wirklichkeit ein und dieselbe? Ist also
ℵ1=2ℵ0, ℵ2=2ℵ1 und allgemein ℵk=2ℵk–1?
Die erste Gleichung dieser Liste entspricht der
Aussage, dass jede unendliche Teilmenge der
Menge R der reellen Zahlen sich entweder
auf oder auf R bijektiv abbilden lässt. Das
ist die Kontinuumshypothese.
Ihrer großen, durch Hilberts berühmte Liste noch untermauerten Bedeutung zum Trotz
ließen Fortschritte in Sachen Kontinuums­
hypothese auf sich warten. Zudem fielen die
ersten Ergebnisse eher zur Enttäuschung der
Platonisten aus.
Kurt Gödel (1906 – 1978) bewies 1938,
dass die Kontinuumshypothese »relativ wider­
spruchsfrei« zum Axiomensystem ZFC hinzu­
gefügt werden kann. Das heißt, ZFC mit
Kontinuumshypothese ist widerspruchsfrei
unter der Voraussetzung, dass ZFC allein wi­
derspruchsfrei ist.
Gödel ging von einer Struktur aus, welche
die Axiome von ZFC erfüllt (ein »Modell« des
Axiomensystems ZFC), und wählte daraus
eine Teilstruktur, ebenso wie man beispiels­
weise aus dem Körper R der reellen Zahlen
den Teilkörper Q der rationalen Zahlen aus­
wählen kann. In dieser Teilstruktur gelten im­
mer noch die Axiome von ZFC, weil sie für
die ganze Struktur gelten; zusätzlich ist die
Teilstruktur so konstruiert, dass in ihr die
Kontinuumshypothese wahr ist. Damit hatte
Gödel seine Behauptung mit einem »internen
Modell« bewiesen.
Dagegen ist das von Paul Cohen (1934 –
2007) eingeführte »Forcing« eine »externe«
Methode. Sie ähnelt dem klassischen Verfah­
ren, mit dem man die Menge der rationalen
Zahlen zu jener der reellen erweitert (nämlich
indem man die reellen Zahlen als Grenzwerte
von Folgen rationaler Zahlen erklärt). Cohen
ging von einer Struktur aus, die ZFC erfüllt,
und erweiterte sie so geschickt, dass für die
erweiterte Struktur das Gegenteil der Kon­ti­nuumshypothese galt, also beispielsweise
2ℵ0 =ℵ2. Damit gelang es Cohen 1963 zu be­
weisen, dass auch die Verneinung der Konti­
nuumshypothese mit ZFC vereinbar ist.
Was ist ein gutes Axiom?
Gödel zählte zu den Leuten, die sich mit die­
ser Beliebigkeit nicht zufriedengeben moch­
ten. Er war davon überzeugt, die Kontinuums­
hypothese sei falsch und das gängige Axio­
mensystem einer Ergänzung bedürftig. So
schrieb er:
»Nur wer – wie die Intuitionisten – bestrei­
tet, dass die Grundbegriffe und Axiome der
klassischen Mengenlehre überhaupt eine (wohl­
definierte) Bedeutung haben, kann sich mit sol­
ch einer Lösung zufriedengeben, nicht aber wer
glaubt, dass sie eine gewisse Realität beschrei­
ben. Denn in dieser Realität muss (die Kon­
tinuumshypothese) entweder wahr oder falsch
sein. Dass sie auf der Basis der heute bekannten
Axiome unentscheidbar ist, kann nur bedeuten,
dass diese Axiome keine vollständige Beschrei­
bung dieser Realität enthalten.«
Demnach besteht die Aufgabe des Mathe­
matikers und Logikers darin, neue Axiome zu
suchen, die, zu ZFC hinzugefügt, die Konti­
nuumshypothese beweisbar oder widerlegbar
machen. Naturgemäß kann es keinen Beweis
geben, dass ein bestimmtes Axiom, das die
Forscher sich ausdenken mögen, das richtige
ist. Immerhin kann man Kriterien aufstellen,
welche die guten Axiome von den schlechten
unterscheiden helfen.
SPEKTRUM DER WISSENSCHAFT · März 2009
Mensch & geist
Das erste Kriterium versteht sich fast von
selbst: die Widerspruchsfreiheit. Ein zusätz­
liches Axiom darf zusammen mit den allge­
mein akzeptierten Axiomen von ZFC nicht
auf einen Widerspruch führen. Übrigens ist
auch das Auswahlaxiom unabhängig von den
anderen Axiomen von ZFC, wie Gödel und
Cohen bewiesen haben.
Das zweite Kriterium trägt den Namen
»ontologischer Maximalismus«. Die Idee da­
hinter ist einfach: Erkläre alles als seiend, was
sein kann. Sprich keinem Objekt ohne Not
die Zugehörigkeit zum platonischen Ideen­
himmel ab. Das entspricht der klassischen
Denkweise der Mathematiker, nach der ein
Objekt bereits dann existiert, wenn es wider­
spruchsfrei definiert werden kann.
In elementarer Form ist der ontologische
Maximalismus bereits in ZFC verwirklicht
und leistet dort gute Dienste. Es gibt in ZFC
nämlich ein Axiom, das die Existenz unend­
licher Mengen postuliert. Ersetzt man dieses
Axiom durch seine Verneinung (»Jede Menge
ist endlich«), so ergibt sich eine nicht uninte­
ressante Theorie, welche die klassische Arith­
metik umfasst, aber bald an Grenzen stößt. So
fehlen ihr die reellen Zahlen, ohne die eine
Physik schwerlich denkbar wäre.
Nach dem Prinzip des ontologischen Ma­
ximalismus ist jedes Axiom, das die Existenz
sehr großer Mengen behauptet, ein gutes Axi­
om. Dieser Leitlinie folgend, haben die Men­
gentheoretiker in den letzten 50 Jahren viele
neue Axiome aufgestellt, die man »Axiome
der großen Kardinalzahlen« nennt. Hier ein
einfaches Beispiel: Der ontologische Maxima­
lismus zwingt uns zu der Annahme, dass es
eine Menge gibt, welche größer ist als jede
Menge, die in der Folge , P( ), P(P( )),
P(P(P( ))) … vorkommt. Deren Größe ist
wahrhaft Schwindel erregend, selbst für Ma­
thematiker, die mit dem »gewöhnlichen« Un­
endlichen keine ernsthaften Probleme haben;
man bedenke, dass die übliche Mathematik
sich auf den ersten drei, allenfalls vier Glie­
dern dieser Folge abspielt. Und diese per Axi­
om postulierte Menge ist nur die kleinste un­
ter den großen Kardinalzahlen (Spektrum der
Wissenschaft 12/1998, S. 46).
Im Lauf der Zeit haben die Logiker etliche
verschiedene Axiome für große Kardinalzahlen aufgestellt und überprüft. Sie sind sämt­
lich »natürlich« in dem Sinn, dass man zu ih­
rer Rechtfertigung den ontologischen Maxi­
malismus anführen kann. Aber die Hoffnung,
ein solches Axiom würde, zu ZFC hinzu­
gefügt, die Frage nach der Kontinuumshypo­
these – so oder so – beantworten, wurde ent­
täuscht. Man kann sogar zeigen, dass große
Klassen von Axiomen der großen Kardinal­
SPEKTRUM DER WISSENSCHAFT · März 2009
Modell
Ein Modell für eine Menge
von Axiomen ist eine Struktur, welche alle diese
Axiome erfüllt. Ein Modell
für die Gruppenaxiome ist
einfach eine Gruppe (etwa
die Gruppe der Drehungen
im Raum, die den Nullpunkt
fest lassen). Ein Modell für
ZFC ist eine Struktur, die
alle Axiome von ZFC erfüllt.
@
wichtigeonlineadressen
Brainlogs
Blogs für die Welt im Kopf
www.brainlogs.de
Managementwissen
per Fernlehre kostengünstig
ortsunabhängig erwerben
Qualitätsmanager, Qualitätsbeauftragter
www.cqa.de
Ingwer und Meerrettich
zur wirkungsvollen Entzündungshemmung
bzw. Antibiose bei Pferd und Mensch
www.freenet-homepage.de/Brosig-Pferde-Ingwer/
Kernmechanik –
von Kernspin bis Kosmologie,
von Dunkler Materie und Energie
www.kernmechanik.de
KOSMOpod
Astronomie zum Hören
www.kosmopod.de
WISSENSlogs
Science unplugged
www.wissenslogs.de
GroSSe
Kardinalzahlen
Mengen von gigantischer
Größe, größer als alle Mengen in der Folge , P( ),
P(P( )), P(P(P( ))), …
Diese großen Kardinalzahlen
werden mit Hilfe von Axiomen konstruiert, die man zu
ZFC hinzunimmt.
Hier können Sie den Leserinnen und Lesern von Spektrum
der Wissenschaft Ihre WWW-Adresse mitteilen. Für € 83,00
pro Monat (zzgl. MwSt.) erhalten Sie einen maximal fünfzeiligen Eintrag, der zusätzlich auf der Internetseite von
Spektrum der Wissenschaft erscheint. Mehr Informationen
dazu von
GWP media-marketing
Susanne Förster
Telefon 0211 61 88-563
E-Mail: [email protected]
59
Serie Mathematik (Teil VI)
Vollständigkeit
unentscheidbar
Ein System heißt vollständig, wenn man von jeder im
System formulierbaren Aussage A zeigen kann, dass
entweder A oder »nicht A«
gilt. Gödel hat bewiesen,
dass jedes widerspruchsfreie System, das reichhaltig
genug ist, um darin Arith­
metik zu treiben, unvollständig ist. Diejenigen Formeln
A, die man weder beweisen noch widerlegen kann,
heißen im System unentscheidbar.
zahlen ohne Einfluss auf die Kontinuumshy­
pothese sind.
Nachdem also der ontologische Maximalis­
mus als Quelle neuer, Klarheit schaffender
Axiome gescheitert ist, gilt es neue Kriterien
zu suchen. Das wichtigste unter diesen ist sehr
subtil, aber viel versprechend; wir verdanken
ihm aktuelle Fortschritte, die Hoffnung auf
eine endgültige Klärung machen.
Cohens Methode, das »Forcing«, ist sehr
mächtig – in manchen Fällen fast zu mächtig.
So kann man ein Modell von ZFC durch For­
cing derart vergrößern, dass die Kontinuums­
hypothese falsch wird (was Cohen getan hat),
und dann nochmals vergrößern, und zwar so,
dass die Kontinuumshypothese wahr wird!
Das Forcing hat sozusagen keine Meinung zur
Kontinuumshypothese, denn es kann sie ab­
wechselnd wahr und falsch machen.
Stabilität –
das entscheidende Kriterium
Wenn es dagegen um arithmetische Aussagen
geht (das sind Aussagen, in denen nur die na­
türlichen Zahlen vorkommen, wie beispiels­
weise »Es gibt unendlich viele Primzahlzwil­
linge«), ist Forcing keineswegs so kapriziös:
Eine arithmetische Aussage, die in einem Mo­
dell beweisbar ist, bleibt dies in jeder Erweite­
rung dieses Modells durch Forcing. Man sagt:
Der Bereich der Arithmetik ist unter Forcing
stabil in ZFC. Dies bedeutet auch, dass ZFC
ein brauchbares System für die Arithmetik
darstellt.
ZFC hat auch ansonsten seine Eignung
unter Beweis gestellt. Bislang ist es noch nie
gelungen, eine arithmetische Aussage zu for­
mulieren, für die ZFC unbrauchbar wäre,
das heißt, die nachweislich mit den Mitteln
von ZFC weder beweisbar noch widerlegbar
wäre – bis auf die Aussagen, die Gödel eigens
zu diesem Zweck konstruiert hat, nämlich
um seinen berühmten Unvollständigkeitssatz
zu beweisen.
Vollständigkeit – jede in einem System for­
mulierbare Aussage ist in diesem System be­
weis- oder widerlegbar – ist für die Arithme­
tik nicht zu erreichen. Das ist die Aussage der
gödelschen Unvollständigkeitssätze. Da muss
man sich mit etwas weniger zufriedengeben,
einer »schwachen Vollständigkeit«. Eine sol­
che zweitbeste Eigenschaft könnte die Stabili­
tät sein. Ein Axiom, das zu ZFC hinzugenom­
men nicht nur die Arithmetik, sondern einen
größeren Bereich des Universums der Mengen
stabilisieren würde, würde uns also der prin­
zipiell unerreichbaren Vollständigkeit ein
Stückchen näherbringen. Das wäre ein guter
Grund, ein solches Axiom zu akzeptieren.
Damit haben wir mittlerweile drei Krite­
rien für gute Axiome versammelt, die man
zu ZFC hinzufügen sollte. Ein solches Axi­
om muss
➤ relativ widerspruchsfrei sein, das heißt es
darf, zu ZFC hinzugefügt, keinen neuen Wi­
derspruch erzeugen,
➤ mit dem Prinzip des ontologischen Maxi­
malismus, das heißt insbesondere mit den be­
kannten Axiomen für große Kardinalzahlen,
verträglich sein,
➤ möglichst große, neue Teile des Univer­
sums der Mengen stabilisieren.
Hat man solche natürlichen Axiome ge­
funden? Ja. Zwei Axiome scheinen allen ge­
nannten Anforderungen zu genügen und sind
deshalb Kandidaten für eine Erweiterung der
Mengenlehre.
Der erste Kandidat heißt »Axiom der pro­
jektiven Determiniertheit«, ( projective determinacy, PD) und wurde in den 1970er und
1980er Jahren erarbeitet. Es besagt, dass es für
alle unendlichen Spiele einer bestimmten Ka­
Eine neue Art von Logik
Hugh Woodin
60 Eines der stärksten Argumente gegen die
Kontinuumshypothese beruht auf einer neuen
Logik, die Hugh Woodin (Bild) vorgeschlagen
hat. Es handelt sich um die W-Logik, eine Verallgemeinerung der gängigen mathematischen Logik. Man definiert eine Kollektion von Modellen
und erklärt einen Satz für beweisbar in der WLogik, wenn er in jedem Modell der Kollektion
beweisbar ist. Die Vollständigkeit dieser Logik
(also der Nachweis, dass ein System genau dann
widerspruchsfrei ist, wenn es ein Modell hat)
konnte bislang nur teilweise gezeigt werden.
Was fehlt, ist ein Beweis der so genannten WVermutung.
Die W-Logik ist die Logik der großen Kardinalzahlen im folgenden Sinn: Eine Behauptung
ist mit Hilfe von (sehr allgemein definierten) Axiomen der großen Kardinalzahlen beweisbar,
wenn sie in der W–Logik beweisbar ist.
In die W-Logik ist also die Annahme, dass
die Axiome der großen Kardinalzahlen gelten,
gewissermaßen schon eingebaut. So wie man
durch das Akzeptieren unendlicher Objekte den
Übergang von der Arithmetik zur Mengenlehre
bewältigte, so verschafft uns die W-Logik einen
vergleichbaren Fortschritt, nämlich den Übergang vom üblichen Unendlichen zu dem der
großen Kardinalzahlen.
SPEKTRUM DER WISSENSCHAFT · März 2009
Mensch & geist
tegorie eine Gewinnstrategie gibt. Vor allem
Jan Mycielski, Yiannis Moschovakis und Ale­
xander Kechris haben wesentliche Ergebnisse
erzielt und unter anderem gezeigt, dass PD
den Teil des Universums der Mengen stabili­
siert, der ℵ1 entspricht – ein Fortschritt ge­
genüber ZFC, dessen Stabilitätsbereich sich
auf die natürlichen Zahlen entsprechend ℵ0
beschränkt. Zudem ist PD verträglich mit den
Axiomen der großen Kardinalzahlen; Donald
Martin und John Steel haben 1985 sogar be­
wiesen, dass PD selbst in einem gewissen Sinn
ein Axiom großer Kardinalzahlen ist.
Unglücklicherweise sagt auch PD nichts
über die Kontinuumshypothese aus. Man muss
also weitergehen und Axiome suchen, welche
den über ℵ1 hinausgehenden Bereich des
Mengenuniversums stabilisieren.
Genau hier haben die letzten Fortschritte
der Theorie stattgefunden. Hugh Woodin hat
ein neues Axiom vorgeschlagen, welches uns
ganz in der Nähe der erhofften Lösung für die
Kontinuumshypothese bringt. Es trägt den
Namen WMM wie »Woodin’s Martin’s Maxi­
mum«, weil Woodin ein Axiom namens »Ma­
ximum« von Donald Martin aufgegriffen und
weiterentwickelt hat. Obwohl die Situation
noch nicht endgültig geklärt ist, sieht es ganz
so aus, als folgte aus diesem Axiom, dass die
Kontinuumshypothese falsch ist.
Was spricht für das Axiom WMM?
➤ Erstens stabilisiert es den Bereich des Uni­
versums der Mengen, der zu ℵ2 gehört; das
ist eine Stufe höher als das, was PD leistet.
Also ist dieses Axiom ein guter Kandidat im
Sinn unserer Kriterien.
➤ Zweitens genügt es höchstwahrscheinlich
der Forderung des ontologischen Maximalis­
mus. Zumindest kann man zeigen, dass ein
sehr ähnliches Axiom mit den Axiomen der
großen Kardinalzahlen kompatibel ist.
➤ Drittens: Wenn man die Gültigkeit einer
weiteren Vermutung voraussetzt, die als ver­
nünftig gilt und die man bald zu beweisen
hofft, der so genannten W-(»Omega«-)Vermu­
tung, dann folgt aus WMM, dass die Konti­
nuumshypothese falsch ist.
Allgemeiner kann man zeigen, immer un­
ter der Voraussetzung, dass die W-Vermutung
gilt: Jede Methode, welche das Universum
der Mengen bis ℵ2 stabilisiert, hat zur Folge,
das die Kontinuumshypothese falsch ist. Pa­
trick Dehornoy von der Université de Caen
bezeichnet bereits die Kontinuumshypothese
als »im Wesentlichen falsch«.
So wie es aussieht, trennen uns nur noch
einige offene und nicht allzu schwere Fragen
von einer definitiven Lösung von Hilberts er­
stem Problem: Anders als Cantor vor 120 Jah­
ren glaubte, ist das Kontinuum nicht die erste
SPEKTRUM DER WISSENSCHAFT · März 2009
Unendlichkeit jenseits des Abzählbaren. Bis­
her gewonnene Teilergebnisse deuten darüber
hinaus darauf hin, dass es nur genau eine Zwi­
schengröße zwischen der abzählbaren Unend­
lichkeit und dem Kontinuum gibt. Das ent­
spricht der unerwarteten Formel 2ℵ0 =ℵ2.
Die Konsequenzen dieser Erkenntnis sind
noch gänzlich unklar – jedenfalls zurzeit.
Das Unendliche weiß noch einige seiner Ge­
heimnisse zu wahren.
Das Unendliche
wird immer besser verstanden
Noch ist auch die Frage nach der Kontinu­
ums­hypothese nicht vollständig geklärt; eini­
ge Spezialisten halten auch die entgegenge­
setzte Antwort nicht für ausgeschlossen. So ist
es denkbar, dass ein Axiom großer Kardinal­
zahlen gefunden wird, das die Kontinuums­
hypothese impliziert. Gleichwohl sind die
Fortschritte gewaltig. Bereits dadurch, dass
wir große Kardinalzahlen definieren und klas­
sifizieren können, verfügen wir über eine The­
orie des Unendlichen, von der man nicht be­
haupten kann, die Mathematiker hätten sie
willkürlich erfunden.
So genießt das Axiom PD, das uns nach­
weislich einer Form der Vollständigkeit näher­
bringt, bereits allgemeine Zustimmung in der
Fachwelt. Woodin selbst hält es sogar für
ebenso wahr und evident wie die Axiome der
elementaren Arithmetik. Damit zeigt sich,
dass das Unterfangen, den grundlegenden
Axiomen der Mengenlehre natürliche Axiome
hinzuzufügen, keine Utopie ist: Man kann
sich dem Unendlichen nähern, es gibt unter
unseren Bemühungen nach und nach seine
Geheimnisse preis und erweist sich dabei als
Teil der Realität.
Andere Fachleute wie Dehornoy drücken
sich etwas vorsichtiger aus: »Es scheint kaum
zu bestreiten, dass die von H. Woodin bewie­
senen Sätze eine Aussage über etwas machen,
wenn auch dieses Etwas nicht das überabzähl­
bare Unendliche ist, über das heute in der Re­
gel Sätze formuliert werden.«
Allem Anschein nach hatten Cantor und
Gödel Recht, als sie behaupteten, die Konti­
nuumshypothese sei für uns nicht frei wähl­
bar, sondern die Tatsache, dass diese falsch ist,
sei uns vorgegeben.
Offenkundig haben diese Fortschritte der
mathematischen Logik eine philosophische
Dimension: Wenn das Unendliche nicht et­
was ist, was wir uns nach unserem Belieben
zurechtdefinieren, sondern vielmehr seine
Formen unserem Geist aufzwingt, so ist dies
ohne Frage eine unglaublich tief liegende Aus­
sage über die Welt und die Weise, in der wir
sie wahrnehmen.
Jean-Paul Delahaye ist Professor
für Informatik an der Université
de Lille.
Bellotti, J.: Woodin on the Conti­
nuum Problem: An Overview and
some Objections. In: Logic and
Philosophy of Science III-1, 2005.
Online unter http://www2.units.
it/~episteme/L&PS_Vol3No1/
contents_L&PS_Vol3No1.htm
Gödel, K.: What is Cantor’s Continuum Hypothesis? In: American
Mathematical Monthly 54, S. 515 –
525, 1947.
Guerrerio, G.: Kurt Gödel. Spektrum der Wissenschaft Biografie
1/2002.
Woodin, H.: Set Theory after
Russell. The Journey back to Eden.
In: Link, G. (Hg.): One Hundred
Years of Russell’s Paradox. De
Gruyter, Berlin 2004.
Das Unendliche. Spektrum der
Wissenschaft Spezial 1/2001.
Das Unendliche (plus eins).
Spektrum der Wissenschaft Spezial
2/2005.
Weitere Weblinks zu diesem Thema
finden Sie unter www.spektrum.de/
artikel/979755.
61
Psychoakustik
Die Biologie des
Wohlklangs
Mal traurig, mal fröhlich, dissonant oder harmonisch – Musik stürzt uns in ein
Wechselbad der Gefühle. Dies sei erlerntes Verhalten, lehrt die Musikpsychologie.
Eine natürliche Wirkung von Obertönen, glauben die Autoren.
Von Norman D. Cook und
Takefumi Hayashi
Jan Philipp Baer / iStockphoto
G
64 ute Laune oder Stolz und Selbstbewusstsein – wann immer Musik solche Assoziationen bei uns
weckt, zeigt ein Blick aufs Notenblatt, dass sie in einer Dur-Tonart komponiert ist. Das gilt für Popsongs ebenso wie
für die Fanfare der Tagesschau und so manche Nationalhymne. Trauerte Beatle Paul
McCartney hingegen in »Yesterday« einer
vergangenen Liebe nach, baute er die Klage
»Why she had to go, I don’t know« auf einem
Moll-Dreiklang auf.
Jean Philippe Rameau, französischer Komponist und Musiktheoretiker, empfahl 1722:
»Die Stimmung in Dur eignet sich für Reigen
der Freude und des Jubels«, für »Melodien des
Sturmes und der Wut«, aber auch zur Vermittlung von »Erhabenheit und Herrlichkeit«;
Moll hingegen stünde für Anmut, Zartheit,
Klage und Trauer.
Diese Unterscheidung hatte sich mit dem
Aufkommen mehrstimmiger Musik in der
Renaissance rasch entwickelt. Dennoch verstehen Psychologen und Musiktheoretiker sie
bis heute nicht. Denn nur ein einziger Halbton-Schritt unterscheidet die musikalischen
Geschlechter: Erklingt ein Dur-Akkord, liegt
sein zweiter Ton vier Halbtöne über dem
Grundton (große Terz), bei Moll sind es nur
drei (kleine Terz).
Dass nicht nur Erwachsene, sondern auch
Kinder ab drei Jahren Dur und Moll mit angenehmen beziehungsweise unangenehmen
Gefühlen assoziieren, gilt den meisten Experten nicht als angeborenes, sondern erlerntes
Verhalten: Weil die Musik im Westen nun
SPEKTRUM DER WISSENSCHAFT · März 2009
Mensch & geist
Dur bedeutet Stolz
Das Deutschlandlied steht in D-Dur und schwingt sich schon im ersten Wort
»Einigkeit« vom Grundton d zur Dur-Terz fis auf, um schließlich im »Vaterland«
auf der Quinte a anzukommen; der Herzenswunsch »Blüh im Glanze« beginnt
hoch oben auf der Oktave d''. Auch die amerikanische Nationalhymne illustriert
die Bedeutung des Dur-Geschlechts: Der erste Vers »say, can you see« steigt mit
dem B-Dur-Dreiklang auf die Oktave des Grundtons.
Schon Renaissancekompo­nisten wussten um die emotionale Wirkung der Ton­
geschlechter, dementsprechend sind Totenmessen meist in einer Moll-, Stücke zu
fröhlichen Anlässen in einer Dur-Tonart komponiert.
einmal auf der Dur-Moll-Tonalität beruhe,
hätte sich unsere Wahrnehmung an diesem
Schema ausgerichtet. Das sich demnach ebenso wenig naturwissenschaftlich begründen lasse wie das Regelwerk der deutschen Rechtschreibung.
Eine Sicht, die wir nicht teilen. Unseres Erachtens wurde die Bedeutung der so genannten Obertöne für das musikalische Empfinden
bislang schlicht unterschätzt. Diese sind, wie
vor mehr als einem Jahrhundert der deutsche
Physiker Hermann von Helmholtz (1821 –
1894) erkannte, eine gute Erklärung für eine
andere Qualität von Mehrklängen: die Konsonanz beziehungsweise Dissonanz.
Ein Dur- oder Moll-Akkord wirkt stets in sich
harmonisch und geschlossen, das ändert sich
auch nicht bei einer so genannten Umkehrung, bei der statt des Grundtons dessen Oktave (1. Umkehrung) oder die Oktaven von
Grundton und Terz (2. Umkehrung) gespielt
werden. Wird aber beispielsweise die Terz
durch die Quarte ersetzt (so genannter sus4Akkord), die Quint eines Moll-Dreiklangs
um einen Halbton erniedrigt oder die eines
Dur-Akkords um dieses Maß erhöht (verminderter beziehungsweise übermäßiger Akkord),
erscheint der Gesamtklang unausgewogen,
spannungsreich und verlangt nach »Auflösung« in einen konsonanten Dreiklang.
Nun erzeugen natürliche Instrumente niemals reine Sinusschwingungen, sondern stets
ein ganzes Spektrum, das sich aus dem
Grundton und Vielfachen davon zusammensetzt. Das in der Mitte einer Klaviertastatur
gegriffene c' besitzt beispielsweise eine Grundfrequenz F0 von 261 Hertz (Hz), als erster
SPEKTRUM DER WISSENSCHAFT · März 2009
Christophe Denis / fotolia
Das Streben nach Harmonie
65
Psychoakustik
Oberton F1 erklingt zudem die doppelte Frequenz (522 Hz), als F2 die dreifache (783
Hz). Anzahl und jeweilige Stärke der Teiltöne
verleihen einem Instrument die Klangfarbe,
so dass jenes c' auf dem Klavier anders klingt
als von einem Saxophon gespielt. Weil die
Amplituden der Obertonschwingungen zu
höheren Ordnungszahlen hin abnehmen, prägen aber nur die ersten fünf oder sechs den
Höreindruck.
Helmholtz erkannte 1877 die Bedeutung
dieses Phänomens für unser musikalisches
Empfinden und postulierte, dass zwei Töne
dann konsonant seien, wenn ihre Frequenzspektren einen Oberton oder mehrere Obertöne gemeinsam hätten.
Generationen von Forschern haben das
Harmonie- und Disharmonie-Empfinden bei
verschiedenen Tonintervallen untersucht. Als
sicher gilt: Ein Abstand von einem oder zwei
Halbtönen (beispielsweise von c nach cis oder
d) klingt unangenehm oder unruhig, elf Halbtöne wirken äußerst dissonant (etwa von c
nach h), während die sechs Halbtöne einer
übermäßigen Quart nur als leichter Missklang
gehört werden.
Das Spiel der Obertöne
alle Grafiken des Artikels: Norman D. Cook
F1
Lautstärke
F0
Lautstärke
Lautstärke
Lautstärke
Jeder natürliche Ton besteht aus Sinustönen, von denen einer mit der Grundfrequenz F0, andere mit Vielfachen davon erklingen, so genannte Obertöne (linkes
Bild). Musikalisch handelt es sich dabei um Intervalle zum Grundton. So entsprechen der erste und dritte Oberton Oktaven, der zweite der Quinte und der vierte
einer Terz (rechtes Bild, auf einer Klaviertastatur dargestellt). Zum Gesamtton tragen höhere Ordnungen immer weniger bei. Erklingen zwei Töne gleichzeitig, entsteht das Hörergebnis durch Interaktion aller Frequenzen.
Reinier Plomp, damals Audiologe an der Universität Amsterdam, modellierte 1965 gemeinsam mit dem holländischen PsycholinC
F
F'G'G' C''
C'' E''
E''F''G''A'' C'''D'''
C'
G'
C'' E''
C
F
C'
F' G'
C'' E''F''G''A'' C'''D'''
C'
guisten Willem Levelt die Wahrnehmung von
F3
F1
F2
F3 F4
Ton 1: F0
F2 F3
F3 F4
F4 F5Ton
F61: F0
F1
F2
F1
F2
F3
F5 F6zweier reiner SiDissonanz
durch
dasF4
Hören
F4
Ton 2:
F0
F1
F2
F3 Ton
F4 2:
F5 F6
F0 nustöne. F1
F3 F4
F6 Befund
Damit F2
ließ sich
derF5obige
aber nur bei kleinen Intervallen nachbilden,
das Empfinden bei Tonabständen von sechs
und elf Halbtönen gab das Modell nicht wieder (siehe unterer Kasten, linke Grafik).
Dissonanz – ein komplexes Phänomen
Spielten sie den Probanden jedoch zusätzlich
Empirische Untersuchungen ergaben, dass Akkorde dann als sehr dissonant
Obertöne vor, also Vielfache der Grundfrequenz beider Ausgangstöne, wurde die theoreempfunden werden, wenn darin zwei Töne einen Abstand von einem oder zwei
tische Kurve der empirisch ermittelten immer
Halbtönen aufweisen. Weitere Dissonanzmaxima liegen bei elf und sechs Halbtonähnlicher.
schritten. Allein aus der Präsentation zweier reiner Sinustöne lässt sich Letzteres
Mehr noch: Die Modellkurve zeigte mehr
nicht nachvollziehen (links). Erst die Berücksichtigung von Obertönen ergibt ein
oder weniger ausgeprägte »Dellen«, also Intertheoretisches Modell, das der Erfahrung entspricht (rechts).
valle geringerer Dissonanz (rechte Grafik).
Und diese finden sich in Dur- und Moll-Tonleitern wieder, sie entsprechen den als konsonant empfundenen Intervallen: Im Abstand
von drei oder vier Halbtönen zum Grundton
liegen kleine und große Terz, bei fünf Halbtönen folgt die Quarte, bei sieben die Quinte,
bei neun die Sexte und nach zwölf Halbtönen
ist die Oktave erreicht. Da solche Strukturen
nicht nur im Abendland die Musik prägen,
handelt es sich unseres Erachtens nicht um
0 1 2 3 4 5 6 7 8 9 10 11 12
0 1 2 3 4 5 6 7 8 9 10 11 12
Erlerntes, es ist vielmehr ein Hinweis auf die
Größe des Intervalls (in Halbtonschritten)
Größe des Intervalls (in Halbtonschritten)
physiologischen Gegebenheiten unserer auditiven Wahrnehmung.
Dissonanz
Ton 1: F0
12
en)
Dissonanz
F2
C
Wohl- und Missklang
im Modell
66 SPEKTRUM DER WISSENSCHAFT · März 2009
5–3
Mensch & geist
7
Moll (zweite Umkehrung)
Dur (Grundstellung)
unteres Intervall
4–3
6
5
m2
4
M0
M2
Auf einem Dreiklanggitter lassen
sich die beiden Intervalle eines
Akkords in Halbtonschritten
eintragen, um die Eigenschaften
des Klangs zu analysieren. Die
hier dargestellten sechs Drei­
klänge – Dur- und Moll-Akkord
sowie jeweils die 1. und 2.
Umkehrung – stecken bereits
den Rahmen abendländischer
Musik ab.
m1
m0
3
M1
2
1
nanz
Steckt ein Fehler im Modell?
ll
rva
nte
sI
ere
ob
ll
S
m
M d
S
l
ll al
rtvearv
e
t
n
In I
esres
tuenrte
n
u
0 1 2 3 4 5 6 7 8 9 10 11 12 13
oberes Intervall
S
d m M d
M A m
S m M S
d
d
S m M S
M A m
d m M d
S
Täler
der Harmonie
l
llal
vearv
r
t
e
n
tI
eIsn
rteesr
e
n
t
unu
0 1 2 3 4 5 6 7 8 9 10 11 12 13
oberes Intervall
67
S
d m M d
a
Disson
13
12
11
10
9
Täler
der Harmonie
llll
rvrava
ntete
s sI In
erere
obobe
SPEKTRUM DER WISSENSCHAFT · März 2009
13
12
11
10
9
8
7
6
5
4
3
2
1
0
M
A
m
M
A
m
d
m
M S
d
nanzz
DDisisso
sonan
Als gutes Hilfsmittel bei der Analyse hat sich
das Dreiklanggitter erwiesen (siehe Abbildung
oben), auf dessen vertikaler beziehungsweise
horizontaler Achse die Größen der beiden
Intervalle in Halbtonschritten abgetragen werden. Ein Cluster aus sechs Gitterpunkten entspricht den Dur- und Moll-Akkorden mit
ihren Umkehrungen, die bereits den harmonischen Rahmen der abendländischen Musik
vorgeben. Auch spannungsgeladene Akkorde
wie der sus4 finden dort ihren Platz, einige
durchaus mögliche Kombinationen werden
hier nicht betrachtet, da sie in der Praxis nicht
üblich sind. Übrigens: In der arabischen und
türkischen Musik mit ihren 24 statt 12 Tönen
pro Oktave ist die Zahl der Akkorde höher,
unteres Intervall
Ein Raster für die Musik
d
S m
M
d
S
d m
M
S
lll
rrvvaal
nttee
ss IIn
erree
oobbe
13
13
12
12
11
11
10
10
9
9
8
8
7
7
6
6
5
5
4
4
3
3
2
2
11
0
0
n nz
Diissso a
Wesentlich komplexer noch verhält es sich
bei Mehrklängen aus mindestens drei Tönen.
Von Ausnahmen abgesehen (siehe Randspalte
S. 69) sind ihre Grundfrequenzen zwar lauter
als die Obertöne, diese prägen aber den
Klangcharakter. Spielen sie auch für das Harmonieempfinden eine Rolle? Uns interessieren
in diesem Zusammenhang keine Akkorde, die
um eine Sekunde oder Sept erweitert wurden,
also um Intervalle, die allein auf Grund ihrer
Halbtonabstände zum Grundton dissonant
klingen (und die in der abendländischen Musik, ob Klassik, Pop oder Jazz deshalb beispielsweise dem Spannungsaufbau dienen).
Unser Hauptaugenmerk liegt vielmehr auf
solchen Dreiklängen, die diesem Schema
nicht entsprechen, dennoch im Allgemeinen
nicht als harmonisch eingeschätzt werden;
dazu gehören verminderte, übermäßige und
sus4-Akkorde (die ersten beiden bestehen aus
zwei kleinen beziehungsweise zwei großen
Terzen, im sus4-Dreiklang wird die Terz
durch eine Quart ersetzt).
1 13 2
3
4
5
6
7
12
oberes Intervall
11
10
S
d m M d
9
M A m
8
S m M S
7
d
d
6
S m M S
5
Der Dissonanzgrad von Akkorden lässt sich in einer Farbkodierung über dem DreiM A m
4
klanggitter
abtragen (blau: konsonant; rot: dissonant). Wurde nur die Zahl der Halbd m M d
all
3
tonabstände zwischen den Grundtönen berücksichtigt (oben), hatte das Ergebnisnterv
S
2
I
es
wenig mit der Realität gemein. Doch auch die Einbeziehung von immer mehr Oberter
1
n
u (d),
tönen half nicht: Die normalerweise als dissonant empfundenen verminderten
0
übermäßigen
würden
0 1 2 (A)
3 und
4 5sus4-Akkorde
6 7 8 9 (S)
10 11
12 13 dieser Analyse nach als konsonant
oberes Intervall
eingestuft.
Disso
Moll (Grundstellung)
0
unteres Intervall
0
unteres
unteresIntervall
Intervall
3–4
Psychoakustik
Spannung
A
nach
Moll
B
–1,0
nach
Dur
C
1,0
0,0
Differenz der Intervalle
(Intervall 2 – Intervall 1)
Vollkommen symmetrische, also
aus gleich großen Intervallen
bestehende Dreiklänge wirken
nicht konsonant. Senken oder
Erhöhen eines der Töne ergibt
eine neue Struktur, die oft Duroder Moll-Charakter hat, wie
Grafik und Tabelle zeigen.
einige würden zwischen den Gitterpunkten
des abendländischen Rasters liegen. Auf einer
dritten Achse tragen wir das nach dem Modell von Plomp und Levet berechnete Dissonanzempfinden ein (die Skala reicht von
einem Wert 0,0 für harmonisch bis zu 1,0 für
»sehr unangenehm«).
Überall dort, wo zwischen zwei Tönen nur
ein oder zwei Halbtonschritte liegen, sollte
dieser Wert hoch sein. Beschränkten wir uns
auf die Grundfrequenzen von Akkorden, wäre
das ein begrenzter Bereich nahe dem »Nullpunkt«, der sich entlang der Intervallachsen
als schmale »rote Zone« fortsetzt. Dur- und
Moll-Akkorde liegen samt ihren Umkehrungen in einer »Ebene der Harmonie«. Allerdings: Das gilt auch für die erwähnten verminderten, übermäßigen und sus4-Akkorde.
Das einfache Modell gibt also die Realität
noch nicht adäquat wider.
Sind erneut Obertöne die Erklärung? Nehmen wir einen einfachen C-Dur-Akkord in
mittlerer Oktavlage: c' - e' - g'. Der zweite
Oberton zu g' ist dessen Quinte, die bereits
in der nächst höheren Oktave liegt: d''. Dieser Ton ist nur zwei Halbtonschritte von e''
entfernt, dem ersten Oberton des e'. Betrachten wir nun einen übermäßigen Akkord
c' - e' - gis', verkürzt sich dieser Abstand auf einen einzigen Halbton. Doch obwohl wir eine
Vielzahl von Kombinationen berücksichtigten, fiel der Gesamteffekt weit schwächer aus
als erwartet. Zwar erhielt die Ebene der Konsonanz eine immer komplexere Topografie
und dissonante Bereiche wuchsen. Trotzdem
blieb das ursprüngliche Muster weit gehend
erhalten, die spannungsgeladenen Akkorde
blieben in den Harmoniezonen.
Die Mehrheit der Musikpsychologen erklärt dies als Lerneffekt: Weil in unserer musi-
Aus Spannung wird Wohlklang
Bezeichnung laut Harmonielehre
(soweit vorhanden)
Intervallstruktur
in Halbtonschritten
Akkord nach Absenkung um einen Halbton
u–u–s
u–s–u
s–u–u
3 – 2
2 – 4
4 – 3
3 – 3
Akkord nach Erhöhung um einen Halbton
u–u–h
u–h–u
h–u–u
3 – 4
4 – 2
2–3
4 – 3
3 – 5
5 – 4
4 – 4
4 – 5
5 – 3
3–4
5 – 4
4 – 6
6 – 5
5 – 5
5 – 6
6 – 4
4–5
6 – 5
5 – 7
7 – 6
6 – 6
6 – 7
7 – 5
5–6
7 – 6
6 – 8
8 – 7
7 – 7
7 – 8
8 – 6
6–7
5 – 1
4 – 3
6 – 2
(5 – 2)
5 – 3
6 – 1
4–2
2 – 4
1 – 6
3 – 5
(2 – 5)
2 – 6
3 – 4
1–5
8 – 7
7 – 9
9 – 8
8 – 8
8 – 9
9 – 7
7–8
9 – 8
8 – 10
10 – 9
9 – 9
9 – 10
10 – 8
8–9
3 – 5
2 – 7
4 – 6
(3 – 6)
3 – 7
4 – 5
2–6
6 – 2
5 – 4
7 – 3
(6 – 3)
6 – 4
7 – 2
5–3
u–u–s
u–s–u
s–u–u
u–u–h
u–h–u
h–u–u
Dominant 7
Dominant 7
Dur
vermindert
Moll
–
–
Dur
Dur
Dur
übermäßig
Moll
Moll
Moll Dur
Dominant 7
–
sus4
–
–
Moll –
–
–
Tritonus
–
–
–
–
Dominant 7
Dur
sus4
Moll
–
–
–
Dur
Dominant 7
(sus4)
Moll
–
–
Dominant 7
–
Dur
(sus4)
–
Moll
–
Dur
Dur
Dur
übermäßig
Moll
Moll
Moll Dur
Dominant 7
Dominant 7
vermindert
Moll 7
–
Moll Dur
Dominant 7
Dominant 7
(vermindert)
Moll 7
Moll
–
Dominant 7
Dur
Dominant 7
(vermindert)
–
Moll 7
Moll u: unverändert
68 Spannungsakkord
s: Absenkung um einen Halbton
h: Erhöhung um einen Halbton
( ): Umkehrung
SPEKTRUM DER WISSENSCHAFT · März 2009
Mensch & geist
SPEKTRUM DER WISSENSCHAFT · März 2009
Spannung
l
13
11
9
d
s
a s
d
d
s
unt
1
0
1
2
3
4
BarbershopMusik
Durch präzise Intonation
und Stimmführung lassen
sich Obertöne derart überlagern, dass sie sich gegenseitig verstärken und beim
Zuhörer die Illusion einer
weiteren Stimme entsteht.
Diese als »Barbershop«
bezeichnete Gesangstechnik
entstand in den USA in den
Zeiten vor der Erfindung
des Radios – um sich die
Wartezeit beim Frisör zu
vertreiben. Die bekannteste
deutsche Gruppe dieser
A-cappella-Gesangskunst
waren die Comedian Harmonists.
d s d
a
s
d s
rval
Inte
eres
7
5
3
5
6
7
8
9 10 11 12 13
Spannung
oberes Intervall
unte
res I
nter
vall
13
11
9
d
7
5
s
s
s
d
a
s
d
d
s
a
d
3
s
d
1
0
1
2
3
4
5
6
7
8
9 10 11 12 13
vall
13
11
9
7
5
3
1
0
1
2
Spannung
oberes Intervall
nter
Doch so leicht räumen wir nicht das Feld.
Der im Januar 2008 verstorbene Musikpsychologe Leonard Meyer von der University of
Chicago postulierte bereits 1956, dass musikalische Spannung entsteht, wenn die beiden
Intervalle eines Akkords (oder auch die Abfolge zweier Intervalle in einer Melodie) gleich
groß sind. Ob zwei kleine Terzen aufeinanderfolgen oder zwei Quinten, der Mensch kann
eine solche Struktur nicht klassifizieren. Er
findet keinen Anhaltspunkt, den Grundton
eines Mehrklangs beziehungsweise einer Tonfolge zu identifizieren, und erlebt das musikalische Angebot deshalb noch als instabil.
Auf diesem Ansatz beruht unsere Spannungskurve für Dreiklänge (siehe Grafik
links). Größte Dissonanz herrscht also bei
gleichen Tonabständen der den Akkord aufbauenden Intervalle; sobald aber die Symmetrie um mindestens einen Halbton gebrochen
wird, geht die Spannung gegen null.
Wieder erweist sich das Dreiklanggitter als
gutes Analysewerkzeug. Das Überraschende –
symmetrische Dreiklänge liegen dort gemäß
unserer Spannungskurve in einem schmalen
dissonanten Streifen, nicht aber die Umkehrungen des verminderten und des sus4-Akkords. Kommen aber neben den Grundtönen
auch Obertöne ins Spiel, entspricht die Berechnung der Erfahrung: Beide Mehrklänge
sowie ihre Umkehrungen liegen in Bereichen
hoher Spannung, während Dur- und MollAkkorde weiterhin in der Ebene der Konsonanz verbleiben.
Demnach beruht die gesamte harmonische
Instabilität eines Akkords auf zwei voneinander unabhängigen akustischen Faktoren: der
Dissonanz der einzelnen Intervalle sowie der
symmetriebedingten Spannung aller drei
Töne. Bei beiden Effekten spielen die Obertöne eine entscheidende Rolle.
Dieses Modell lehrt uns auch interessante
Details zur Musikgeschichte. Als die Musiker
der Renaissance begannen, mehr als drei verschieden geführte Stimmen kunstvoll zu kombinieren, war dies ein weit größeres Abenteuer
als bislang angenommen. Denn sie betraten
res I
Ungewissheit erzeugt Spannung
eine neue, ihnen unbekannte Klangwelt. Auf
ihren Entdeckungsreisen lernten sie die Möglichkeiten und die Gefahren der Polyphonie
kennen. Lag der Fokus der Komponisten zuvor auf der Abfolge von Intervallen, suchten
sie nun nach symmetrischen und asymmetrischen Drei-Ton-Kombinationen.
Und sie lernten die zwei Tongeschlechter
zu unterscheiden, die weder mit der Dissonanz eines Intervalls noch mit dem Symmetriegrad eines Dreiklangs zu erklären sind und
uns doch im Alltag überall begegnen: CasinoBetreiber lassen ihre Glücksspielautomaten
Dur-Klänge dudeln, um eine angenehme Atmosphäre zu schaffen, auf einer Beisetzung
wird im Allgemeinen Musik in Moll er­
klingen.
Doch die Beobachtung von Meyer bietet
einen Ansatz, das Geheimnis zu lüften. Denn
um einem symmetrischen Akkord die innere
unte
kalischen Umgebung bestimmte Akkorde
häufiger erklingen als andere, sind sie vertraut
und werden als konsonant eingestuft, unbekannte Mehrklänge hingegen wirken seltsam
und gelten deshalb als dissonant. Die Musikgeschichte bestätigt, dass sich Hörgewohnheiten tatsächlich ändern. So galt die Terz in
der Renaissance noch als dissonantes Intervall,
während heute im Jazz selbst eine Sekunde
oder große Septime als offener Schluss unaufgelöst am Ende eines Stücks erklingen darf.
d m sMa d
d
Ms m
d s
s
s m Ma
m M
m
M
d mM
d
s
3
4
5
6
7
8
oberes Intervall
9 10 11 12 13
Auf dem Dreiklang­gitter ergibt
die anhand der Intervallsymme­
trie berechnete Spannung eine
Gerade (konsonant: blau, nicht
konsonant: rot), sofern man
lediglich die Grundfrequenzen
berücksichtigt. Einige vermin­
derte und sus4-Akkorde­würden
dabei aber als nicht spannungs­
voll eingestuft. Erst mit den
Obertönen F1 (Mitte) oder F1 bis
F4 (unten) fallen diese Drei­
klänge in Spannungszonen, während Dur- und Moll-Akkorde in
Bereiche geringer Spannungen
auftauchen.
69
Psychoakustik
Das Tongeschlecht im Zahlenraster
schritten (links). Auf dem Dreiklanggitter abgetragen geben die
Grundtöne allein die Realität nicht wieder. Berücksichtigt man
hingegen auch jene Dreiklänge, die sich aus den verschiedenen
Obertonkombina­tionen ergeben, wird das Bild eindeutig (hier
mit den Ober­tönen F1 bis F4).
1
mM
m
M
3 m M
1
3
1
Modalität
s Iunteres
nterva Intervall
ll
untere
Modalität
70 mM
M
m
m M
all
Weblinks zu diesem Thema finden
Sie unter www.spektrum.de/artikel/
979754.
3
5
erv
Holst, I.: Das ABC der Musik:
Grundbegriffe, Harmonik, Formen,
Instrumente. Reclam, Ditzingen
1992.
5
Int
Cook, N. D.: The Sound Symbolism
of Major and Minor Harmonies. In:
Music Perception 24(3), S. 315 – 319,
2007.
es
© American Scientist
www.americanscientist.org
(+)
13
11 11
99
7 7
ter
Der Psychologe Norman D. Cook
erforscht die höheren kognitiven
Fähigkeiten des Homo sapiens, insbesondere die Wahrnehmung von
Musik und Sprache. Takefumi Hayashi ist Ingenieur und arbeitet auf
dem Gebiet der Psychophysik und
Computergrafik. Beide lehren Informatik an der Universität Kansai in
Osaka (Japan).
Spannung zu nehmen, wird man die Frequenz eines seiner Töne erhöhen oder senken.
Im ersten Fall erreicht man bis auf wenige,
nicht nach Tongeschlecht klassifizierbare Ausnahmen die Strukturen von Moll-, im zweiten Fall solche von Dur-Dreiklängen (siehe
Tabelle S. 68).
Die resultierenden Intervallpaarungen sind
eindeutig: Ein Akkord aus beispielsweise
einem drei Halbtöne umfassenden unteren
und einem zwei Halbtonschritte großen oberen Intervall (3-2-Struktur) ergibt sich ausschließlich aus einem symmetrischen 3-3-Akkord, dessen oberster Ton um einen Halbton
gesenkt wird. Ohne die Theorien der Harmonielehre bemühen zu müssen, lässt sich die
»Modalität« eines Dreiklangs also anhand der
Symmetriebrechung ermitteln. Als Maß wählten wir die Differenz der Halbtonschritte von
unterem und oberem Intervall: Ist sie +1 ergibt sich ein maximaler Dur-Charakter, bei
–1 ein ausgeprägtes Moll (siehe Kasten oben).
Mit diesem Ansatz haben wir die sechs
Standard-Dur- und -Moll-Akkorde analysiert.
Betrachteten wir dabei nur die Grundfrequenzen, ergab sich einmal mehr kein eindeutiges Bild, bezogen wir hingegen Obertöne
und deren Kombinationen mit ein, entsprach
das Ergebnis den musikalischen Erfahrungen.
Möglicherweise bestimmt unser Gehirn das
Geschlecht eines Akkords oder einer Tonfolge
also durch Addieren aller Modalitäten der
Teiltöne.
Bleibt noch die Frage nach der emotionalen Wertigkeit von Dur und Moll. Mögli-
13
un
13
12
11
10
9
8 7
m M
76
m
M
m M
1,0
a
65
m M
m
54
m MM
Dur
M
m
3
4
m
M
–3,0 –2,0 –1,0 0
m M
23
1,0
2,0
3,0
12
Moll
1
0
b
–1,0
0
0 0 11 2 2 3 43 5 46 75 8 69 107 11 12 13
oberes
Intervall
Differenz der Intervalle (in Halbtonschritten)
oberes
Intervall
unter
es In
terva
ll
Eine große Terz unten, ein kleine darüber, schon erklingt ein
Dur-Akkord; das Umgekehrte gilt für Moll. Dabei beträgt der Unterschied zwischen beiden Intervallen jeweils nur einen Halbton. Doch daraus lässt sich ein Kriterium der Modalität ableiten:
die Differenz von unterem und oberem Intervall in Halbton-
13
11
9 ll
7 terva (–)
5 es In
r
obe
0 1 2 3 4 5 6 7 8 9 10 11 12 13
oberes Intervall
cherweise hat auch diese einen biologischen
Grund. Wollen Tiere ihren Artgenossen soziale Stärke, Aggression oder Dominanz durch
Laute vermitteln, fallen diese oft zum Ende
des Klangs hin zu niedrigeren Frequenzen ab.
Umgekehrt bedeuten ansteigende Stimmäußerungen häufig soziale Schwäche, Niederlage
oder Unterwerfung. Dieser Frequenzkode
mag letztlich in der Anatomie begründet sein:
Große Tiere haben im Allgemeinen tiefere
Stimmen als kleine. Ein solcher Kode findet
sich auch im Sprachmuster des Menschen:
Frequenzanstieg begleitet beispielsweise Fragen oder Äußerungen von Respekt. Befehle,
Aussagen oder Dominanz dagegen unterstreichen wir mit einer fallenden Intonation. Das
erinnert an die beschriebene Symmetriebrechung im musikalischen Kontext: Erhöhen
eines Intervalls um einen halben Ton führt zu
Moll, Senken zu Dur.
In der Musikwissenschaft wurden diese
neuen Erkenntnisse bislang wenig beachtet.
Es wäre allerdings auch eine wahrhaft her­
kulische Aufgabe, die gesamte Harmonielehre
zu überarbeiten und auf eine psychoakustische Basis zu stellen. Vielleicht würde dann
aber beispielsweise verständlicher, warum die
vor wenigen Jahrzehnten propagierte Los­
lösung von aller Tonalität weit gehend ohne
Publikum stattfand: Das Wechselspiel von
Spannung und Auflösung, die Gefühlswelt
der Tongeschlechter lassen sich nicht durch
noch so intellektuell anspruchsvolle Kompositionen ersetzen. Dazu ist Musik zu tief in unserer Biologie verankert.
SPEKTRUM DER WISSENSCHAFT · März 2009
Wissenschaft im Rückblick
120 KilobyteGroßrechenanlage
»Eine … ausschließlich mit
Transistoren arbeitende elek­
tronische Großrechenanlage
neuester Bauart wurde jetzt in
den USA in Betrieb genom­
men. Die Rechengeschwin­
digkeit liegt um ein Vielfaches
höher als bei den bisherigen
Datenverarbeitungssystemen.
… Die reine Rechenge­
schwindigkeit der 7090 be­
trägt 210 000 Additionen
oder Subtraktionen in einer
einzigen Sekunde. Mehr als
32 000 zehnstellige Zahlen
können in dem Magnetkern­
speicher festgehalten wer­
den.« Automatik, Heft 3, 4. Jg.,
März 1959, S. 94
Verbesserte Diagnostik
durch invasive Fotografie
Verblüffende Mutation entdeckt
»Als eine revolutionäre Entdeckung auf dem Gebiete der Ge­
netik wurde … das Ergebnis des amerikanischen Pflanzengene­
tikers R. A. Brink, Unversity of Wisconsin, … verbreitet. … Er
stellte bei Untersuchungen über verschieden gefärbte Maissor­
ten zufällig fest, daß eine Mutation eingetreten war; wenn eine
rotgefärbte mit einer ungefärbten, aber gefleckten Abart ge­
kreuzt wurde, so verschwand – offenbar wiederholt – die rot­
gefärbte Variante. Wiederholte Kreuzungsversuche … führten
zu dem Schluss, daß lediglich das zeitweilige Zusammentreten
der beiden Gene, des roten wie des gefleckten Mais, als Allel
diese Wirkung hervorruft.« Deutsche medizinische Wochenschrift, Nr. 12,
Blitzlicht im Brustkasten
84. Jg., 20. März 1959, S. 574
Jg., März 1959, S. 33
Luftstraßenbahn
Internationaler
Wetterdienst
»Unsere Luftschifftechniker sind rastlos an der Arbeit, die Luft
als neuen Verkehrsweg der Allgemeinheit so schnell als mög­
lich zu erschließen. … Das eigenartigste Projekt dieser Art ist
die Luftbahn, eine Erfindung des Ingenieurs Leps in Marburg;
sie stellt ein Mittelding zwischen elektrischer Bahn und Luft­
schiff dar, besteht aus einem Ballon und Personenwagen und
läuft, wie eine Trambahn, einem elektrischen Kabel entlang.«
Umschau, Nr. 13, 13. Jg., 27. März 1909, S. 280
Der Flug zu Arbeit und
Einkauf blieb ein Traum.
»Der Chef der Lungenabteilung des Lainzer Krankenhauses in
Wien hat eine neue Untersuchungsmethode entwickelt. Ein an
einer Kleinbildkamera angeschlossenes Thoratoskop wird in
den Körper eingestochen. An der Spitze befindet sich eine Na­
del mit einer winzigen Glühbirne … sowie ein Blitzlämpchen,
welches beim Fotografieren zusätzliches Licht spendet. Zwi­
schen den Lämpchen befindet sich das Objektiv, welches das
Bild in die Kamera spiegelt. … Farbaufnahmen sollten eine ge­
naue Diagnose ermöglichen.« Neuheiten und Erfindungen, Nr. 287, 26.
»Der Vertrag zwischen der
deutschen Seewarte in Ham­
burg (und) dem Meteorolo­
gischen Institut in London …
über die Lieferung von Wet­
terberichten vom Atlantischen Ozean durch Radiote­
legraphie ist zum Abschluss
gelangt. Es werden zunächst
versuchsweise in den Früh­
jahrsmonaten täglich zwei Te­
legramme durch Schiffe …
nach der englischen Station
in Malin-Head gegeben, von
wo sie durch Telegramm an
die deutsche Seewarte gelan­
gen, die sie den deutschen
Wetterstationen mitteilt.« Zeit­
schrift für Schwachstromtechnik, Heft
5, 3. Jg., März 1909, S. 138
Bestimmung der Schwerkraft auf dem Ozean
»Eine Bestimmung der Schwerkraft auf dem Indischen und
Großen Ozean ist durch O. Hecker mit Hilfe von Siedether­
mometern und photographisch registrierenden Quecksilber­
barometern ausgeführt worden. Diese Bestimmungen auf ho­
her See, … ergaben …, daß die Schwere auf dem Ozean durch­
aus normale Werte besitzt. … Die Massenerhebungen der
Kontinente müssen demnach durch Massendefekte im Erd­
innern ausgeglichen sein und ebenso die Ozeane durch ent­
sprechend größere Dichtigkeit unter dem Meeresgrunde.« Na­
turwissenschaftliche Wochenschrift, Nr. 11, 14. März 1909, S. 170
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009 71
spektrum-essay: Wissenschaftstheorie
Manche Schwäne
sind grau
Woher wissen wir, dass alle, wirklich alle Schwäne weiß sind?
Selten­lassen sich wahr und falsch so eindeutig feststellen,
wie man möchte. Vielleicht brauchen wir eine realistischere
Definition von wissenschaftlicher Wahrheit.
Diesen Artikel können Sie
als Audiodatei beziehen;
siehe www.spektrum.de/audio
72 Von Robert Matthews
W
as ist der Unterschied zwi­
schen Astronomie und Astro­
logie? Ganz einfach: Astro­
nomie ist die wissenschaft­
liche Erforschung von Himmelsobjekten,
Astrologie ist Hokuspokus. Jeder, der auch
nur ein bisschen von Wissenschaft versteht,
weiß warum. Astronomie erfüllt das Krite­
rium empirischer Naturforschung: Ihre Be­
hauptungen lassen sich stets auf die Probe
stellen – genauer gesagt, sie sind falsifizierbar.
Seit der österreichisch-britische Philosoph
Karl Popper (1902 – 1994) vor gut 70 Jahren
als grundlegendes Kennzeichen echter Wis­
senschaft die Falsifizierbarkeit definierte, gilt
sie vielen Forschern als zuverlässige Waffe im
Kampf gegen die Pseudowissenschaft. Phy­
siker und Nobelpreisträger Steven Weinberg
preist den Wiener Denker als den größten
Wissenschaftsphilosophen, und Kosmologe
Frank Tipler nennt Poppers Hauptwerk »Lo­
gik der Forschung« das bedeutendste Buch
seines Jahrhunderts.
Doch die Zeiten ändern sich. Poppers Wis­
senschaftsdefinition wird durch das Aufkom­
men durchaus seriös gemeinter Ideen, die sei­
nem Kriterium nicht zu genügen scheinen,
auf eine harte Probe gestellt. An den Grenzen
der Wissenschaft sprießen vielerlei Hypothe­
sen, die sich anscheinend unmöglich falsifizie­
ren lassen – von Versuchen, das fundamentale
Wesen der Raumzeit zu verstehen, bis zu The­
orien für die Ereignisse vor dem Urknall.
Muss deshalb die Beschäftigung mit solch
verblüffenden Ideen als Pseudowissenschaft
abgekanzelt werden? Oder sollten die Forscher
die Falsifizierbarkeit lockerer nehmen? Diese
Debatte spaltet die Gemeinde der Wissen­
schaftler. Einige lassen keinen Zweifel an ih­
rem rigorosen Standpunkt.
Ist das Multiversum
Pseudowissenschaft?
»Ich hätte nie gedacht, dass seriöse Forscher
derart pseudowissenschaftliche Behauptungen
aufstellen«, sagt Peter Woit, Mathematiker an
der Columbia University in New York und
Autor des Buchs »Not Even Wrong«, einer
beißenden Kritik an aktuellen Moden in der
theoretischen Physik. Für Woit sind Bestre­
bungen, das Kriterium der Falsifizierbarkeit
zu verwässern, »ein empörender Versuch, das
Scheitern zu kaschieren«.
Am meisten ärgert ihn das in letzter Zeit
enorm gewachsene Interesse am so genannten
Multiversum – einer unendlichen, aber nicht
beobachtbaren Ansammlung von Universen,
von denen unser Kosmos nur ein Teil sein soll.
»Das Grundproblem ist nicht bloß, dass das
Multiversum keine falsifizierbaren Vorhersa­
gen liefert, sondern dass alle Vorschläge, da­
raus überhaupt Vorhersagen abzuleiten, reines
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
mensch & Geist
mrkva / fotolia
Wunschdenken sind«, meint Woit. Andere
glauben, solche Kritik beruhe auf einem Miss­
verständnis. »Manche Leute sagen, das Mul­
tiversumkonzept sei nicht falsifizierbar, weil
man es nicht beobachten kann – aber das ist
ein Trugschluss«, bemerkt Kosmologe Max
Tegmark vom Massachusetts Institute of Tech­
nology. Er hält dagegen, das Multiversum sei
eine natürliche Konsequenz von anerkannter­
maßen falsifizierbaren Theorien: Quantenme­
chanik und allgemeine Relativitätstheorie.
So gesehen steht und fällt die Multiver­
sumtheorie damit, wie gut jene Theorien der
empirischen Prüfung standhalten. Insofern
findet es Tegmark nicht pseudowissenschaft­
licher, der Idee des Multiversums nachzuge­
hen, als über Phänomene im Innern eines
Schwarzen Lochs nachzugrübeln – eine Kon­
sequenz der allgemeinen Relativitätstheorie,
deren »Innenleben« ebenso wenig direkt beo­
bachtbar ist wie das Multiversum.
Paradoxerweise gehöre geradezu blinder
Glaube dazu, eine Theorie nur deshalb zu ver­
werfen, weil sie Poppers Kriterium nicht be­
steht, meint Lawrence Krauss von der Western
Reserve University in Cleveland (Ohio). »Man
kann einfach nicht wissen, ob eine Theorie
wirklich unfalsifizierbar ist.« Krauss zitiert als
Beispiel eine exotische Konsequenz der allge­
meinen Relativitätstheorie, den so genannten
Gravitationslinseneffekt. Wie Einstein 1936
theoretisch zeigte, kann das Licht eines fernen
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
Sterns durch das Schwerefeld eines zwischen
ihm und uns liegenden Sterns zu einem hellen
Ring verzerrt werden. Das war eine spektaku­
läre Vorhersage, aber Einstein fügte hinzu,
kein Astronom dürfe hoffen, so etwas jemals
zu beobachten, denn dafür sei der Ring zu
klein. Doch da hatte das Genie nicht mit dem
Erfindungsreichtum der Astronomen gerech­
net. 1998 wurde erstmals ein perfekter Einst­
einring entdeckt, den allerdings nicht ein ein­
zelner Stern hervorruft, sondern eine riesige,
Milliarden Lichtjahre entfernte Galaxie.
Krauss räumt ein, er sei in dieselbe Falle
getappt, als er nach dem Falsifikationskrite­
rium entschied, ob eine Idee wirklich »wissen­
schaftlich« genug sei, sie zu publizieren. »Ich
entschloss mich, Artikel nicht zu schreiben,
weil ich dachte, die Behauptungen würden
niemals falsifizierbar sein, aber letztlich waren
sie es doch.«
Dennoch bleibt Popper für viele Wissen­
schaftler der einzige Philosoph, der über ihre
Tätigkeit etwas zu sagen hat. Seine Anzie­
hungskraft beruht vor allem auf der eingän­
gigen Logik, die dem Begriff der Falsifizier­
barkeit zu Grunde zu liegen scheint. Popper
veranschaulichte sie mit der inzwischen be­
rühmten Parabel vom schwarzen Schwan.
Angenommen, eine Theorie besagt: Alle
Schwäne sind weiß. Das offensichtliche Be­
weisverfahren für diese Allaussage wäre, zu
überprüfen, ob sie wirklich auf jeden Schwan
Der Satz »Alle Schwäne sind
weiß« lässt sich nicht streng
verifizieren – denn dazu müsste
man hier und jetzt sämtliche
Schwäne auf der Welt kontrollieren. Selbst für die Tiere, die sich
um diesen Teich tummeln, fiele
das in der Praxis schwer. Hingegen ist das Falsifizieren kein
Problem: Dafür genügt es, einen
einzigen nicht weißen Schwan
vorzuweisen.
73
spektrum-essay: Wissenschaftstheorie
zutrifft. Doch das wirft ein Problem auf. Man
kann noch so viele weiße Schwäne finden und
wird dennoch nie ganz sicher sein, ob sich
nicht irgendwo ein schwarzes Exemplar ver­
birgt. Hingegen beweist das Auffinden eines
einzigen schwarzen Schwans, dass die Theorie
falsch ist. Darin besteht die einzigartige Kraft
der Falsifikation: Sie vermag eine Allaussage
mit einem einzigen Gegenbeispiel zu wider­
legen – und diese Fähigkeit ergibt sich, wie
Popper betonte, direkt aus den Sätzen der de­
duktiven Logik.
Auch Falsifizieren funktioniert nicht
Der österreichisch-britische
Philosoph Sir Karl Popper
(1902 –1994) formulierte das
Falsifi kationskriterium: Jede
wissenschaftlich sinnvolle
Aussage muss prinzipiell widerlegbar sein.
74 ullstein bild, Horst Tappe
Popper erhob darum die Falsifikation zum
Wesensmerkmal des wissenschaftlichen Pro­
zesses; die Suche nach falsifizierbaren Vorher­
sagen unterscheide seriöses Forschen von Pseu­
dowissenschaft. Doch schon seinerzeit gab es
Bedenken, ob das Kriterium seinen Zweck er­
fülle. Ein besonders nahe liegender Einwand
besagt, dass auch Astrologen, Wahrsager und
Quacksalber falsifizierbare Aussagen machen,
ohne dass diese dadurch wissenschaftlich wür­
den. Aber entlarvt sie wenigstens ihr unbe­
kümmerter Umgang mit negativer Evidenz als
pseudowissenschaftlich?
Leider funktioniert auch das nicht, wie der
französische Philosoph und Physiker Pierre
Duhem bereits vor mehr als einem Jahrhun­
dert zeigte. Er betonte, dass die Vorhersagen
einer wissenschaftlichen Theorie oft auf einem
Fundament anderer Annahmen ruhen, aus
denen hervorgeht, wie die Theorie getestet
wird. Wenn ein Experiment die Theorie zu
falsifizieren scheint, ist es oft möglich, die
Schuld auf eine dieser »Hilfshypothesen« zu
schieben statt auf die Theorie selbst.
Das geschieht in der Wissenschaft ziemlich
oft. Im selben Jahr 1906, in dem Duhem seine
Einwände gegen die Falsifikation publizierte,
schienen Experimente des deutschen Physikers
Walter Kaufmann mit Elektronen die damals
funkelnagelneue spezielle Relativitätstheorie
Einsteins zu falsifizieren und rivalisierenden
Theorien den Vorzug zu geben. Doch Einstein
wies die Ergebnisse schlichtweg zurück: »Jenen
Theorien kommt aber nach meiner Meinung
eine ziemlich geringe Wahrscheinlichkeit zu,
weil ihre die Maße des bewegten Elektrons be­
treffenden Grundannahmen nicht nahe gelegt
werden durch theoretische Systeme, welche
größere Komplexe von Erscheinungen umfas­
sen.« (Einstein Papers, Bd. 2., S. 461). Er war
sicherlich nicht der letzte Wissenschaftler, der
unpassende Resultate einfach verwarf – wie
Popper zugeben musste. Dennoch blieb Pop­
per überzeugt, dass zumindest die Suche nach
falsifizierbaren Konsequenzen das Wesen wis­
senschaftlicher Tätigkeit ausmacht.
Für Woit entlarvt sich die Multiversum­
theorie gerade durch die vergebliche Suche
nach solchen Konsequenzen als Pseudowissen­
schaft. »Wenn man nichts vorzuweisen hat als
Wunschdenken über die Möglichkeit künf­
tiger Fortschritte, betreibt man keine Wissen­
schaft«, sagt er. Doch wie die Philosophin Re­
becca Goldstein von der Harvard University
einwendet, unterstreicht dies nur Poppers ide­
alistisches Bild des Wissenschaftlers: »Popper
behauptet ja nicht nur, das Gebiet der Wissen­
schaft sei durch Falsifizierbarkeit eindeutig ab­
gegrenzt, sondern auch, jeder Wissenschaft­ler sei einzigartig und habe so viel Distanz zu
seinen eigenen Theorien, dass er nur darauf
aus sei, sie abzuschießen.« In Wirklichkeit, so
Goldstein, läuft der Vorgang viel positiver ab:
Man versucht Theorien zu finden, die funktio­
nieren, und nicht, Alternativen zu falsifizieren.
Selbst wenn Forscher akzeptieren, dass eine
Theorie einen Test nicht bestanden hat, ver­
werfen sie diese selten als falsch. Auch Popper
erkannte das. Krauss verweist auf den klas­
sischen Fall Newton gegen Einstein. Im 20.
Jahrhundert wurde Newtons Gravitationsthe­
orie wiederholt durch Beobachtungen »falsifi­
ziert« – zum Beispiel, als sie nur die Hälfte der
tatsächlichen Lichtbeugung durch das Schwe­
refeld der Sonne voraussagte. Dennoch wer­
den die Naturforscher Newton nicht so bald
zum alten Eisen werfen, denn seine Gesetze
funktionieren in der Alltagswelt ganz hervor­
ragend. »Das machen wir zu wenig deutlich«,
sagt Krauss. »Wir haben keine wahren Theo­
rien, sondern nur effektive.«
Was also bleibt nach all diesen Eingeständ­
nissen von Poppers vermeintlich unumstöß­
lichem Kriterium übrig? Es ist nur schwer
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
mensch & Geist
praktisch anwendbar, es ist zu vage, um zwi­
schen Wissenschaft und Pseudowissenschaft
zu unterscheiden, und es hat wenig Bezug zur
wirklichen Praxis. Warum ist es dann so be­
liebt? »Wissenschaftler mögen methodisch
einfache Theorien, die mit ihrer Vorstellung
von gutem wissenschaftlichem Denken über­
einstimmen«, meint der britische Philosoph
Colin Howson von der London School of
Economics.
Wenn die trügerisch einfache Falsifikation
in die Irre führt, was dann? Howson glaubt,
Poppers Idee, den Wissenschaftsprozess mittels
deduktiver Logik einzugrenzen, sollte endlich
verworfen werden. Stattdessen müsse man ge­
nauer betrachten, was Forscher wirklich tun:
Sie wägen das Gewicht der Indizien für kon­
kurrierende Theorien gegeneinander ab und
suchen die relative Plausibilität abzuschätzen.
Howson ist ein führender Verfechter eines
Wissenschaftsbegriffs, der nicht auf simpler
Wahr-Falsch-Logik beruht, sondern auf dem
viel subtileren Konzept so genannter Glau­
bens- oder Überzeugungsgrade (degrees of be­
lief ). Im Mittelpunkt steht eine grundlegende
Verbindung zwischen dem subjektiven Begriff
der Überzeugung und der harten Mathematik
der Wahrscheinlichkeit.
Was heißt »wahrscheinlich wahr«?
Bei Wahrscheinlichkeit denkt man meist an
Zufallsereignisse wie Münzwürfe; die Formeln
der Theorie geben beispielsweise die Chance
an, in 30 Würfen 20-mal Kopf zu erhalten.
Doch das ist nicht die einzige Art, Wahr­
scheinlichkeitstheorie zu treiben. Man kann
sie auch quasi auf den Kopf stellen und kommt
auf eine viel interessantere Frage: Wie groß ist
die Wahrscheinlichkeit, dass die Münze lädiert
ist, wenn wir in 30 Würfen 20-mal Kopf se­
hen? Mit anderen Worten, wenn wir eine Hy­
pothese haben – etwa die Überzeugung, eine
Münze sei fehlerhaft –, erlaubt uns die Wahr­
scheinlichkeitstheorie, diesen Glauben anhand
unserer Beobachtungen zu überprüfen.
Das sollte vertraut anmuten; schließlich
üben Wissenschaftler auf diese Weise ihren
Beruf aus. Außerdem hat dieses Bild des wis­
senschaftlichen Denkens eine solide theore­
tische Basis. Sein Kern ist ein mathematisches
Theorem, das besagt: Jedes rationale Über­
zeugungssystem gehorcht Wahrscheinlichkeits­
gesetzen – und zwar jenen, die der englische
Mathema­tiker Thomas Bayes (1702 – 1761)
formulierte, als er erstmals auf die Idee kam,
die Wahrscheinlichkeitstheorie auf den Kopf
zu stellen.
Anders als Poppers Wissenschaftsbegriff
fällt das bayessche Schema nicht gleich in sich
zusammen, wenn es mit der Realität konfron­
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
Ein starker
Jahrgang …
Jedes rationale
System von Überzeugungen gehorcht den von
Bayes formulierten
Wahrscheinlichkeitsgesetzen
… ist die CD-ROM 2008 von Spektrum
der Wissenschaft. Sie bietet Ihnen alle
Artikel (inklusive Bilder) des vergangenen
Jahres im PDF-Format. Diese sind im
Volltext recherchierbar und lassen sich
ausdrucken. Eine Registerdatenbank
erleichtert Ihnen die Suche ab der Erstausgabe 1978. Die CD-ROM läuft auf Windows-, Mac- und Unix-Systemen (der Acro bat Reader wird mitgeliefert). Des
Weiteren finden Sie das spektrumdirektArchiv mit ca. 10 000 Artikeln.
spektrumdirekt und das Suchregister
laufen nur unter Windows. Die JahrgangsCD-ROM kostet im Einzelkauf € 25,– (zzgl.
Porto) oder zur Fortsetzung € 18,50 (inkl.
Porto Inland); Bestellen können Sie über
den Beihefter oder unter:
www.spektrum.com/lesershop
Spektrum der Wissenschaft Verlagsgesellschaft
mbH | Slevogtstraße 3–5 | 69126 Heidelberg | Tel.:
06221 9126-743 | Fax: 06221 9126-751 | service@
spektrum.com
75
Wissen aus erster Hand
Mr. 9 / fotolia
spektrum-essay: Wissenschaftstheorie
In der wissenschaftlichen Praxis
ist das Falsifizieren einzelner
Aussagen vom Typ »Alle Schwäne sind weiß« die große Ausnahme. Meist begegnen die Forscher
Grautönen zwischen Schwarz
und Weiß, wahr und falsch.
tiert wird. Es beruht auf der Vorstellung, für
eine Theorie würde positive Evidenz gesam­
melt – und damit verbringen Wissenschaftler
ja laut Tegmark wirklich ihre Zeit: »In der
Wissenschaft falsifizieren wir nicht, sondern
wir bewahrheiten; wir steigern das Gewicht
der Indizien.«
Der bayessche Ansatz quantifiziert diese
Praxis. Erst einmal gibt es für ein Phänomen
mehrere rivalisierende Erklärungen; gezielt
werden Beobachtungen gesammelt, und dann
dient die Mathematik des bayesschen Schlie­
ßens dazu, die Evidenz für oder gegen jede
konkurrierende Theorie zu gewichten. Ein­
fach gesagt vergleicht man zu diesem Zweck
die Wahrscheinlichkeiten dafür, die beobach­
teten Resultate auf Grund jeder dieser Theo­
rien zu erhalten. Die Theorie, welche die
höchste Wahrscheinlichkeit ergibt, gilt dann
als diejenige, deren Evidenzgewicht durch die
Daten am meisten zugenommen hat.
Auch andere Aspekte des Wissenschaftsall­
tags werden damit richtig wiedergegeben. Bei­
spielsweise erfordern augenscheinlich unplau­
sible Theorien besonders gewichtige Indizien,
ehe sie ernst genommen werden können –
nach dem Motto »Außerordentliche Behaup­
tungen erfordern außerordentliche Beweise«.
Vage Theorien, die zu allen möglichen Daten
passen, erlangen nach dem bayesschen Sche­
ma nur mühsam wissenschaftliches Gewicht.
Wegen seiner mathematischen Stringenz
und Realitätsnähe favorisieren viele Wissen­
schaftsphilosophen nun diesen Ansatz. »Heut­
zutage findet man die interessantesten An­
sichten im Bayesianismus. Viele Forschungen
zielen derzeit in diese Richtung«, sagt Robert
Nola, Philosoph an der University of Auck­
land (Neuseeland). Er fügt allerdings hinzu,
dass die Methode nicht ohne Probleme ist.
Wetten auf die Dunkle Energie
Robert Matthews ist Gastdozent für
Naturwissenschaft an der Aston
University in Birmingham (Großbri­
tannien).
Held, L.: Methoden der statisti­
schen Interferenz: Likelihood
und Bayes. Spektrum Akademischer
Verlag, Heidelberg 2008.
Poser, H.: Wissenschaftstheorie.
Eine philosophische Einführung.
Reclam, Stuttgart 2001.
Weblinks zu diesem Thema finden
Sie unter www.spektrum.de/
artikel/979556.
76 Vor allem zeigt die bayessche Methode zwar,
wie Beobachtungen anfänglichen Hypothesen
oder Theorien durch Evidenz Gewicht verlei­
hen, aber sie sagt nichts darüber aus, wie die­se Ausgangshypothesen aussehen sollen. Die
Überzeugungen, die hinter einer völlig neu­
artigen Theorie stehen, beruhen vielleicht auf
rein subjektiver Intuition.
Verfechter des bayesschen Ansatzes ver­
weisen darauf, dass solche Vorannahmen in
der Regel an Bedeutung verlieren, je mehr
Re­sultate sich ansammeln. Insofern bestätigt
der Bayesianimus eine weitere Maxime der
Forschung: Durch systematisches Beobachten
kommt die Wahrheit heraus. Verquere An­
fangsüberzeugungen werden nie direkt falsi­
fiziert, sondern letztlich unter dem Gewicht
gegen sie sprechender Indizien begraben.
Nicht nur Wissenschaftsphilosophen fin­
den den Bayesianimus zukunftsträchtig, son­
dern auch praktizierende Forscher, von Ar­
chäologen bis Zoologen. Zu den Anhängern
zählen Kosmologen, die neuerdings mittels
bayesscher Verfahren aus den Datenströmen
der Observatorien, Satelliten und Raumson­
den das plausibelste Modell des Universums
herleiten möchten. Vor allem sollen diese Me­
thoden helfen, Spekulationen einzuschränken
und zu entscheiden, ob die gängigen Theorien
zu den Beobachtungen passen oder ob Zu­
satzhypothesen erforderlich sind.
Betrachten wir die mysteriöse Kraft, die für
die beschleunigte Expansion des Universums
verantwortlich gemacht wird. Einige Theoreti­
ker vermuten, diese »Dunkle Energie« sei
nicht immer konstant geblieben, sondern habe
sich im Lauf der kosmischen Entwicklung ver­
ändert. Solche Ideen sind theoretisch faszinie­
rend, meint Andrew Liddle von der University
of Sussex in Brighton, aber zugleich kompli­
zieren sie das Modell des Universums.
Liddle und seine Kollegen haben mit bayes­
schen Methoden geprüft, wie plausibel die
Idee einer variierenden Dunklen Energie ist.
Ihr Ergebnis: Das Standardmodell mit kon­
stanter Dunkler Energie bleibt eine viel besse­
re Wette. Das könnte sich ändern, aber ein
schlauer Spieler setzt darauf, dass die variable
Dunkle Energie eine Sackgasse bleibt.
Begriffe wie »bessere Wette« und »schlauer
Spieler« muten nicht sehr wissenschaftlich an,
aber dafür kommen sie wirklichen Entschei­
dungen über Forschungsprioritäten viel näher.
Die bayesschen Methoden quantifizieren die­
sen Prozess im Detail – und ersetzen das
Schwarz-Weiß der Falsifikation durch die Grau­
töne der wirklichen Welt. »Ich bin fest über­
zeugt, das ist der richtige Weg«, meint Liddle.
Was folgt daraus für die Debatte, ob Be­
griffe wie Multiversum wirklich in die Wis­
senschaft passen? Für Howson gehört das
Multiversum nach bayesschen Kriterien ein­
deutig zur Wissenschaft, da es auf Theorien
beruht, die jeweils ein riesiges Evidenzgewicht
tragen. »Wenn Popper das als Pseudowissen­
schaft verurteilt, weil es unfalsifizierbar ist –
aber vielleicht nicht für immer –, dann umso
schlimmer für Popper.«
Doch ob man nun das Schwarz-Weiß der
Falsifizierung oder subtile Grautöne als Wesen
der Wissenschaft betrachtet, am Ende ent­
scheiden nach wie vor empirische Beobach­
tungen darüber, ob eine Theorie ernst genom­
men wird. »Ab einem gewissen Punkt kann
man auf die Idee der Falsifikation nicht ver­
zichten«, sagt Krauss. »Gerüchte über das
Ende der Wissenschaft sind jedenfalls stark
übertrieben.«
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
Geophysik
Die Geburt eines
OZEANs
Werden Sie Zeuge dieses höchst seltenen Ereignisses, das
derzeit in einer der heißesten und unwirtlichsten Regionen
der Erde stattfindet! Auf den folgenden Seiten können Sie
das Gebiet gefahrlos besuchen und hautnah miterleben, wie
ein Kontinent auseinanderbricht.
In Kürze
r Afrika teilt sich längs
einer Bruchlinie, die von der
Südspitze des Roten Meeres
durch Eritrea, Äthiopien,
Kenia und Tansania bis nach
Mosambik führt und Ostafrikanisches Rift genannt wird.
r Wie ein Hemdsärmel, den
ein gespannter Bizeps
sprengt, platzt die Erdkruste
auf, wenn empordringende
Gesteinsschmelze aus der
Tiefe sie immer mehr dehnt
und ausdünnt, bis sie
schließlich reißt. Jeder neue
Riss verbreitert sich, während Magma von unten hineingepresst wird.
r Dieser spektakuläre geologische Vorgang, der schon
Jahrmillionen andauert,
kommt zum Abschluss, wenn
Salzwasser aus dem Roten
Meer den Einschnitt füllt. In
zehn Millionen Jahren
könnte das gesamte Rift
überflutet sein.
78 Text und Fotos von Eitan Haddok
I
n der Afar-Senke im Nordosten Äthiopiens weicht eine der trockensten Wüsten der Erde einem neuen Ozean. Dort
ziehen Kräfte in der Tiefe den afrikanischen Kontinent auseinander und sind dabei, ihn in zwei Teile zu zerreißen. Im Verlauf
dieses Vorgangs wird die feste Gesteinshülle
der Erde zunächst immer dünner. So misst
die kontinentale Kruste unter der Afar-Senke
von Ober- zu Unterkante nur noch 20 Kilometer – weniger als die Hälfte ihrer ursprünglichen Dicke. Teile des Gebiets liegen bereits
mehr als hundert Meter unter dem Meeresspiegel. Lediglich ein flaches Hügelland im
Osten hindert das Rote Meer am Eindringen.
Weil die dünne Kruste die Gluthitze im
Erdinnern nicht mehr gut abschirmt, ist ein
wilder, unruhiger Landstrich entstanden, in
dem heiße Dämpfe aufsteigen, Vulkane Lava
speien und die Erde immer wieder heftig bebt.
Obwohl Afar der einzige Ort auf dem Globus
ist, an dem sich die Geburt eines Ozeans live
erleben lässt, haben nur wenige Außenstehen-
de, Wissenschaftler eingeschlossen, jemals ihren Fuß in die Region gesetzt. Die Temperaturen steigen im Sommer bis auf 48 Grad Celsius, und einen Großteil des Jahres fällt kein
Tropfen Regen. Trotzdem habe ich als Wissenschaftsreporter die Reise dorthin gewagt. Dabei waren es nicht nur tückische Naturkräfte
und extreme Klimaverhältnisse, mit denen ich
rechnen musste. Die Gegend wird auch von
politischen Unruhen und Kämpfen erschüttert, die der Krieg zwischen Äthiopien und
dem benachbarten Eritrea mit sich bringt.
Krustendehnung und -absenkung müssen
noch eine Jahrmillion andauern, bis die AfarSenke unwiderruflich unter den Fluten des Roten Meers versinkt und zum Boden eines neuen Ozeans wird. Vorerst ist der künfti­ge Meeresgrund, wie die Fotos auf den folgenden
Seiten zeigen, eine trostlose Einöde, in der Lavaströme die letzten Reste der ohnehin spärlichen Vegetation verbrennen, höllische Temperaturen Schwefelsäure in Schlammlöchern
kochen lassen, aus Spalten zischend giftige
Dämpfe entweichen und Salzkrusten von früheren Einbrüchen des Roten Meers zeugen.
SPEKTRUM DER WISSENSCHAFT · März 2009
ERDE & UMWELT
AfarDepression
Ostafrikanische
Riftzone
al
le
Ka
rt
en
:K
ev
in
Ha
nd
Salzkrusten in der Nähe des Vulkans Afdera zeugen von früheren Überflutungen der Afar-Senke in Äthiopien. In den letzten 200 000 Jahren drang
das Rote Meer mindestens dreimal in die Tief­ebene ein. Beim Verdunsten
des Meerwassers blieb das Salz zurück. Eines Tages wird die Überflutung
zum Dauerzustand.
h
es
op
i
th
ä
h
isc
c
Ho
d
n
la
Salzabbaugebiet
Krater Dallol
Vulkan Erta Ale
E
R
Rotes Meer
IT
R
E
A
Vulkan Afdera
ÄTH
IOP
Die Afar-Senke markiert
den nördli­chen Endpunkt des OstIEN
afrikanischen Rifts, einer 3500 Kilometer langen tektonischen Bruchzone, an welcher der Kontinent
in zwei Teile zerrissen wird (Pfeile auf dem Globus).
SPEKTRUM DER WISSENSCHAFT · März 2009
79
Geophysik
Insel im Basalt
1
●
Höchster Punkt der Afar-Senke ist Erta Ale, der
»rauchende Berg«, wie ihn die Einheimischen
nennen. Dabei handelt es sich um den nörd­
lichsten Vulkan einer langen Kette, die dem so ge­
nannten Ostafrikanischen Rift folgt. Dieser Gra­
benbruch ist zwar größtenteils noch nicht bis
unter den Meeresspiegel abgesunken, entspricht
aber den mittelozeanischen Rücken: Ketten sub­
mariner Vulkane, an denen neuer Meeresboden
entsteht. In der Tat tritt beim Erta Ale eine ähn­
liche dünnflüssige, basaltische Lava aus wie an
diesen untermeerischen Rückenachsen. Vergan­
gene Eruptionen haben ebene Bereiche großflä­
chig mit einer Schicht aus frischem Basalt be­
deckt, aus welcher der ursprüngliche Boden nur
noch stellenweise inselartig herausragt 1 .
●
Lavasee
Auf dem Erta Ale befindet sich einer der weni­
gen dauerhaft existierenden Lavaseen der Erde.
Im Normalfall reicht der Wärmefluss aus dem
Untergrund nämlich nicht aus, um Gestein an­
gesichts der abkühlenden Wirkung der Atmo­
sphäre in schmelzflüssigem Zustand zu halten.
Selbst am Erta Ale erstarren manchmal, wenn
die Wärmezufuhr nachlässt, Teile der Seeober­
fläche zu einer schwarzen Kruste 2 . In der Re­
gel treiben jedoch Basaltblöcke wie Eisberge
auf der blubbernden Gesteinsschmelze, deren
Temperatur 1200 Grad Celsius erreicht 3 . Die
meisten Bewohner von Afar halten sich von dem
Vulkan fern, weil sie böse Geister dort vermu­
ten. Der Anblick eines Afar-Kriegers auf dem
Gipfel ist deshalb ungewöhnlich. In diesem Fall
handelt es sich jedoch um meinen Führer Ibra­
him 4 . Bei Nacht wirkt Lava, die aus Spalten
im See quillt, besonders spektakulär 5 .
2
●
●
●
●
3
●
●
4
●
80 5
●
SPEKTRUM DER WISSENSCHAFT · März 2009
ERDE & UMWELT
6
●
7
●
8
●
Höllische Hitze
Hundert Kilometer nördlich des Erta Ale, nahe der Grenze zu Eritrea, liegt der Krater Dallol.
Dort presst glutflüssiges Magma in der Tiefe überhitztes Grundwasser durch ein riesiges unter­
irdisches Röhrensystem nach oben. So ist ein 1,6 Kilometer breites Feld von hydrothermalen
Schloten, Geysiren und heißen Quellen entstand 6 , das an die ähnliche, aber leichter zugäng­
liche Landschaft des Yellowstone-Nationalparks im Westen der USA erinnert. Das Zitronengelb
in dieser natürlichen Farbpalette stammt vom Schwefel 7 . Durch Mischung mit dem Signalrot
von oxidiertem Eisen entstehen Orangetöne 8 . Nur wenige Schritte von diesem prächtigen
Bild entfernt zeugen graubraune, ausgedörrte Säulen von der Vergänglichkeit heißer Quellen
9 . Wenn ein Erdbeben oder ein anderer natürlicher Prozess die unterirdischen Zuleitungen
verstopft, verlieren die Minerale eines Schlots binnen Jahresfrist ihren leuchtenden Glanz.
●
●
●
SPEKTRUM DER WISSENSCHAFT · März 2009
●
9
●
81
Geophysik
Tödliche
Dämpfe
Die surreale Landschaft des Kra­
ters Dallol verdankt ihre Existenz dem Regenwasser, das tief
im Boden versickert, sich dort
beim Kontakt mit heißem Mag­
ma erhitzt und zurück zur Ober­
fläche steigt. Unterwegs durch­
quert es mächtige Schichten aus
Salz, das es bis zur Sättigung
löst. An der Oberfläche kühlt
sich die Sole ab und verdampft.
Dabei kristallisiert das gelöste
Salz aus und formt mächtige
Säulen 10 oder Gebilde so zart
wie Eierschalen 11 . Doch die
Schönheit dieser Skulpturen ist
trügerisch: Giftige Dämpfe, die
aus ihnen entweichen, sind mit
ein Grund für die Gefährlichkeit
der Afar-Region. Besucher die­
ser so genannten Fumarolen
sollten Gasmasken tragen. Wie­
derholt zwang mich ein Schwall
des unheimlichen Brodems dazu, das Fotografieren einzustel­
len und sicherheitshalber meine
Maske anzulegen.
●
●
10
●
11
●
Gift oder
Lebenselixier?
In der Nähe rötlicher Tümpel mit
siedend heißem, eisenreichem
Wasser­ 12 ist ein starker Kohlen­
wasserstoffgeruch ein deutliches
Gefahrenzeichen. Vorbeikommende
Tiere nehmen manchmal einen
Schluck, ohne zu ahnen, dass es ihr
letzter sein wird. Ich sah mehrfach
tote Vögel in der heißen Brühe trei­
ben. Was auf einen Organismus gif­
tig wirkt, kann allerdings das Le­
benselixier eines anderen sein. Aus
dem Boden strömende Gase, die für
Vögel, Insekten und Säugetiere töd­
lich sind, ernähren in vielen der
säurehaltigen heißen Quellen des
Dallol komplexe Mikrobengemein­
schaften. Es überrascht wohl nicht,
dass diese Ökosysteme solchen an
den mittelozeanischen Rücken auf­
fallend ähneln.
●
12
●
82 SPEKTRUM DER WISSENSCHAFT · März 2009
ERDE & UMWELT
13
●
Literaturhinweise:
Wright, T. J. et al.: Magma-Maintained Rift Segmentation at
Continental Rupture in the 2005
Afar Dyking Episode. In: Nature
442, S. 291 – 294, 20. Juli 2006.
Ayele, A. et al.: The Volcano-Seis­
mic Crisis in Afar, Ethopia, Starting
September 2005. In: Earth and
Planetary Science Letters 255
(1 – 2), S. 177 – 187, 15. März 2007.
Weblinks zu diesem Thema finden
Sie unter www.spektrum.de/
artikel/979757.
14
●
Verhängnisvolle
Fluten
Salzskulpturen wie die auf der vorigen Seite
erinnern daran, dass die Geburt eines Ozeans
kein plötzliches Ereignis ist, sondern ein Dra­
ma, das sich allmählich entfaltet. Während der
30 Millionen Jahre, in denen diese Region be­
reits gedehnt wird, hat der Meeresspiegel
mehrfach geschwankt, so dass sich die AfarSenke zeitweise mit Meerwasser füllte. Zum
letzten Mal stiegen die Wasser des Roten
Meeres vor etwa 80 000 Jahren hoch genug,
um sich über die niedrigen Hügel im Osten von
Afar in das Becken zu ergießen und dabei tiefe
Schluchten 13 einzuschneiden. Als nach dem
Sinken des Meeresspiegels Afar wieder vom
Meer abgeschnitten war, verdunstete das ein­
gedrungene Wasser. Die Erosion formte das zu­
rückbleibende Salz zu teils bizarren Gebilden,
die an Pilze erinnern 14 . Stellenweise sind an
den Wänden der eingeschnittenen Canyons ab­
wechselnde Schichten von Salz und rötlichen
Meeresablagerungen zu sehen 15 .
●
●
●
SPEKTRUM DER WISSENSCHAFT · März 2009
15
●
83
Geophysik
16
●
Salz der Erde
Das von früheren Überflutungen zurückgebliebene Salz bietet den heutigen Bewohnern der unfruchtbaren,
von der Sonne versengten Afar-Senke eine bescheidene Einkommensquelle. Die nomadisch lebenden Hirten
sammeln es von Hand ein, nachdem sie die dicken Krusten mit Holzpflöcken und Beilen in handliche Stücke
zerlegt haben 16 . Die nächsten Handelsplätze, wo das Salz verkauft oder gegen andere Güter eingetauscht
werden kann, befinden sich im äthiopischen Hochland Richtung Westen. Kamelkarawanen, die für den Trans­
port des ungewöhnlichen Exportguts eingesetzt werden 17 , brauchen für die Strecke sechs Tage.
●
●
84 SPEKTRUM DER WISSENSCHAFT · März 2009
ERDE & UMWELT
Amotz Agnon
17
●
Fata Morgana oder Halluzination?
In den meisten Jahren besteht die größte Sorge der Bewohner von Afar darin, an sauberes Wasser zu
kommen. Doch Ende 2006 fielen ungewöhnlich große Regenmengen und viele der Salzfelder waren
während meines gesamten Aufenthalts im Januar 2007 überflutet. Dieser ungewöhnliche Umstand be­
scherte mir einen der nachhaltigsten Eindrücke meines Besuchs in der Region: Als die Kamelkarawa­
nen durch die Fluten wateten, wirkten sie aus der Ferne wie eine surreale Montage aus Gegenwart und
Zukunft dieses im Entstehen begriffenen Ozeanbodens 18 .
●
18
●
SPEKTRUM DER WISSENSCHAFT · März 2009
Eitan Haddok lebt und arbeitet
als Fotograf und Reporter in Paris.
Auf Geowissenschaften und
Ökologie spezialisiert, hat er eine
besondere Vorliebe für aride
Ökosysteme. Haddok erwarb 1994
an der Universität Tel Aviv den
Mastergrad in Geophysik und Planetologie. Neun Jahre lang arbeitete
er als Umweltingenieur, bevor er beschloss, seine beiden Leidenschaf­
ten – die Erde und die Fotografie –
beruflich zu verbinden.
85
WISSENSCHAFT IM ALLTAG
Datenkompression
Eins, zwei, MP3
Dank der Erkenntnisse der Psychoakustik lassen sich ganze
Plattensammlungen auf einem Speicherchip unterbringen.
Von Klaus-Dieter Linsmeier
Z
u jeder Zeit und überall Musik hören zu können – was Anfang
der 1980er Jahre als Attitüde der jungen Generation begann, gehört seit der Entwicklung des MP3-Datenformats zum Alltagsbild.
Digital auf einem Chip gespeichert bringt uns Musik beim Sport in
Schwung, unterhält ein Kriminalhörspiel auf dem Weg zur Arbeit.
Denn MP3, eine Abkürzung von MPEG-1 Audio Layer 3, ist eine Technik, digital gespeicherte Audiodaten zu verdichten und so den Speicherbedarf beziehungsweise die für eine Übertragung notwendige
Datenrate zu reduzieren. Benötigt ein unkomprimiertes Signal pro
Sekunde etwa 180 Kilobyte Speicherplatz, verringert sich der Bedarf nach MP3-Kodierung auf nur noch 16 Kilobyte. Bietet eine handelsübliche CD deshalb ungefähr 70 Minuten Hörvergnügen, sind
es bei der MP3-CD gut 700.
Die Entwicklung des Verfahrens begann bereits Ende der 1970er
Jahre, als ISDN (Integrated Services Digital Network) sich anschickte,
das analoge Telefonnetz abzulösen: Dieter Seitzer, damals Professor für Telekommunikation an der Friedrich-Alexander-Universität
Erlangen-Nürnberg, plante, mit 128 Kilobit pro Sekunde, der Bandbreite von zwei ISDN-Telefonleitungen, Musiksignale zu übermitteln. Er war auch Mitbegründer des Fraunhofer-Instituts für Integrierte Schaltungen IIS, das in einer Forschungsallianz mit der
Hochschule das Datenformat MP3 entwickelte; 1995 erhielt es nach
einer Fraunhofer-internen Umfrage seinen Namen.
Ein Klang ist ebenso wie ein Bild zunächst ein analoges, das
heißt kontinuierliches Signal; um es zu digitalisieren, wird es elektronisch abgetastet. Seit der Einführung von CD, DVD und neuerdings Blu-ray Disc weiß der Musikliebhaber, dass die Qualität der
Wiedergabe umso besser ist, je öft ein solches Abtasten erfolgt, je
mehr Daten des ursprünglichen Signals also gespeichert werden.
Geht Komprimierung also nicht zwangsläufig mit einem hörbaren
Qualitätsverlust einher? Tatsächlich merken die wenigsten, dass
beispielsweise Bruchteile einer klassischen Sinfonie ungenauer ge-
speichert sind als andere Abschnitte. Denn MP3 beruht vor allem
auf Erkenntnissen der Psychoakustik darüber, welche in einem
Schallsignal enthaltenen Informationen das Gehör auch tatsächlich
erkennt und verwertet. Wenn eine Trompete gleichzeitig mit einer
leiseren Flöte erklingt, »maskiert« sie diese für unsere Wahrnehmung. Beide Instrumente erklingen in benachbarten Frequenzbereichen, doch das lautere gibt eine Mithörschwelle vor: Sofern die
Flöte diese nicht überschreitet, bleibt ihr Ton verdeckt.
Ermittler für Verdecktes
Ein Encoder genanntes Programm berechnet deshalb zunächst aus
dem zeitlichen Verlauf der Schallamplitude das Frequenzspektrum
des Signals, sodann den Gesamtverlauf der Mithörschwelle, wie er
sich aus allen vorkommenden Anteilen ergibt. Auf diese Weise erkennt es, welche Einzelfrequenzen getrost mit weniger Bits gespeichert werden dürfen. Zudem berücksichtigt MP3, dass unser Gehör
bei tiefen Frequenzen genauer arbeitet als bei hohen. Das Spektrum wird deshalb zunächst in einem feinen Frequenzraster ermittelt, dann aber so in Bändern zusammengefasst, dass tiefe Tonbereiche exakter unterschieden werden als hohe.
Bei einer solchen auf »Irrelevanz« von Signalanteilen beruhenden Komprimierung gehen Daten verloren. Die so erzeugte Ungenauigkeit kann bei der Dekodierung Störgeräusche verursachen.
Ab einer Bitrate von etwa 128 Kilobit pro Sekunde aber bleibt
dieses »Quantisierungsrauschen« unterhalb der Mithörschwelle,
wird also vom rekonstruierten Audiosignal maskiert.
Auf die Irrelevanz- folgt die Redundanzreduktion, insbesondere
nach dem Huffman-Algorithmus, der häufig vorkommende Signalanteile mit wenigen Bits, selten auftretende hingegen mit vielen
Bits kodiert. Solche verlustfreien Verfahren verdichten um den Faktor 2 bis 2,5, in Kombination mit der Irrelevanzreduktion ermög­
licht MP3 so eine Kompression um den Faktor 10 bis 30.
Wussten Sie schon?
r Wo Licht ist, ist auch Schatten: Die Möglichkeit, Audio-CDs
in das MP3-Format umzuwandeln und per Internet zu versenden
sorgte für Umsatzeinbrüche in der Musikindustrie. Inzwischen
wurden die Gesetze zum Schutz geistigen Eigentums verschärft
und Techniken entwickelt, MP3-Dateien mit einem »Digital
Rights Management« zu ergänzen: Musik und Hörbücher lassen
sich legal erwerben, die dabei bezahlten Zugriffsrechte sind in
den Daten gespeichert und zur Freischaltung eines Stücks im
Player erforderlich. Inzwischen entwickelt sich der legale MusikDownload zum Massenmarkt mit mehr als einer Million Alben
bis Oktober 2008, einem Wachstum um 60 Prozent im Vergleich
zum Vorjahr. Allen Unkenrufen zum Trotz ist die CD aber längst
86 nicht ausgestorben: Im gleichen Zeitraum wurden davon 149
Millionen verkauft.
r Auch aus Stereo- lässt sich Surround-Klang erzeugen: Das
SX Pro®-Verfahren des Fraunhofer-Instituts IIS bereitet Stereodaten in Echtzeit so auf, dass sie optimal über eine 5.1-Surround-Anlage abgespielt werden können. Dazu wird das Klangbild des Musiksignals analysiert und der Anteil des mittleren
und der hinteren Kanäle eines 5.1-Systems berechnet. Dies vergrößert den Bereich des optimalen Hörens und das Klangbild
wird insgesamt stabiler. Genutzt wird diese Technologie bereits
vom bayerischen Radiosender »Rock Antenne«.
SPEKTRUM DER WISSENSCHAFT · März 2009
& Computer
Technik TECHNIK
& Computer
Bei der Analyse des Audiosignals und seiner Komprimierung
dürfen Psychoakustiker und Programmierer ihr Können unter Beweis stellen. Dazu gehört, ein Stereosignal so zu verschlüsseln,
dass der Raumklang der Aufnahme optimal erhalten bleibt. Sind
beispielsweise zwei Sprecher bei einem Hörspiel oder die Instrumente einer Band wirklich auf beide Stereokanäle verteilt, werden
diese auch getrennt verarbeitet. Befand sich die Schallquelle jedoch eher in der Mitte, hätte eine solche Kodierung zur Folge, dass
der durch die Quantisierung entstehende Fehler bei der Rekonstruktion im Decoder genannten Programm zwischen links und
rechts hin- und herspringen würde. Dem lässt sich vorbeugen: Sind
die Stereosignale sehr verschieden, ist die Summe daraus deutlich
kleiner als bei einem mittigen Signal, die Differenz hingegen deutlich größer. Entscheidet der Encoder auf »mittig«, kodiert er bei hoher Genauigkeit Summe und Differenz, bei geringer nur einen Kanal
plus die Pegeldifferenz zwischen beiden.
Insbesondere die Forscher des IIS inzwischen an »MP3 Surround«, also einem Kompressionsverfahren für Mehrkanalton. Dabei geht es nicht allein darum, die Ton- und Geräuschkulisse von
Actionfilmen Platz sparend zu verdichten. Auch bei Musik und Hörspiel bietet der Surround-Sound einen Vorteil: Während ein räumlicher Höreindruck beim Stereosignal nur in der Mittelachse
zwischen den beiden Lautsprechern entsteht, optimale Positionierung vorausgesetzt, ist dieser Bereich bei Surround-Wiedergabe
größer. Der so genannte Center-Lautsprecher stabilisiert das Klangbild der beiden vorderen Lautsprecher, die beiden hinteren können
die bei der Aufnahme im Raum reflektierten Schallanteile wiedergeben. Ein sechster Lautsprecher, der Subwoofer, ist auf Basstöne
spezialisiert, seine Position ist beliebig, da unser Gehör langwellige
Signale nicht räumlich zu orientieren vermag.
Unkomprimiert fallen beim Surround-Klang rund 4,3 Megabit
pro Sekunde und mehr an. Aktuelle Techniken der Verdichtung bearbeiten jeden der fünf für die Raumwahrnehmung wichtigen Kanäle separat (diskrete Kodierung: Dolby Digital, DTS, Mehrkanal-AAC)
oder mischen sie vor der Kompression nach einer festen Rechenvorschrift (so genannter Downmix), mit deren Hilfe sie auch wieder zu
trennen sind (Matrix-Kodierung: Dolby ProLogic II, Logic 7). MP3
Surround verbessert die Rekonstruktion des verdichteten Signals,
da es anhand psychoakustischer Modelle Parameter zur Beschreibung der räumlichen Klangwahrnehmung aus den Ausgangskanälen
gewinnt. Dazu gehört beispielsweise die Kohärenz: Eine punktförmige Klangquelle erzeugt ein schmaleres Frequenzspektrum als
eine diffuse. Die neuen Dateien sind nur etwa zehn Prozent größer
als solche im MP3-Stereoformat und bieten dennoch den vollen
5.1-Klang.
Klaus-Dieter Linsmeier ist Redakteur bei »Spektrum der Wissenschaft«.
Prinzip der Maskierung
Lautstärke in Dezibel
80
60
Mithörschwelle
40
Ruhehörschwelle
20
0,02
0,05
Lautstärke in Dezibel
Spektrum der Wissenschaft / Siganim
60
40
20
0,1
0,2
0,5
1
2
Frequenz in Kilohertz
5
10
20
5
10
20
Effekt mehrerer
maskierender Schallereignisse
80
Mithörschwelle
Ruhehörschwelle
Signal nicht
hörbar
0
0,02
SPEKTRUM DER WISSENSCHAFT · märz 2009
maskierter Schall
Signal nicht
hörbar
0
Überschreitet die Lautstärke eines Tons die Ruhehörschwelle,
nehmen wir ihn wahr – sofern nicht ein Ton anderer Frequenz eine
Mithörschwelle erzeugt, die den ersten verdeckt. In einem realen
maskierender Schall
0,05
0,1
0,2
0,5
1
Frequenz in Kilohertz
2
Audiosignal entstehen mehrere solcher Barrieren. MP3-Encoder
ermitteln die daraus folgenden Maskierungseffekte und speichern
nicht hörbare Signalanteile ungenauer, das heißt mit weniger Bits.
87
Autos der Zukunft (Serie, Teil II)
Die Zukunft
fährt elektrisch
Über 100 Jahre lang haben billiges Öl und überall verfügbarer Kraftstoff dem
Auto mit Verbrennungsmotor einen Massenmarkt bereitet. Mehr als 800 Millionen PKW weltweit sind heute allerdings für rund 20 Prozent der menschengemachten Kohlendioxid-Emissionen verantwortlich. Jetzt führen neue Technologien
zu einer Renaissance der Elektrofahrzeuge.
Von Reinhard Löser
A
Diskutieren Sie mit!
Elektrofahrzeuge brauchen
zwar kein Benzin. Doch der
Strom, mit dem sie fahren,
stammt bislang vor allem aus
Kohle- und Atomkraftwerken.
Entwickelt sich der Automobilbau in die richtige Richtung?
Diskutieren Sie mit auf www.
spektrum.de/artikel/980525.
ngesichts hoher Ölpreise und
höchstmöglicher Umweltschonung
werden wir ganz schnell emissi­
onsfreie Fahrzeuge anbieten«, ver­
spricht Carlos Ghosn, Chef sowohl des fran­
zösischen Unternehmens Renault als auch des­
sen japanischen Partners Nissan. Auf dem
Weg zum selbsternannten »größten Anbieter
für Elektrofahrzeuge weltweit« hat sich Re­
nault-Nissan erst kürzlich mit dem Energie­
versorger Energie Ouest Suisse (seit 1. Februar
2009: Alpiq) verbrüdert. Dessen schweizerische Kraftwerke werden zu 85 Prozent mit
Wasserkraft betrieben. Die Vision des Spa­
niers Ghosn von globaler Klimaentlastung:
Nur wenn auch die Energie im »Tank« klima­
freundlich und nachhaltig erzeugt wird, ist
wirklich die gesamte Ökobilanz von der
SERIE: Autos der Zukunft
Teil I: Wie Nano das Auto verändert SdW 02/2009
Teil II:Die Zukunft fährt elektrischSdW 03/2009
Teil III: Elektroautos – die rollenden Stromspeicher
SdW 04/2009
Teil IV: Intelligente Sicherheitssysteme
SdW 05/2009
88 Primärenergieerzeugung bis zur Kraftübertragung auf die Straße (»Well-to-Wheel«) koh­
lendioxidfrei.
Zum eigentlichen Entwicklungsschub ha­
ben vor allem deutliche Fortschritte in der
Speichertechnologie und insbesondere bei Bat­
terieelementen beigetragen – forciert durch
transportable elektronische Geräte wie Han­
dys, iPods, PDAs und Laptops. Und doch ha­
ben sich deutsche Autoschmieden der Elektromobilität bis vor ein, zwei Jahren mit aller
Macht entgegengestemmt. Sie setzten auf den
sparsamen Diesel und vertrauten auf deutsche
Ingenieurkunst, mittels derer sich die Emissionen am Ende des Auspuffs schon unter die ge­
setzlichen Grenzwerte bringen lassen würden.
Außerdem schien man mit Wasserstoff und
Brennstoffzelle noch Trümpfe im Ärmel zu ha­
ben. Daimler arbeitet seit 1994 an dieser Tech­
nologie, investierte nach eigenem Bekunden
bereits mehr als eine Milliarde Euro und hat
sich die derzeit größte Brennstoffzellen-Fahr­
zeugflotte zugelegt. Dennoch stehen noch im­
mer keine Fahrzeuge beim Händler, zu ambiti­
oniert waren die ursprünglichen Ziele. Anfangs
sollte das Brennstoffzellenfahrzeug sogar gänz­
lich ohne Batterie auskommen. Das Hybrid­
auto (Hybrid Electric Vehicle, HEV) hingegen,
das in Japan und den USA sukzessive den
Markt aufräumt und ihn für reine Elektroau­
SPEKTRUM DER WISSENSCHAFT · März 2009
Technik & Computer
Elektroautos sind im Kommen. Anders als mancher vermuten
würde, konzentrieren sich die Ingenieure aber nicht nur auf
kleine Stadtautos, sondern präsentieren auch PS-starke Sportwagen. Zwar ist die Batterie, die dem Benzin im Tank überlegen
wäre, noch nicht erfunden, doch die Entwicklung verläuft rasant.
Alexey Dudoladov / iStockphoto
tos aufnahmefähig macht, wurde in Deutsch­
land noch bis vor Kurzem heftig boykottiert.
Über Nacht hat sich nun die Situation ver­
ändert: Seit der Finanzkrise und dem »Auto­
salon« in Paris im Oktober 2008 scheint es nur
noch ein Thema zu geben – Elektrofahrzeuge
(Electric Vehicles, EVs). Bei bloßen Ankün­
digungen bleibt es indessen nicht. In London
lässt Daimler ausgesuchte Kundengruppen Er­
fahrungen mit 100 batteriegetriebenen Exem­
plaren des »smart ed«, einem Smart mit »elec­
tric drive«, sammeln. Einige Windkrafträder
produzieren für dieses Vorhaben sogar Öko­
strom, der ins Netz eingespeist wird. Auch
beim Pilotprojekt »e-mobility Berlin« wird
Daimler bald über 100 Elektroautos durch die
Hauptstadt rollen lassen, aufladbar an 500
Stromzapfstellen des Energieversorgers RWE.
Auch der Strom ist »grün«
Ähnliches geschieht in Italien. Hier entwickelt
der größte Energieversorger des Landes Enel
eigens 400 neue Ladestationen für 100 EVs
von Daimler, die ab 2010 in Rom, Mailand
und Pisa unterwegs sein werden. Einen Flot­
tenversuch unternimmt auch Volkswagen mit
dem Energieversorger E.ON. Dabei wollen
die Unternehmen mit zwei Batteriespezialisten – der GAIA Akkumulatorenwerke in
Nordhausen und der Litec Battery aus dem
SPEKTRUM DER WISSENSCHAFT · März 2009
sächsischen Kamenz – sowie weiteren For­
schungseinrichtungen zusammenarbeiten.
BMW hat unterdessen zu Vattenfall Eu­
rope gefunden: 50 Mini-E-Elektroautos sollen
demnächst in Berlin an den Start gehen, an­
getrieben von zertifiziertem »grünem« Strom
des schwedischen Energieversorgers. Zehnmal
so viele Elektrofahrzeuge schickt BMW der­
zeit in den USA auf die Straße.
Doch das »E« schmückt nicht nur kleine
Stadtautos. Aus der kalifornischen Auto­
schmiede Tesla Motors stammt der Tesla Road­
ster, mit einer Spitzengeschwindigkeit von 200
Kilometern pro Stunde eines der schnellsten
straßenzugelassenen Elektrofahrzeuge der Welt.
Sein Nachfolger wird ab Mitte 2009 auch auf
europäischen Straßen zu sehen sein. Der über
100 000 Euro teure Flitzer katapultiert sich bei
einem Gewicht von 1240 Kilogramm inner­
halb von knapp vier Sekunden von null auf
100 Kilometer pro Stunde. 6831 aus der Com­
putertechnik geborgte Lithiumionen-(Li-Io­
nen-)Akkus speichern bei 375 Volt und einem
Gewicht von 450 Kilogramm insgesamt 53
Kilowattstunden elektrische Energie. Ihre Ge­
samtleistung beträgt 225 Kilowatt (300 PS),
das Drehmoment 280 Newtonmeter, die
Reichweite 360 Kilometer.
Nach dem Raketenritt muss man sich al­
lerdings in Geduld üben: Zwischen 4 und 16
In Kürze
r Angesichts der weltweiten Finanzkrise überbieten
sich Autohersteller derzeit
bei der Vorstellung elektrisch angetriebener Fahrzeuge, die möglicherweise
die Zukunft der Mobilität
verkörpern.
r Zentral ist dabei die Verfügbarkeit leistungsfähiger
Batterien. Lithiumionen-­
Akkus sind derzeit die vielversprechendsten Produkte.
Zahllose Varianten offerieren
je eigene Vorteile.
r Serienreife Fahrzeuge sind
allerdings noch selten, vorerst laufen Pilotprojekte.
Noch haben die E-Mobile
auch geringere Reichweiten
als benzinbetriebene Autos.
Doch der Bedarf an Vehikeln
für den Stadtverkehr ist
bereits größer, als ihn die
Industrie decken kann.
89
DPA, Lukas Barth
Autos der Zukunft (Serie, Teil II)
Einen ungewöhnlichen Anblick
bietet der kastenförmige Elektromotor des Mini E. 150 Kilowatt
leistet das Aggregat und beschleunigt den Zweisitzer in 8,5
Sekunden von null auf 100
Kilometer pro Stunde. Die Reichweite liegt bei 240 Kilometern.
500 Exemplare sind bereits im
Pilotprojekt auf amerikanischen
Straßen unterwegs, weitere 50
fahren bald durch Berlin. Der
Lithiumionen-Akku ist im Fond
des Wagens platziert.
Tesla Motors
Der vollelektrische Tesla Roads­
ter befindet sich seit Mai 2008
in der Kleinserienproduktion.
Noch in diesem Jahr kommt eine
leistungsstärkere Variante auch
auf den europäischen Markt.
Stunden dauert das Wiederaufladen. Von der
gewaltigen Beschleunigung, der hohen Ge­
schwindigkeit, vor allem dem fast geräuschlo­
sen »Fliegen« sind die Tesla-Fahrer aber durch­
weg begeistert. Dass das Fahrzeug mit null
Emissionen auskommt, wird indessen kaum
wahrgenommen und verliert sich oft in den
euphorischen Presseberichten.
Unterdessen verstärkten die Hersteller ihre
Präsenz auch auf der Detroiter Automesse
NAIAS (North American International Auto
Show) im Januar 2009 – ob GM, Ford, Jeep
oder Dodge, Volvo, Mitsubishi oder PSA Peu­
geotCitroën. Die beiden Letztgenannten kün­
digten Mitte 2008 sogar eine zunächst kurz­
fristige Elektrokooperation an. PSA bringt als
Branchenpionier die Erfahrung mit bislang
rund 10 000 verkauften Elektrofahrzeugen in
die Ehe ein, Mitsubishi wiederum verspricht
sich eine Weiterentwicklung und gute Absätze
seines auf dem Kleinwagen »i« basierenden
»Mi-EV«, der bald auf den japanischen Markt
kommen soll.
Toyota rüstet derweil den Kleinstwagen
»iQ« mit Elektroantrieb aus. Konzipiert ist
der »FT-EV« (Future Toyota Electric Vehicle),
90 der allerdings erst 2012 beim Händler stehen
soll, mit einer rein elektrischen Reichweite
für Kurzstrecken im Stadtverkehr. Aber selbst
ein Newcomer aus dem Reich der Mitte wie
das chinesische Unternehmen BYD (Build
Your Dream) offeriert einen EV. Der kom­
pakte Van namens »e6« soll 400 Kilometer
am Stück schaffen und nach zehn Minuten
zur Hälfte wieder aufgeladen sein.
Daimler schließlich präsentierte bei der
NAIAS die Studie »Concept BlueZero« auf
Basis der neuen B-Klasse. Es handelt sich da­
bei um gleich zwei EVs mit Li-Ionen-Akkus,
die ab 2010 auf den Markt kommen sollen.
»E-CELL« steht für ein Auto mit batterieelektrischem Antrieb und einer rein elek­
trischen Reichweite bis 200 Kilometer. Der
»E-CELL PLUS« verfügt dagegen über einen
zusätzlichen »Range Extender«, einen Dreizy­
linder-Benzinmotor mit 50 Kilowatt Leistung
bei konstanten 3500 Umdrehungen pro Mi­
nute, der den Akku bei Bedarf unterstützt.
Er dient allerdings nicht wie bei einem Hy­
bridfahrzeug dem Antrieb, sondern lädt nur
die Batterie nach. Das bringt gleich zwei Vor­
teile, nämlich die Vergrößerung der Reich­
weite gegenüber rein elektrisch betriebenen
Fahrzeugen sowie die optimale Drehzahl und
damit den besten Wirkungsgrad für den zu­
geschalteten Verbrennungsgenerator. Für den
»E-CELL PLUS«, dessen rein elektrische
Reichweite nur 100 Kilometer beträgt, kann
der schwäbische Autobauer daher eine Ge­
samtreichweite von bis zu 600 Kilometer ver­
sprechen.
Die Akkus sind flüssigkeitsgekühlt und ver­
fügen über eine Energiespeicherkapazität von
17,5 beziehungsweise 35 Kilowattstunden so­
wie einen kompakten, maximal 100 Kilowatt
starken Elektromotor, der eine Dauerleistung
von 70 Kilowatt und ein maximales Drehmo­
ment von 320 Newtonmeter entwickeln kann.
Bei einer Ladeleistung von 15 Kilowatt, wie
sie spezielle Stromzapfstellen bieten, können
die Akkus innerhalb einer beziehungsweise
zwei Stunden genügend Energie für 100 oder
200 Kilometer Fahrtstrecke speichern. Beim
Stromzapfen an gewöhnlichen Steckdosen, die
nur eine Ladeleistung von sieben Kilowatt
bringen, verdoppeln sich die Ladezeiten.
Die Euphorie der letzten Zeit kann in­
dessen nicht darüber hinwegtäuschen, dass
die meisten heutigen Elektroautos keine er­
schwinglichen Serienfahrzeuge sind und die
neue Technologie noch in den Kinderschuhen
steckt. Weiterhin scheitern rein batterie-elek­
trisch angetriebene Autos an den Anforde­
rungen der an Benzin- und Dieseltreibstoff
gewöhnten Fahrer, die unterwegs immer eine
Tankstelle finden.
SPEKTRUM DER WISSENSCHAFT · März 2009
Technik & Computer
Was hat Deutschland in diesem Bereich zu
bieten? Zumindest bis in die 1990er Jahre war
das Autoland führend in der Elektrochemie.
Doch seit dem Großversuch mit batteriebetrie­
benen Autos auf der Insel Rügen – mit nicht
ausgereifter Batterietechnik in herkömmlichen,
viel zu schweren Autos, die eigentlich für einen
Verbrennungsmotor ausgelegt waren – wurde
die Speichertechnik ad acta gelegt. Einige Fahr­
zeuge brannten damals wegen Batterieüber­
hitzung ab, und die Leistungsparameter der
Batterien konnten gegenüber Benzin und Die­
sel nicht punkten. Also wurde in den letzten
Jahren der Diesel parkettfähig gemacht, und
man werkelte an der Brennstoffzelle. Nun hat
sich der einstige Vorsprung verflüchtigt. Japa­
nische Autos rollen den Markt auf, in der Bat­
terietechnologie geben China und Japan den
Ton an, und überall finden Batteriespezialisten
und Autoleute zusammen.
Nachdem beispielsweise Mitsubishi schon
im Jahr 2007 ein Joint Venture mit der GS
Yuasa Corporation eingegangen ist, plant nun
auch Honda, mit dem japanischen Batterie­
spezialisten eine gemeinsame Firma für Fer­
tigung und Vertrieb von Hochleistungsbat­
terien in Lithiumionen-Technologie zu grün­
den. Automotive Energy Supply Corporation
(AESC) wiederum ist ein japanisches Ge­
meinschaftsunternehmen von Nissan und
NEC. Panasonic EV Energy liefert für Toyota
die Akkus, und Hitachi und Sanyo aus Japan
sowie Samsung aus Korea haben ebenfalls ihre
Partner in der Branche gefunden.
Wertvoll wie eine Ölquelle
Deutschland ist im Zugzwang, wie auch Mi­
nisterialdirektor Uwe Lahl im Bundesumwelt­
ministerium bereits schwant: »Wer Akkus ent­
wickelt, besitzt eine eigene Ölquelle!« Also
fördert das Bundesforschungsministerium die
Lithium-Technologie mit 60 Millionen Euro
und unterstützt damit seit Ende 2007 ein
Konsortium aus BASF, Bosch, Evonik und
Volkswagen, das seinerseits weitere 360 Milli­
onen Euro in das Projekt steckt. Bosch und
Samsung SDI haben sich ebenfalls die LiIonen-Technik vorgenommen und wollen in
den nächsten fünf Jahren zwischen 300 und
400 Millionen Euro investieren.
Das ist längst nicht alles. Volkswagen und
Evonik finanzieren seit Anfang 2008 einen
Lehrstuhl an der Universität Münster, um die
Grundlagenforschung an elektrischen Spei­
chermedien zu stärken. Forschung findet auch
im »Projekthaus e-drive« statt, das Ende 2008
von Daimler mit dem Karlsruher Institut
für Technologie, einer Gemeinschaftseinrich­
tung von Universität und Forschungszentrum
Karlsruhe, ins Leben gerufen wurde und die
SPEKTRUM DER WISSENSCHAFT · März 2009
Themen Leistungselektronik, Steuerungs- und
Regelungstechnik sowie elektrische Energie­
speicherung und Elektromaschinenbau bün­
deln soll. Wissenschaftler des Stuttgarter MaxPlanck-Instituts für Festkörperphysik und des
Fraunhofer-Instituts für Chemische Techno­
logie in Pfinztal bei Karlsruhe tüfteln ebenfalls
seit Langem an Lithiumsystemen.
Mit gutem Grund: »Die Zukunft und ein
Großteil der Gegenwart«, so bekundet Joa­
chim Maier, Direktor der Abteilung für Phy­
sikalische Chemie am Max-Planck-Institut
für Festkörperforschung, »gehört lithiumba­
sierten Systemen.« Das sehr leichte Alkali­
metall Lithium ist nämlich prädestiniert für
hohe Energiedichten und sehr hohe Zellspan­
nungen.
In Li-Ionen-Batterien besteht die Kathode
grundsätzlich aus einer Metalloxidmatrix, aus
der Lithiumionen austreten können, und ei­
ner Anode, die – zumindest bislang – übli­
cherweise aus Graphit besteht. Als Elektrolyt
fungiert ein in einem organischen Lösungs­
mittel gebundenes Lithiumsalz. Beim Aufla­
den wandern die Lithiumionen von der Ka­
thode weg und setzen sich im Graphit fest,
beim Entladen kehren die Elektronen zu ihrer
Beim Zweisitzer »Smart ed«
befindet sich die Batterie unter
den Sitzen. Geliefert wird sie
vorerst allerdings von Tesla
Motors. Denn die Batterie, die
Smart-Hersteller Daimler gemeinsam mit Evonik produzieren
will, ist wohl erst in einigen
Jahren einsatzreif.
Ladegerät
Getriebe
Kühler
für den
Antrieb
Elektromotor
Leistungselektrik
LithiumionenBatterie
Gaspedalmodul
Merc
edes
Benz
Unterdruckpumpe
für Bremssystem
91
Autos der Zukunft (Serie, Teil II)
Aufholjagd
Den Titel des schnellsten
elektrischen Serienfahrzeugs
der Welt will sich der Ultimate Aero EV von Shelby
SuperCars (SSC) im US-Bundesstaat Washington noch
in diesem Jahr verdienen.
1000 Pferdestärken sollen
den Sportwagen in 2,5 Sekunden von null auf 100 und
auf maximal 335 Kilometer
pro Stunde beschleunigen.
Die versprochene Ladezeit
von zehn Minuten an einer
220-Volt-Steckdose, nach der
die Reichweite erneut rund
300 Kilometer betragen soll,
ist allerdings zweifelhaft.
Ausgangselektrode zurück. Weil die Elektro­
den sicher und gleichmäßig voneinander ge­
trennt sein müssen, ist dabei der »Abstand­
halter« oder Separator von großer Bedeutung.
Hier kommen hochisolierende Kunststoffe
oder Keramiken zum Einsatz, die jedoch für
Ionen durchlässig sein müssen.
Kavalierstarts verbieten sich
Weil sich die Materialien für Kathode, Anode
und Elektrolyt baukastenartig austauschen las­
sen, wächst die Vielfalt der Li-Ionen-Systeme
ständig und die Forscher stoßen auf immer
neue Eigenschaften. Systeme auf Basis von Li­
thiumnitrat und Lithiumeisenphosphat (LiFe­
PO4 ) etwa weisen mit rund 4000 Watt pro Ki­
logramm die höchsten Leistungsdichten auf.
Davon könnten Fahrer beim »Gas geben« pro­
fitieren. Die höchste Energiedichte erreicht
man hingegen mit Lithiumnickelkobalt (Li­
NiCo). Damit lässt sich ein Auto lange und
weit fahren, Kavalierstarts verbieten sich je­
doch. Den Kostenvergleich gewinnt das LiFe­
PO4-System, das mit 500 Euro pro Kilowatt­
stunde aktuell die günstigste Li-Ionen-Batterie
darstellt. Die höchste Zellspannung wiederum
erreicht man mit Lithiumkobaltoxid.
Lithiumnitrat-Zellen schließlich sind der­
zeit mit 1400 Euro pro Kilowattstunde die
teuersten elektrischen Energielieferanten, al­
lerdings lassen sich damit hohe Spannungen
auf kleinem Bauraum reali­sieren, ebenfalls
ein wichtiges Kriterium für Autokonstruk­
teure. Interessant ist auch das nanostruktu­
rierte Anodenmaterial Li-Titanat, das von
der Firma Altairnano aus Reno in Nevada be­
reits in Akkus integriert wird. Das beein­
druckendste daran ist seine hohe Ionenbeweg­
lichkeit: Die Altair-Batterie lässt sich binnen
einer Minute auf 80 Prozent ihrer Kapazität
laden. Die relativ geringe Energiedichte sorgt
allerdings für höheres Gewicht.
Sehr leistungsfähig sind auch die von Saft
(einem in Frankreich beheimateten Konzern),
JVC, Toyota und Samsung produzierten Systeme aus Lithium-, Nickel-, Kobalt- und Alu­
miniumoxid. Allerdings können sie infolge
hoher Wärmeentwicklung explodieren und
müssen daher in spezielle Stahlbehälter einge­
haust werden.
Ein weiteres viel versprechendes, allerdings
ebenfalls stark temperaturabhängiges System
besteht aus Li-Manganoxid (LMO, LiMn2O4)
und Li-Titanoxid (LTO, Li4Ti5O12). Aus
LMO lassen sich sehr preiswerte, leistungs­
fähige und stabile Kathoden herstellen, wäh­
rend LTO als Anode große Leitfähigkeit auf­
weist und obendrein als unverwüstlich gilt, da
Kein Elektroboom ohne leistungsfähige Batterien
Das Elektrofahrzeug steht und fällt mit der technischen Beherrschung des grundlegenden Prinzips der elektrochemischen Energiespeicherung. Zunächst wird einer wiederaufladbaren Zelle
(Akkumulator) Energie zugeführt, beim Entladen erhält man elektrische Energie zurück. Die für die Elektrochemie entscheidenden
Reduktions- und Oxidationsvorgänge laufen dabei an der Phasengrenze zwischen Elektrode und Elektrolyt ab.
elektrischer
Strom
Verbraucher /
Ladegerät
Kathode
Separator
Elektrolyt
Anode
Lithiumion
+
+
+
+
+
Jen Christiansen
+
In einer Lithiumionen-Batterie wandern positiv geladene Li-Ionen
von der Anode durch einen porösen Separator zur Kathode.
An der Anode werden dabei Elektronen frei, die als Strom zum
Verbraucher fließen. Der Ladevorgang verläuft umgekehrt.
92 Bei galvanischen Elementen (»nicht aufladbaren« Batterien)
bildet die negative Elektrode die Kathode, bei wiederaufladbaren
Akkumulatoren fungiert die Elektrode abwechselnd als Anode
oder Kathode, abhängig davon, ob die Batterie geladen oder entladen wird. Die Nennspannung der Zelle wird durch die eingesetzten Elektrodenmaterialien festgelegt, höhere Spannungen lassen
sich durch Hinterei­nanderschalten mehrerer Zellen erreichen (daher auch der Begriff »Batterie«). Das Produkt aus Spannung und
Kapazität ergibt den Energiegehalt des Akkus.
Bei der Aufladung werden Ionen aus der chemischen Bindung
der positiven Anode zur negativen Kathode gezogen, wo sie sich
anlagern und eine chemisch energiereichere Bindung eingehen.
Wichtig ist dabei die Aufnahmefähigkeit der Oberfläche für Elektronen, was sich im Maß für die Kapazität (gemessen in Amperestunden), also für die gespeicherte elektrische Ladung ausdrückt.
Die theoretische Kapazität hängt von der Menge beziehungsweise Oberflächencharakteristik des Elektrodenmaterials ab. Sie
unterscheidet sich häufig von der entnehmbaren »praktischen«
Ladung und lässt sich durch Vergrößerung der Oberflächen und
durch Parallelschaltung von Zellen erhöhen, was aber das Gewicht erhöht und mehr Bauraum verlangt. Außerdem hängt sie
entscheidend von den konkreten Entladebedingungen ab, darunter Belastung, Temperatur, Alter und Ladehistorie.
Im Allgemeinen nimmt die nutzbare Kapazität einer Batterie
mit zunehmendem Entladestrom ab. Grund dafür sind wachsende
Verluste am Innenwiderstand der Batterie, Veränderungen an der
SPEKTRUM DER WISSENSCHAFT · März 2009
Technik & Computer
Wer sich Sorgen um geeignete Stromtankstellen und nicht ausgereifte
Technik macht, kann statt zum Elektroauto zum Hybridfahrzeug
greifen. Mittlerweile bringen auch deutsche Hersteller
Autos auf den Markt, die Benzin- und Elektromotor
kombinieren. Im Fall des Mercedes-Benz
S400 Hybrid ist ein scheibenförmiger
Elektromotor direkt auf der Kurbelwelle angebracht. (Rein elektrisch angetriebene Fahr120-Volt-Batterie
zeuge verfügen meist
über vier an den
Standard-12-Volt-Batterie
Geometrie und Einflüsse der Temperatur. Auch die Geschwindigkeit der elektrochemischen Prozesse und der Transportvorgänge
in der Batterie beeinflussen die Kapazität. Insbesondere liegt im
Verschleiß von Elektroden und Elektrolyt eine weitere Hürde für
die Effizienz von Systemen. Manche Stoffe können viele Elektronen speichern oder an sich binden, geben sie aber nicht so schnell
ab, andere wiederum besitzen leicht bewegliche Ionen, aber begrenzte Speicherfähigkeit. Diese Faktoren bestimmen daher auch
die nötigen Ladezeiten und die Fähigkeit der Akkus, auf lange
Sicht viele Lade-/Entladezyklen zu überstehen.
Als Leistung einer Batterie bezeichnet man die Menge an elektrischer Energie, die sich pro Zeiteinheit entnehmen lässt. Sie ist
das Produkt aus Entladestrom und Entladespannung und wird in
Watt (W) angegeben. Allerdings entladen sich alle Batterien allmählich selbst, wenn sie nicht im Gebrauch sind. Die Geschwindigkeit der Selbstentladung hängt von Materialien und Batterietyp, aber auch von der Häufigkeit der Zyklen, der vorangegangenen
Entladetiefe und der Temperatur ab.
Den Dauereinsatz in Kraftfahrzeugen limitiert auch die Zyklen­
festigkeit. Feste Elektrolyten können »verstopfen«, flüssige auslaufen, gasförmige entweichen. Bei einigen Elektroden korrodieren die Oberflächen, ihre Speicherfähigkeit nimmt so mit der Zeit
ab. Aus anderen wächst eine Art Kristalle, wodurch sich der Elektrodenabstand verkleinert. Dadurch verringert sich die Kapazität,
was zu Spannungsabfall führt, die chemischen Reaktionen aber
SPEKTRUM DER WISSENSCHAFT · März 2009
Elektromotor
herkömmliches Automatikgetriebe
auch so beschleunigen kann, dass sie immer mehr Wärme produzieren und schließlich zur Explosion führen.
Aus all diesen Gründen suchen Autoingenieure weltweit Spe­
zialisten, die sichere und leistungsfähige Batterien herstellen. Außerdem sollen sie eine lange Lebensdauer (gleichbedeutend mit
einer hohen Zahl von Zyklen) besitzen und sich in kurzer Zeit wieder aufladen lassen. Weitere wichtige Vergleichsgrößen für Autobauer sind die Energiedichte (Energie pro Gewicht beziehungsweise Volumen in Wattstunden pro Kilogramm) und Leistungsdichte (entnehmbare Leistung pro Gewicht beziehungsweise Volumen in Watt pro Kilogramm), entweder absolut oder bezogen
auf das Bauraumvolumen.
>> R. L.
AltairNano
Rädern angebrachte Nabenmotoren.) Eine
Steuerelektronik koordiniert das Zusammenspiel der beiden
Aggregate. Die in den Kofferraum ausgelagerte übliche 12-VoltBatterie und die 120-Volt-Lithiumionen-Batterie für den Elektroantrieb sind an je eigene Stromkreise angeschlossen.
Mercedes-Benz
Steuer­
elektronik
In den Batterien von Altairnano verhindert eine nanostrukturierte
Anode aus Lithiumtitanat (Bild), dass sich um die Anode herum ei­ne
Grenzschicht ausbildet, die den Fluss der Lithiumionen bremst.
93
Autos der Zukunft (Serie, Teil II)
Woher nehmen?
Woher kommt der für die
Elektromobilität benötigte
Strom? Das Problem könnte
kleiner sein, als es scheint.
Laut einer Studie unter an­de­ rem der Deutschen Gesellschaft für Sonnenenergie
würden 40 Millionen Hybridund Elektroautos den deutschen Strombedarf um nur
zehn Prozent ansteigen
lassen. Auch wenn es beim
heutigen Strommix bliebe,
sparte man in der Summe
viel Öl – und knapp 30
Millionen Tonnen Kohlendioxid. Erneuerbare Energien
ließen diesen Wert auf 67
Millionen Tonnen ansteigen.
Reinhard Löser ist promovierter
Physiker, habilitierter Volkswirt
sowie intimer Kenner der Automo­
bilindustrie. Als freier Autor lebt er
in Ebenhausen bei München.
Auto der Zukunft. Sonderausgabe
1/2009 von Technology Review.
Heise, Hannover 2009.
ecomobil spezial. Sonderausgabe
von ecomobil – das zeitgemäße
automagazin. München, Juli 2008.
Naunin, D. et al.: Hybrid-, Batterieund Brennstoffzellen-Elektrofahrzeuge. Technik, Strukturen und Entwicklungen. Expert-Verlag, Renningen 2006.
Stan, C.: Alternative Antriebe für
Automobile. Hybridsysteme, Brennstoffzellen, alternative Energieträger. Springer, Heidelberg 2008.
Tollefson, J.: Charging up the Future. In: Nature 456, S. 436 – 440,
27. November 2008.
Weitere Weblinks zu diesem Thema
finden Sie unter www.spektrum.de/
artikel/979759.
94 es mehr als 20 000 Lade-/Entladezyklen über­
steht. Überdies erlaubt das Materialgemisch
LMO/LTO, den Produktionsprozess einfach,
sicher und kostengünstig zu gestalten. So
überrascht es nicht, dass die traditionellen ja­
panischen Batteriehersteller Toshiba und Hi­
tachi auf diese Technologie setzen und sie pa­
tentrechtlich weitläufig absichern.
Deutsche Forscher wieder
mitten im Geschehen
Doch Neuerungen gibt es allerorten. Wäh­
rend Wissenschaftler an der kalifornischen
Stanford University zur Kapazitätserhöhung
die Graphitanode durch Silizium-Nanoröhren
ersetzen, arbeiten Forscher des Zentrums für
Sonnen­energie- und Wasserstoffforschung in
Ulm an innovativen Elektrolyten. Weil or­
ganische Elektrolyte gegenüber hohen Tem­
peraturen empfindlich sind, sollen sie durch
ionische Flüssigkeiten oder Gels ersetzt wer­
den, denn beispielsweise der Tesla benötigt für
seine Akkus noch eigens eine separate Klima­
anlage.
Allen Unkenrufen zum Trotz scheint
Deutschland nun wieder das Heft in die Hand
zu nehmen. Die Litec Battery in Sachsen – seit
Ende 2008 ein Gemeinschaftsunternehmen
von Evonik Industries und Daimler – kann
komplette, serientaugliche Li-Ionen-Zellen fer­
tigen, die zu Batterien weiterverarbeitet wer­
den. Konkurrenzprodukte stellt die Litec-Bat­
terie klar in den Schatten. So sind ihre spezi­
ellen Kompositanoden in der Lage, dreimal
mehr Energie als die Lithiumbatterie des fran­
zösischen Unternehmens Saft zu speichern.
Außerdem ist ihr Volumen um 30 Prozent ge­
ringer als das der Toyota-Panasonic-Batterie:
Die Zelle der Kamenzer ist mit 23 mal 18 Zen­
timetern kaum größer als ein Schulheft und
wiegt ein Kilogramm. Litec-Geschäftsführer
Andreas Gutsch schwärmt von ihrem Leistungsvermögen, sie sei »hundertmal so stark
wie ein Bleiakku«. Damit markiert das lang­
lebige Produkt, das auch für die Massenferti­
gung geeignet ist, die Spitze der Technologie.
Sämtliche Komponenten, welche die Leistungsfähigkeit der Batterie bestimmen – Ka­
thode, Anode, Elektrolyt und Separator –,
werden bei Litec mit speziellem Knowhow zu­
sammengeführt. Herzstück sind dabei der
von der Evoniktochter Degussa entwickelte
keramische Separator »Separion« sowie die
»Litarion«-Elektroden von Evonik, für die das
Unternehmen sogar eigene Forschungskapazi­
täten aufgebaut hat.
Von besonderer Bedeutung ist der kera­
mische Separator. Er ist hitzebeständig sowie
physikalisch und chemisch stabiler als die bis­
lang verwendeten Folien aus Polyolefinen. We­
der bei Überlastung noch bei Beschädigung
schmilzt er. Das ist entscheidend, denn die ho­
hen Energiedichten insbesondere auch der Ka­
menzer Zellen ließen sich sonst nicht unter
Kontrolle halten. Käme es einmal zum Kurz­
schluss, würde der Energieinhalt der Batterie
schlagartig in einem Plasmabogen frei­gesetzt.
Daimler wiederum bringt weitere 600 Pa­
tente zu batteriegetriebenen Fahrzeugen in die
Litec-Ehe ein, davon über 230 auf dem Gebiet
der Li-Ionen-Technologie. Ein noch gesuchter
Dritter im Bunde soll über Kompetenzen in
der Systemintegration Elektrik/Elektronik ver­
fügen. Geplant ist zudem ein Joint Venture
der Großunternehmen speziell für die Ent­
wicklung und Produktion von Pkw- und LkwBatteriesystemen. Vorerst soll Litec allerdings
nur für den Bedarf von Mercedes produzieren,
später ist auch ein Verkauf von Zellen und
Batteriesystemen an Dritte vorgesehen.
Damit sind die Deutschen wieder mitten
im Geschehen. Vom Markt der Lithium­
ionen-Batterien, der mit jährlichen Raten von
über zehn Prozent innerhalb der nächsten
zehn Jahre auf mehr als zehn Milliarden Euro
wachsen soll, werden sie sich wohl ein ordent­
liches Stück abschneiden.
Angesichts der Fortschritte, dank derer sich
nun immer leistungsfähigere, leichtere und
kleinere Batterien herstellen lassen, wird viel­
leicht auch endlich ein Preis abgeholt, der
bereits seit 1925 ausgeschrieben ist. Sakichi
Toyoda, der Gründer von Toyota, hatte eine
Million Yen für eine Autobatterie mit der glei­
chen Energiedichte wie Benzin ausgelobt. 36
Stunden lang soll sie eine Leistung von 100 PS
(74 Kilowatt) abgeben. Darüber hinaus darf
die so genannte Sakichi-Batterie ein Höchst­
gewicht von 225 Kilogramm und ein Volu­
men von 280 Litern – Werte, die der Nutzung
in einem Auto noch entsprechen – nicht über­
schreiten.
Doch selbst wenn sich die Preisverleihung
weiter verzögert: Technisch aufgeschlossene
und ökologiebewusste Autofahrer würden
lieber heute als morgen ein Elektroauto nut­
zen – vor allem für ihre täglichen Stadt­
fahrten, wofür die heute verfügbaren Reich­
weiten schon genügen. Das ist zumindest das
Ergebnis einer aktuellen weltweiten Studie der
Strategieberater Bain & Company. Demnach
fehlen in Europa bereits jetzt rund 600 000
Elektrofahrzeuge pro Jahr. Die Industrie muss
sich anstrengen.
Wie lassen sich Elektroautos intelligent betanken und als rollende Stromspeicher nutzen?
Mehr dazu erfahren Sie im nächsten Teil unserer Serie in der Aprilausgabe.
SPEKTRUM DER WISSENSCHAFT · März 2009
Multi-Touch-Screens
Diesen Artikel können Sie als Audiodatei beziehen; siehe www.spektrum.de/audio
Sensible
Bildschirme
Nicht nur Stoff für Sciencefiction-Filme: große trans­
parente Displays, auf denen mit Berührungen und Ges­
ten virtuelle Objekte und Dokumente bewegt­werden.
Bald könnten Computer ohne Maus und Tastatur auskommen.
Von Stuart F. Brown
A
In Kürze
r Multi-Touch-Screens
reagieren nicht nur auf einen
Finger, sondern folgen den
Anweisungen vieler Finger
gleichzeitig.
r Ein wandgroßer Schirm,
den die Firma Perceptive
Pixel entwickelt hat, reagiert
auf bis zu zehn Finger oder
mehrere Hände. Microsoft
und Mitsubishi bieten
kleinere Systeme speziell für
Hotels, Läden, Konstruktions- und Designbüros an.
r Der Multi-Touch-Computer
wird uns vielleicht eines
Tages von der Maus als
derzeit wichtigstem Bedienungselement befreien – wie
uns die Maus von der
Tastatur emanzipiert hat.
96 ls Ende 2007 das iPhone von
Apple auf den Markt kam, machte es so genannte Multi-TouchScreens – mehrfach berührungsempfindliche Bildschirme – allgemein bekannt. Die Bilder auf dem kleinen Display
lassen sich nicht nur mit einer Fingerspitze
umherbewegen, sondern obendrein auch
durch Spreizen oder Verengen von zwei auf
den Bildrändern platzierten Fingerspitzen ver­
größern oder verkleinern. Diese Bedienungsmöglichkeit fand sofort begeisterte Anhänger,
denn sie funktioniert einfach und praktisch,
und sie appelliert unmittelbar an unseren
Tastsinn. In mehreren Labors rund um den
Erdball sind solche Zweifingerbefehle jedoch
bereits ein alter Hut; Techniker haben viel
größere Bildschirme entwickelt, die auf zehn
Finger gleichzeitig reagieren, ja sogar auf die
Hände mehrerer Personen.
Man kann sich leicht vorstellen, wie Fotografen, Grafiker oder Architekten – Profis, die
viel visuelles Material bewältigen müssen und
oft in Teams arbeiten – solche Multi-TouchComputer begrüßen werden. Doch die Technik wird bereits für noch weiter reichende Anwendungen erprobt: Ohne ein spezielles Training soll man während einer Teamsitzung
einfach die Hand ausstrecken können, um
Objekte und Pläne umherzubewegen oder
einzeln hervorzuheben.
Jeff Han ist Informatiker an der New York
University sowie Gründer der New Yorker Firma Perceptive Pixel. In deren Lobby prangt
ein fast 2,5 mal 1 Meter großer Flachbildschirm. Auf der elektronischen Wand entfesselt Han mit bloßen Fingern eine wahre Bilderflut. Zehn Videokanäle können simultan
ablaufen, und eine Symbolleiste ist nicht zu
sehen. Wenn Han unterschiedliche Dateien
aufrufen möchte, tippt er zweimal auf das
Display und öffnet damit Listen oder Menüs,
die wiederum angetippt werden können.
Empfindsame Pixel
Anfangs haben mehrere Kunden komplette
Systeme gekauft, darunter Geheimdienste, die
in ihren Einsatzzentralen geografisch lokalisierte Überwachungsbilder rasch vergleichen
müssen. Im Vorwahlkampf um die ameri­
kanische Präsidentschaft nutzten Moderato­
ren des Nachrichtensenders CNN ein großes
Perceptive-Pixel-System, das alle 50 Bundesstaaten darstellte; um Wahlergebnisse vorzuführen, holten die vor dem Schirm stehenden
Moderatoren mit dramatischen Gesten einzelne Staaten oder sogar Bezirke nahe heran und
schoben sie wieder beiseite. Für die Zukunft
erwartet Han, dass die Technik sich in grafisch aufwändigen Bereichen, etwa im Energiehandel und für bildgebende Verfahren in
der Medizin, fest etablieren wird.
Wie Bill Buxton aus der Forschungsabteilung von Microsoft zu berichten weiß, liefen
SPEKTRUM DER WISSENSCHAFT · März 2009
Technik & Computer
Brian Maranan Pineda
SPEKTRUM DER WISSENSCHAFT · März 2009
Schirms eingeschränkt hätte. Schließlich konstruierte Han ein rechteckiges Blatt aus
durchsichtigem Acryl, das wie ein Wellenleiter wirkt. Leuchtdioden pumpen von den
Rändern infrarotes Licht in das Blatt, das die
Lichtwellen in seinem Inneren durch Totalreflexion gefangen hält, nach demselben Prinzip
wie ein Glasfaserkabel. Doch wenn jemand
den Finger auf eine Oberfläche des Blatts
drückt, treffen einige der intern reflektierten
Lichtstrahlen auf diese Stelle, werden gestreut,
durchqueren die Acrylschicht und treten an
der gegenüberliegenden Oberfläche aus. Kameras hinter dem Schirm registrieren dieses
durch verhinderte Totalreflexion austretende
Licht – und somit die berührte Stelle. Die Kameras können zahlreiche solcher Lichtlecks
gleichzeitig verfolgen.
Bald entdeckte Han, dass die Acrylscheibe
auch als Diffusionsschirm dienen kann; ein
mit einem Computer verbundener Projektor
wirft auf die Scheibe von hinten Bilder, die
auf die andere Seite hindurchdiffundieren.
Der Schirm dient darum zugleich als Output
für Bilder und als Input für Berührungen dieser Bilder.
Den exakten Ort der Finger aufzuspüren
war nur das erste Problem. Als noch schwieriger erwies es sich, Software zu entwickeln,
welche die Fingerbewegungen zu verfolgen und
in Anweisungen für das Manipulieren der Bilder auf dem Schirm umzuwandeln vermag.
Ein halbes Dutzend Programmierer musste zu-
Jeff Han demonstriert seinen
Multi-Touch-Screen, der auf die
Bewegungen mehrerer Finger
oder Hände zu reagieren vermag. Hier vergrößert er gerade
ein Bild.
Das iPhone von Apple machte
mehrfach berührungsempfindliche Schirme populär; doch in
Labors entstehen schon viel
leistungsfähigere Systeme.
Corbis / EPA / Apple
erste Vorarbeiten zu mehrfach berührungsempfindlichen Benutzeroberflächen schon Anfang der 1980er Jahre. Doch erst um das Jahr
2000 begann Han an der New York University, eine der größten Hürden zu überwinden:
die Entwicklung hoch auflösender Sensoren
für Fingerspitzen. Dies erforderte neuartige
Hard- und Software.
Als grundlegend erwies sich die verhinderte Totalreflexion ( frustrated total internal reflection, FTIR), ein optischer Effekt, der auch
in Geräten zur Erkennung von Fingerabdrücken genutzt wird. Han wurde auf den Effekt
aufmerksam, als er eines Tages durch ein
volles Wasserglas blickte. Er bemerkte, wie
deutlich sein Fingerabdruck auf der Außenseite des Glases erschien, wenn er ihn durch das
Wasser hindurch betrachtete. Das brachte ihn
auf die Idee, ein elektronisches System könnte
Fingerspitzen auf der transparenten Oberfläche eines Computerbildschirms optisch verfolgen. Damit begann seine sechs Jahre lange
Beschäftigung mit Multi-Touch-Elementen.
Zunächst zog er eine sehr hoch auflösende
Version der einfach berührungsempfindlichen
Schirme in Betracht, die in Bank- und Fahrkartenautomaten verwendet werden; sie reagieren auf die elektrische Kapazität eines Fingers, der vordefinierte Punkte auf dem Schirm
berührt. Doch das Verfolgen einer belie­bigen Fingerspur hätte einen unsinnigen Aufwand an Verdrahtung hinter dem Schirm erfordert, was wiederum die Verwendbarkeit des
97
Multi-Touch-Screens
Leuchtdiode
Verfolgte
Finger
druckempfindlicher
Kunststoff
Die avanciertesten Multi-Touch­Screens reagieren auf Bewegung und Druck mehrerer Finger. Im Perceptive-Pixel-Sys­
tem senden Projektoren Bilder
durch einen transparenten
Acryl­schirm zu der Oberfläche
vor dem Betrachter. Wenn Finger oder Stifte diese Fläche berühren, wird Infrarotlicht, das
Leuchtdioden seitlich in die
Acrylschicht einspeisen, von
den Fingern zu Sensoren zurückgestreut. Software deutet
die Daten als Fingerbewegungen. Durch Antippen des
Schirms können Menüs aufgerufen werden.
zum
Sensor
gestreutes
Licht
Sensor
Acrylschirm
Projektor
Computer
Perceptive Pixel
projiziertes
Bild
Melissa Thomas
Leuchtdiode
John King, Moderator der
US-Fernsehanstalt CNN, erklärt
mit Hilfe eines Perceptive-PixelSchirms Detailergebnisse im
Vorwahlkampf um die amerikanische Präsidentschaft.
98 Toaltreflexion
nächst Software schreiben, die als hoch leis­
tungsfähiges Grafikprogramm funktionierte,
unter anderem, damit das Display wenig Trägheit aufwies und keine störenden Mehrfachbilder erzeugte, wenn Objekte schnell über
den Schirm gezogen wurden. Dann galt es, den
unge­wöhnlichen, durch verhinderte Totalrefle­
xion erzeugten Lichtoutput des Schirms zu
bewäl­tigen, wenn Fingerspitzen in allen möglichen Richtungen über den Schirm wischten.
Tief in der Architektur eines Betriebssys­
tems steckt die Annahme, dass die Eingaben
des Nutzers entweder von einer Tastatur oder
von einer Maus stammen. Tastenbefehle sind
eindeutig: Ein »q« bedeutet »q«. Die Bewegung einer Maus wird in kartesischen Koordinaten ausgedrückt – durch Werte für x und y
auf einem zweidimensionalen Gitter. Solche
Methoden für die Darstellung von Inputs gehören zu den Aufgaben der grafischen Benutzeroberfläche ( graphical user interface, GUI).
Bei Han erzeugt der Multi-Touch-Screen zehn
oder mehr Ströme von x- und y-Koordinaten
gleichzeitig, und »die herkömmlichen GUIs
sind für so viel Gleichzeitigkeit wirklich nicht
ausgelegt«, betont er. Die gängigen Betriebssysteme – Windows, Macintosh, Linux – wurden so stark auf nur einen Mauskursor ausgerichtet, dass »wir eine ganze Menge Installa­
tionen herausreißen mussten, um ein neues
Multi-Touch-Grafiksystem herzustellen«.
Wie Han dabei herausfand, lässt sich der
Acrylschirm auch durch eine dünn aufgetragene Kunststoffschicht druckempfindlich machen, die mit mikroskopischen Graten versehen ist. Wenn ein Nutzer fester oder leichter
Um ein Signal zu erzeugen, fluten Leuchtdioden den
Acrylschirm mit Licht, das darin durch Totalreflexion gefangen bleibt. Nur wenn ein Finger die Oberfläche berührt, wird Licht aus dem Schirm zu den Sensoren gestreut. Außerdem verbiegt sich eine druckempfindliche
Kunststoffschicht mehr oder weniger stark. Der Computer
interpretiert das dadurch stärkere oder schwächere Lichtsignal als mehr oder weniger Druck der Fingerspitze.
auf irgendeinen Punkt des Kunststoffs drückt,
verbiegt dieser sich mehr oder weniger, das Gebiet des Fingerabdrucks wird größer oder kleiner, das gestreute Licht wird stärker oder
schwächer – und das vermag die Kamera aufzuspüren. Indem der Nutzer fest auf ein virtuelles Objekt drückt, kann er es auf dem Schirm
hinter ein benachbartes Objekt schieben.
Das 2006 von Han gegründete PerceptivePixel-Team setzte all diese Elemente zusammen und führte das System im selben Jahr auf
der TED-Konferenz (für technology, entertainment and design) einem begeisterten Publikum
vor. Seither laufen immer mehr Bestellungen
ein. Über den Preis schweigt die Firma.
Microsoft kratzt an der Oberfläche
Während Han sein System perfektionierte,
verfolgten anderswo Techniker mit anderen
Mitteln das gleiche Ziel. Der Softwaregigant
Microsoft bringt gerade einen kleineren Multi-Touch-Computer namens Surface (Oberfläche) heraus. Im Jahr 2001 begannen Stevie
Bathiche von Microsoft Hardware und Andy
Wilson von Microsoft Research einen inter­
aktiven Computertisch zu entwickeln, der darauf platzierte physische Objekte zu erkennen
vermochte. Die beiden Neuerer stellten sich
vor, der Computertisch könnte als elektronischer Flipper, als Videopuzzle oder als Fotoalbum dienen.
Nach mehr als 85 Prototypen präsentierten
sie einen Tisch mit durchsichtiger Acrylfläche,
unter der ein Projektor sitzt (siehe Bild rechts).
Der Projektor wirft von unten Bilder auf den
waagerechten, 75 mal 75 Zentimeter großen
SPEKTRUM DER WISSENSCHAFT · März 2009
Technik & Computer
Auch Mitsubishi macht mit
Technisch interessant wirkt der DiamondTouch-Tisch der Start-up-Firma Circle Twelve
in Framingham (Massachusetts), die sich
kürzlich von den Mitsubishi-Forschungslaboratorien abgetrennt hat. Der ursprünglich bei
Mitsubishi entwickelte Tisch ist so eingerichtet, dass Außenstehende darauf Software für
eigene Zwecke schreiben können; mehrere
Dutzend Tische sind bereits in den Händen
von akademischen Forschern und kommerziellen Kunden.
DiamondTouch bezweckt, »die Zusammenarbeit kleiner Gruppen zu unterstützen«, sagt
Adam Bogue, Marketing-Vizepäsident bei Mitsubishi. Mehrere Personen sitzen rund um den
Tisch und sind mit einem Computer darunter
verbunden. Sobald ein Teilnehmer den Tisch
berührt, sendet ein in den Schirm eingebette­tes Antennenfeld extrem schwache Radiofrequenzen durch seinen Körper und den Stuhl zu
einem Empfänger im Computer; das Prinzip
ist als kapazitive Kopplung bekannt. Die jeweils
gekoppelten Antennen zeigen den Punkt auf
dem Schirm an, den die Person gerade berührt.
SPEKTRUM DER WISSENSCHAFT · März 2009
Intelligenter
Tisch
Infrarotkameras
Computer
Melissa Thomas
Schirm. Außerdem bestrahlt eine Leuchtdiode
den Tisch von unten mit Infrarotlicht, das von
Objekten an der Oberseite gestreut wird. Ein
Windows-Vista-Computer besorgt die Datenverarbeitung.
Microsoft liefert Surface-Computertische
an vier Partner in der Freizeit-, Einzelhandelsund Unterhaltungsbranche, von denen die Firma annimmt, sie würden die Technik am
ehesten anwenden. Zum Beispiel wird die Sheraton-Hotelkette versuchen, in ihren Lobbys
Surface-Computer zu installieren, mit denen
die Gäste im Internet surfen, Musik hören, digitale Fotos verschicken oder Essen und Trinken bestellen können. In amerikanischen TMobile-Läden werden Kunden in der Lage
sein, verschiedene Handymodelle zu vergleichen, indem sie diese einfach auf einen Surface-Schirm legen; schwarz gepunktete Dominosymbole auf der Unterseite der Handys werden das System veranlassen, Preis, Leistung
und Telefontarife darzustellen. Mit anderen
Microsoft-Programmen wird es möglich sein,
eine zu drahtloser Datenübertragung fähige
Digitalkamera einfach auf einen Surface-Computer zu legen, um ihre Aufnahmen ohne Kabelverbindung auf den Computer zu laden.
Surface-Systeme der ersten Generation kos­
ten 5000 bis 10 000 Dollar (3750 bis 7500
Euro). Mit steigendem Produktionsvolumen
dürfte der Preis sinken. Microsoft zufolge sollen Surface-Computer in drei bis fünf Jahren
zu den für Elektronikgeräte üblichen Marktpreisen erhältlich sein.
Projektor
Obwohl die Anordnung einschränkend anmutet, kann sie verfolgen, wer welche Inputs
macht, und sie kann jedem, der den Schirm
als Erster berührt, die Kontrolle überlassen. In
diesem Fall ignoriert das System andere Berührungen, die es durch die Sitzordnung registriert, bis der erste Nutzer seine Eingaben
abgeschlossen hat. Das System kann auch verfolgen, wer welche Anmerkungen zu Bildern
macht, etwa zu Bauplänen.
Parsons Brinckerhoff, eine weltweit agierende Firma für Infrastrukturtechnik mit
Hauptsitz in New York, experimentiert mit
den Tischen und hat vor, weitere zu kaufen.
»Im Lauf eines Großprojekts führen wir Tausende von Meetings durch«, berichtet Timothy Case, zuständig für Visualisierung. »Wir
könnten mehrere Tische an verschiedenen Orten haben, und jedermann kann sich dieselbe
Sache ansehen.«
Sowohl DiamondTouch als auch Perceptive
Pixel bieten virtuelle Tastaturen, damit man
auf dem Schirm Texte tippen kann. Doch für
diese technisch simple Tätigkeit wurden die
dynamischen Systeme nicht entwickelt. Die
große Stärke des Multi-Touch-Prinzips ist,
dass mehrere Menschen zusammen an einer
komplexen Aufgabe arbeiten können. Wir erinnern uns kaum noch, wie befreiend die
Maus erschien, als sie vor rund 25 Jahren das
langwierige Klappern auf den Richtungstasten
erübrigte. Bald könnten uns sensible Displays
die allgegenwärtige Maus ersparen. »Nur sehr
selten stößt man auf eine wirklich neue Benutzeroberfläche«, meint Han. »Wir stehen erst
ganz am Anfang dieser Sache.«
Leuchtdiode
Im Surface-Computer
von Microsoft sendet
ein Projektor die Bilder
aufwärts durch die waagerechte Acrylplatte. Eine Leuchtdiode bestrahlt
den Tisch von unten mit
Infrarotlicht, das von Objekten oder Fingern zu
mehreren Infrarotkameras zurückreflektiert wird.
Ein Computer berechnet
daraus die Fin­ger­be­we­
gungen oder identifiziert die Objekte­.
Stuart F. Brown schreibt über technische Neuerungen. Er lebt in
Irvington (US-Bundesstaat New
York).
Eine detaillierte Geschichte
von Multi-Touch-Systemen bietet
http://www.billbuxton.com/
multitouchOverview.html
Eine Videodemonstration
des Perspective-Pixel-Systems
finden Sie unter http://www.
perceptivepixel.com
Weitere Weblinks zu diesem Thema
finden Sie unter www.spektrum.de/
artikel/979760.
99
Wissenschaft & Karriere
»Von der Forschung
bis zur Produktion«
Siemens AG
Martin Stetter, geboren 1964, studierte
Physik an der Universität Regensburg.
Nach seinem Diplom 1990 arbeitete er
dort als EDV-Beauftragter und promovierte
in Biophysik an der Fakultät für Biologie.
Anschließend habilitierte Stetter sich am
Institut für Informatik der Technischen
Universität Berlin mit einer Computer­
simulation neuronaler Prozesse in der
Großhirnrinde. Von 2000 bis 2008
forschte er im Grenzgebiet von Medizin,
Informatik und Physik bei der Siemens AG
in München und leitete bis 2007 das Team
»Bioanalog Technologies and Solutions«
mit etwa einem Dutzend Mitarbeitern. Ab
dem Sommersemster 2009 hat Stetter eine
Professur für Bioinformatik und Datenbanken an der Fachhochschule Weihenstephan inne. Sein Hobby: Seit seinem 18.
Lebensjahr fährt Martin Stetter Motorrad­.
100 Seit acht Jahren forscht Martin Stetter bei der Siemens Corporate Technology in München über wissensbasierte Medizin,
künstliche In­telligenz und maschinelles Lernen. Demnächst
wechselt­der »Siemens-Forscher des Jahres 2008« an die Fachhochschule Weihenstephan.
Spektrum der Wissenschaft: Sie studierten Physik, Ihre ersten Schritte ins
Berufsleben führten dann aber in eine
andere Richtung. Warum?
Martin Stetter: Als ich 1990 an der Universität von Regensburg mein Diplom
machte, war der Arbeitsmarkt für Physiker ein Desaster. Deshalb bewarb ich
mich in der Verwaltung der Regensburger Universitätsklinik um den Posten des
EDV-Beauftragten. Von da an kümmerte ich mich um EDV-Management,
Systemadministration, Medizintechnik
und anderes mehr. Finanziell abgesichert, aber keineswegs ausgelastet promovierte ich in dieser Zeit in Biophysik
an der Fakultät für Biologie. Damit begannen meine interdisziplinären Projekte
im Bereich der Hirnforschung.
Spektrum: Nach vier Jahren kehrten Sie
in den Schoß der Universität zurück.
Stetter: Der Job als EDV-Beauftragter
hat mir großen Spaß gemacht, und diese
erste Berufserfahrung außerhalb des akademischen Bereichs war sehr wichtig für
mich. Aber ich wollte meine Projekte
und Ziele wieder selbst bestimmen und
zudem in der Hirnforschung vorankommen. Während meiner Doktorarbeit hatte ich bereits auf Kongressen Kontakte
geknüpft. Daraus ergab sich nun an der
TU Berlin das Angebot einer Post-DocStelle im Bereich Neuroinformatik. Das
war eine gute Chance, weiter interdisziplinär zu arbeiten und mich dort auch zu
habilitieren.
Spektrum: Was war denn Ihr Forschungsthema?
Stetter: Es ging um die Funktion der
Großhirnrinde, insbesondere die Signalverarbeitung im Prozess des Sehens.
Dazu bildete ich mit Computermodellen die Funktionsweise von einzelnen
Nervenzellen bis hin zu ganzen Konglomeraten nach.
Spektrum: Und – erlebten Sie die grenzenlose Freiheit des Forschens?
Stetter: Ja, schon. An der Universität
konnte ich eigenverantwortlich arbe­iten
und musste mir lediglich die notwendigen
Mittel beschaffen. Als Hemmschuh empfand ich nur den schwerfälligen Verwaltungsapparat. Um jeden Raum, um jede
Hilfskraft wurde hartnäckig gekämpft. Da
ging wertvolle Energie verloren. Außerdem hatte man früher als wissenschaftlicher Assistent viele Pflichten und wenig
Rechte. Das hat sich inzwischen durch die
Juniorprofessur verbessert. Sehr gut gefallen hat mir aber die Lehrtätigkeit. Deshalb unterrichte ich auch jetzt noch als
Privatdozent an der Technischen Universität München.
Spektrum: Nach vier Jahren hatten Sie
Ihre Habilitation abgeschlossen und nahmen ein Angebot von Siemens an, in der
konzernübergreifenden Forschungsabteilung zu arbeiten. Wie ticken Industrieforscher im Unterschied zur Universität?
Stetter: An der Hochschule forscht man
interessen-, in der Industrie problemgetrieben. Wenn der Konzern beschließt,
SPEKTRUM DER WISSENSCHAFT · März 2009
Technik & Computer
Siemens AG
mit einer neuen Technologie Geschäftsfelder zu erschließen, gibt es genaue Vorgaben, wann welches Ziel zu erreichen ist.
In der Vorfeldforschung muss man sich
dann einiges überlegen: Gehen wir Ko­
operationen mit Instituten ein, die in der
fraglichen Technologie bereits führend
sind? Oder bauen wir selbst Kompetenzen
auf? Wenn es dann ein marktfähiges Produkt gibt, welche Abteilung des Konzerns
oder welcher Zulieferer kann es herstellen?
In dieser Position benötigt man den Gesamtüberblick von der Forschung bis zur
Produktion, was mir aber auch sehr liegt.
Ein Forscher an der Universität hingegen
konzentriert sich in der Regel ausschließlich auf die Grundlagenforschung und auf
die Entwicklung neuer Technologien.
Spektrum: Wie groß ist Ihr Freiraum, um
eigene Vorstellungen zu verwirklichen?
Stetter: Wenn man einmal das Management von einer Idee überzeugt hat, bekommt man auch schnell die erforderlichen Mittel. Wenn allerdings nicht
rasch deutlich wird, dass die Idee zu
einem Produkt oder zu einer Dienstleis­
tung führt, ist das Projekt möglicherweise auch bald wieder vom Tisch. Damit
muss ich leben. Insgesamt überwiegen
die Erfolgserlebnisse.
Spektrum: Unterscheiden sich die von
denen an der Universität?
Stetter: Wenn man ein wissenschaftliches
Problem akademisch löst, zieht man viel
Befriedigung aus dem reinen Erkenntnisgewinn. Man hat die Welt wieder ein
SPEKTRUM DER WISSENSCHAFT · März 2009
Stück weit enträtselt, was sich häufig allerdings nur in Form einer Fachpublikation manifestiert. In der Industrie münden Forschungsaufträge in konkrete Anwendungen. So habe ich mit meinem
Team die Informatikplattform GeneSim
entwickelt, die mittels künstlicher Intelligenz Gen- und Proteindaten sowie medizinische Fachliteratur auswertet, um die
molekularen Wechselwirkungen in der
Zelle zu erforschen und bessere Diagnosen zu ermöglichen.
Spektrum: Die Erfüllung eines Industrieforschers schlägt sich also nicht unbedingt nur im materiellen Erfolg nieder?
Stetter: Eine Entwicklung muss sich auf
dem Markt durchsetzen, sonst ist sie für
den Konzern langfristig uninteressant.
Wenn sie gleichzeitig auch noch vielen
Menschen hilft, ist das umso schöner.
Das eine bedingt dabei das andere: Ein
hoher Nutzen für die Kunden, in dem
Fall Ärzte und Patienten, führt zu einer
hohen Nachfrage und die wiederum
zum geschäftlichen Erfolg. Wir haben
beispielsweise einen molekularen Test
mitentwickelt, der die Art des Tumors
bei an Brustkrebs erkrankten Frauen in
einem sehr frühen Stadium genau bestimmt. Das ist für die richtige Behandlung von großer Bedeutung.
Spektrum: Können Sie sich vorstellen,
wieder an die Universität zu wechseln?
Stetter: Tatsächlich habe ich zum Sommersemester 2009 eine Professur an der
Fachhochschule Weihenstephan ange-
Per Mausklick lässt sich bei GeneSim die
Aktivität einzelner Gene variieren, mathematische Modelle überprüfen dann den
Einfluss auf andere Gene. Das Programm
liefert so wichtige Hinweise, an welchen
Stellen neue Medikamente angreifen
sollten. Ähnlich lassen sich Diagnostika
entwickeln: Findet man mit GeneSim das
für eine Erkrankung relevante Gen, kann
man Marker kreieren, die daran andocken
und es sichtbar machen.
nommen. Bei Siemens konnte ich mich
sehr gut weiterentwickeln. Aber nun reizt
mich die Aufgabe, junge Menschen in
die Welt der Forschung und Entwicklung
im Bereich der Lebenswissenschaften einzuführen. Es ist mir dabei wichtig, ihnen
sowohl die Forschungs- als auch die Business-Sicht nahezubringen – nur so sind
sie optimal für den Einsatz in der Industrie gerüstet. Die Professur für Bioinformatik und Datenbanken an der FH Weihenstephan bietet die dazu nötige Eigenständigkeit und Freiheit.
Spektrum: Warum ausgerechnet eine
FH und nicht die Universität?
Stetter: Als langjähriger Industrieforscher war und ist mir wichtig, dass sich
Forschungsarbeiten an der Anwendung
orientieren. Das steht an der Universität
naturgemäß meist nicht im Vordergrund. Auf der anderen Seite wird die
Bedeutung von Fachhochschulen für den
Nachwuchs der europäischen Industrie
immer noch stark unterbewertet. Das
soll sich jetzt ändern: Absolventen führen immer häufiger an ihren Fachhochschulen von der Industrie geförderte Forschungsprojekte durch. Außerdem sind
diese FHs mit Universitäten vernetzt, so
dass die jungen Forscher auch promovieren können. Der Aufbau solcher Strukturen in Weihenstephan ist ein wesentlicher Teil meiner neuen Aufgabe.
Das Interview führte die Münchner Wissenschaftsjournalistin Katrin Nikolaus.
101
REZENSIONEN
Astronomie
Gute Ideen,
leider 2000 Jahre zu früh
Erst als Kopernikus die Ideen des Aristarch von Samos
aufgriff, entfalteten sie Wirkung.
E
s ist schon abenteuerlich, sich in die Tiefen der griechischen Antike zu begeben.
Das eine ist das Abenteuer des Geistes, da
von den Vorsokratikern über Aristoteles bis
zu Ptolemäus viele der grundlegenden
Ideen in die Welt gesetzt wurden, von denen wir noch heute zehren. Das andere ist
das belletristische Abenteuer einer Zeitreise in eine Gesellschaft, die uns 23 Jahrhunderte später nur schwer zugänglich ist und
vor allem nur fremd sein kann.
Gerade über Aristarch von Samos, der
von 310 bis 230 v. Chr. lebte, ist reichlich
wenig bekannt. Allein sein Buch Ȇber die
Größen und Entfernungen der Sonne und
des Mondes« ist in einer Abschrift überliefert. Archimedes schreibt ihm in seinem
Buch »Der Sandzähler« den Gedanken einer
beweglichen und sich drehenden Erde in einer heliozentrierten Planetenwelt zu (Spektrum der Wissenschaft 2/2009, S. 42) – ein
Sakrileg für alle Geozentristen und damit
für den Rest der damaligen Welt. Dabei war
neu, dass Aristarch als Erster sein Himmelsmodell astronomisch begründete. Koper­
nikus erwähnte sein Werk in frühen Fassungen seines Opus summum »De Revolu­
tionibus«, ließ aber den Hinweis in späteren Versionen wieder fallen – warum auch
immer.
Thomas Bührke, selbst ausgebildeter Astronom und Fachjournalist, hat sich in seinem Wissenschaftsroman in beide Abenteuer gestürzt. Was das Buch so lesenswert
macht, ist natürlich die Debatte um die frühen naturphilosophischen oder naturwissenschaftlichen Ideen. Da gerät etwa der
Lehrer von Aristarch ins Bild: Straton von
Lampsakos. Der Philosoph, auch »der Physiker« genannt, der einige Korrekturen an den
Lehren des Aristoteles anbrachte, weilte
zeitweise am Hof in Alexandria, als Erzieher
des späteren Königs Ptolemaios II. Dort waren unter den Ptolemäern die weltgrößte Bibliothek und das Museion entstanden, eine
Art Forschungsinstitut, das Wissenschaftler
und Künstler versammelte, darunter Euklid.
Wie der Autor selbst erläutert, ist unbekannt, wo Aristarch lebte und forschte. Gesichert ist, dass er die sphärische Sonnenuhr
erfand und als erster Mensch die Entfernungen und Größen von Sonne und Mond
mit einer astronomischen Messung am Halbmond bestimmte. Diese Beobachtung liefer-
Biophysik
Elektrische Schläge
statt Küsse
Der Biophysiker Roland Glaser vermittelt einen fundierten
Einblick in den Bioelektromagnetismus.
»A
lzheimer durch Computer?«, »Gefahr
aus der Steckdose«, »Wenn Strom krank
macht«, »Mit dem Handy kam die Angst«.
Solche Schlagzeilen zeigen, dass viele Menschen sich latent vor dem Einfluss von Sendemasten, Hochspannungsleitungen, Elektronikgeräten oder Mobiltelefonen fürchten.
Das ist im Prinzip nachvollziehbar: All diese
Konstrukte erzeugen um uns herum ein
»Funkfeuer« von elektrischen und magnetischen Feldern, dem wir permanent ausgesetzt sind und das es in der natürlichen Umgebung nicht gibt. Die Frage drängt sich
102
geradezu auf, ob diese Felder unserer Gesundheit schaden.
Roland Glaser, 30 Jahre lang Professor
für Biophysik an der Humboldt-Univer­sität
zu Berlin und seit 2000 im Ruhestand, ist
zweifellos sachkundig. Er hat zahlreiche
Fach- und Lehrbücher zu Biophysik und
Biologie verfasst und das Bundesamt für
Strahlenschutz ebenso wie die Forschungs­
gemeinschaft Funk in Bonn als Experte für
die Wirkung elektromagnetischer Felder auf
den menschlichen Organismus beraten.
Sein Buch behandelt die wissenschaftlichen
te ihm die Grundlage für die Abschätzung,
dass die Sonne wesentlich größer sein müsse als die Erde. Diese Erkenntnis könnte der
Anlass für seine These des heliozentrischen
Weltbilds gewesen sein.
Höhepunkt des Buchs ist aber zweifellos
das fiktive Streitgespräch zwischen Aris­
tarch und Kleanthes, einem stoischen Philosophen aus Athen. Verbürgt daran ist die
Notiz von Plutarch, dass Kleanthes gefordert habe, Aristarch wegen Gottlosigkeit
anzuklagen; und zwar »dafür, dass er den
Herd des Universums (die Erde) in Bewegung versetzt habe unter der Annahme, der
Himmel befände sich in Ruhe und die Erde
drehe sich in einem schiefen Kreis und rotiere dabei um ihre eigene Achse«.
Der historische Streifzug durch das antike Alexandria liest sich angenehm – und
führt einen kundig durch die physikalische
und astronomische Gedankenwelt, die in
manchem bereits so modern war wie
vieles, was noch heute über die Natur gedacht wird.
Reinhard Breuer
Der Rezensent ist habilitierter Physiker und Chefredakteur von »Spektrum der Wissenschaft«.
Thomas Bührke
Die Sonne im Zentrum
Aristarch von Samos
Roman der antiken Astronomie
C.H.Beck, München 2009.
267 Seiten, € 16,90
Grundlagen; es informiert über gesundheitli­
che Risiken und die Therapiemöglichkeiten
elektromagnetischer Felder.
Das Sortiment der Themen ist bunt gemischt: elektrische Felder in Zellen und Organismen, Methoden der Elektromedizin,
Magnetsinn bei Tieren, elektrische Fische,
atmosphärische Entladungen wie Blitze und
Elmsfeuer, Risiken des Mobilfunks, elektrische Felder in der Biotechnologie, das Phänomen der Wünschelrutengänger.
Auf die Frage, ob die immer wieder geschürte Angst vor »Elektrosmog« gerechtfertigt ist, antwortet der Autor mit einem
klaren Nein. Wissenschaftlich gesehen sei
eigentlich klar, dass unterhalb der geltenden Grenzwerte keine nachweisbaren Gefahren durch solche Felder lauern.
Das Buch richtet sich an ein breites
Publi­kum, ist fachkundig geschrieben, interessant und unterhaltsam. Es ist in kompak­
te, übersichtliche Kapitel gegliedert, die in
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
Das Spektrum der elektromagnetischen Wellen im Überblick, vom langsamen Wechselstrom der Eisenbahn bis zur energiereichen
radioaktiven Strahlung
die Kategorien »magnetisches Feld«, »elektrisches Feld« und »elektromagnetische
Schwingungen und Pulse« eingeordnet sind.
Zahlreiche Verweise auf die Fachliteratur
belegen eine gründliche Recherche.
Immer wieder präsentiert Glaser erstaunliche Forschungsergebnisse, etwa im
Kapitel über elektrische Fische. Ein Hai
kann elektrische Felder von wenigen Mikrovolt pro Meter spüren. Das entspricht einer
1,5-Volt-Batterie, deren Pole tausend Kilometer voneinander entfernt ins Meer getaucht werden! »Gäbe es nicht … bestätigende Messungen, der Biophysiker könnte
seine Zweifel nicht zurückhalten.«
Der Text enthält viele geschichtliche
Rückblicke sowie Zitate aus Literatur und
Philosophie – für ein wissenschaftliches
Buch ungewöhnlich, doch hier sehr nützlich. So beschreibt Glaser, wie Elektrizität
und Magnetismus entdeckt wurden und
welche geheimnisvollen Kräfte man ihnen
zuschrieb. Noch Nikolaus Kopernikus und
Johannes Kepler glaubten, der Magnetismus
sei ein seelisches Prinzip, das alle Körper
durchdringe und sogar das Planetensystem
zusammenhalte. Solche Vorstellungen waren jahrhundertelang verbreitet und finden
sich heute noch in esoterischen Heilmetho-
Mathematik
Mathe mal anders
Vergessen Sie Ihre Vorurteile. Dieses Buch dürfte selbst den
letzten Zweifler von Nutzen und Schönheit der Mathematik
überzeugen.
D
ie Mathematik hat ein Imageproblem:
Schon in der Schule vergraulen schwer
verdauliche Formelsammlungen die Genies
von morgen. Zu abstrakt, kaum inspirierend
und nur wenigen Auserwählten verständlich – so lautet allzu oft das vernichtende
Urteil. Und wozu all die stupide Rechnerei
mal gut sein soll, bleibt den meisten zeitlebens ein Rätsel. Ein hoffnungsloser Fall?
Mit ihrem Buch »Wie man den Jackpot
knackt« beweisen Edward B. Burger und Michael Starbird das Gegenteil. So humorvoll,
spannend und anschaulich bekommt man
Mathematik höchst selten präsentiert! Starbird, Professor an der University of Texas in
Austin, erhielt für seine pädagogischen
Leistungen bereits mehrere Auszeichnun­
gen; sein Fachkollege Burger vom Williams
College in Williamstown (Massachusetts)
versuchte sich schon als Stand-up-Comedian. So gestaltet sich die Lektüre ihres Werks,
das vier Kapitel mit jeweils drei unabhängig
den wieder. Aus ihnen erklärt sich wohl zum
Teil die Furcht vor »Elektrosmog« und »Störfeldern«.
Der Rückblick fördert auch Amüsantes
zu Tage. Ein beliebter Zeitvertreib im 18.
Jahrhundert war die »Venus electrificata«,
eine Dame, die elektrostatisch aufgeladen
auf einer isolierenden Schaukel saß und
verwegenen Kavalieren statt süßer Küsse
elektrische Schläge erteilte.
Hin und wieder erfordert der Text naturwissenschaftliche Vorkenntnisse, und an
manchen Stellen vermisst man erläuternde
Abbildungen. Insgesamt ist »Heilende Magnete – strahlende Handys« jedoch ein
empfehlenswertes Buch.
Frank Schubert
Der Rezensent ist promovierter Biophysiker und
Wissenschaftsjournalist in Heidelberg.
Roland Glaser
Heilende Magnete – strahlende Handys
Bioelektromagnetismus:
Fakten und Legenden
Wiley-VCH, Weinheim 2008.
350 Seiten, € 24,90
voneinander lesbaren Abschnitten umfasst,
denn auch angenehm leicht und locker –
trotz der vermeintlich schweren Kost.
Aus den verschiedensten Teildisziplinen
der Mathematik haben sich die Autoren die
Leckerbissen herausgepickt. So beschreiben sie, was der Fortpflanzungserfolg von
Kaninchen mit der geheimnisvollen Fibonacci-Folge zu tun hat. Oder wie die Mathematik Einzug in Kunst und Architektur hielt.
Wie man mit Statistik lügt. Oder wie man
aus einem einfachen Streifen Papier ein
Möbiusband bastelt, jenes wundersam verschlungene Objekt mit nur einer Oberfläche
und einer Kante. Würde eine Ameise darauf
Die aperiodische Windradparkettierung: Es
gibt keine Parallelverschiebung, die dieses –
im Prinzip unendlich ausgedehnte – Muster
aus lauter gleichen Dreiecken mit sich selbst
zur Deckung bringen könnte.
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009 103
REZENSIONEN
gesetzt und wie auf Eschers berühmtem
Bild auf diesem entlanglaufen, käme sie
zwangsläufig zu ihrer Ausgangsposition zurück – allerdings kopfüber.
Zu jedem Kapitel macht eine kurze Einführung Appetit auf vermeintlich abstrakte
Themen wie n-dimensionale Räume oder
die Erkundung der Unendlichkeit. Ein Beispiel: Jemand wirft zehn Tischtennisbälle in
eine Tonne, nimmt einen davon anschließend sofort wieder heraus und wiederholt
beides – Einwerfen und Herausnehmen –
unendlich oft. Wie viele Bälle befinden sich
hinterher noch im Behälter? Die überraschende Antwort: gar keiner!
Burgers und Starbirds Reisen in die Unendlichkeit halten etliche derart kontraintuitive und deshalb umso erstaunlichere Ge-
schichten parat – wie etwa das von David
Hilbert erdachte »Gasthaus zur Unendlichkeit« (Spektrum der Wissenschaft 4/2000,
S. 112, und 5/2000, S. 112). Hilberts Hotel
hat unendlich viele Zimmer. Ordentlich
nummeriert bei eins beginnend, bieten sie
bei Auswärtsfahrten sogar jener Baseballmannschaft Platz, die ihren Kader auf unendlich viele Spieler aufgebläht hat. Jeder
Spieler bezieht das Zimmer, dessen Nummer der Zahl auf seinem Trikot entspricht.
Findet sich nun noch ein Zimmer für den
verspäteten Vereinspräsidenten, oder muss
ihn der Wirt an der Tür abweisen? Mit einem
Trick macht er Platz: Er bittet jeden Spieler,
in das Zimmer mit der nächsthöheren Nummer umzuziehen. Am Ende des großen
­Umzugs hat jeder Spieler weiterhin einen
Mathematik
Kinderspiel mit Tiefgang
Mit dem Satz des Thales oder dem Induktionsprinzip
lassen sich erstaunliche Kunststücke anstellen.
N
a ja, genau genommen geht es nicht
darum, den Jungen zu entlarven, der
in der großen Pause seinem Klassenkameraden die Schokolade gemopst hat.
Vielmehr soll derjenige, der die Tat be­
obachtet hat, den Übeltäter für den Bestohlenen erkennbar machen, ohne ihn
beim Namen zu nennen. Das geht ganz
einfach: Man sortiert alle Kinder in eine
Tabelle (»Matrix«) und bezeichnet den
Übeltäter durch Angabe von Zeile und
Spalte – ein bisschen verschleiert, damit
es nicht so auffällt.
Die Mathematikerin und Physikerin
Carla Cederbaum, Jahrgang 1980, illustriert jeden ihrer 25 Zaubertricks mit einer hübschen Geschichte, mit der sie die
Neugier ihrer kindlichen Leser weckt.
Dann erklärt sie im Einzelnen, wie der
Trick auszuführen ist. Die Sache mit dem
Schokoladendieb ist mathematisch sehr
simpel und dennoch für Zuschauer sehr
reizvoll. Andere sind anspruchsvoller;
zur Orientierung ist das mathematische
Niveau jedes Tricks am Anfang der Geschichte angegeben. In der bunten Mischung von einfachen und schwierigen
Aufgaben ist für jedes Kind etwas dabei.
Zu jedem Zaubertrick werden in
einem dritten Teil die mathematischen
Hintergründe erklärt. Wer das lesen und
104
verstehen kann, kommt spielerisch mit
weit reichenden Zusammenhängen der
Mathematik in Berührung. Das geht bis
zur Intervallschachtelung, zum Induktionsbeweis und zu Begriffen der Zahlentheorie.
Auch Kinder, denen diese teilweise
recht komplizierten Erläuterungen zu anspruchsvoll sind, können die Tricks problemlos durchführen und mit Überzeugung dem Publikum vorstellen. Geübte
Leser entwickeln den Ehrgeiz, ohne diese
Hilfestellung auf die Lösung zu kommen,
und finden sich hinterher beim Nachlesen freudig bestätigt.
Dieses Buch eignet sich nicht nur
zum Vorlesen und gemeinschaftlichen
Einüben. Ältere Kinder können genauso
gut eigenständig die Tricks erarbeiten
und damit die ganze Familie und Freunde
beeindrucken.
Alle rezensierten Bücher können Sie in
unserem Science-Shop bestellen
direkt bei: www.science-shop.de
per E-Mail: [email protected]
telefonisch: 06221 9126-841
per Fax: 06221 9126-869
Raum, und der Vereinspräsident kommt
­bequem in Zimmer 1 unter. Offensichtlich
nimmt die Größe einer unendlichen Menge
durch Hinzufügung endlich vieler Elemente
nicht zu!
Die Autoren haben etliche solch anschaulicher Geschichten gesammelt und zu einem
Gesamtbild zusammengefügt, das die ungeheure Vielfalt der Mathematik zeigt. Mitunter erinnert das Buch an eine Sammlung von
Kuriositäten, die stets aufs Neue zum Staunen einladen. Formeln würden da nur stören, weshalb Burger und Starbird von vornherein auf sie verzichtet haben.
Gewiss, für Kenner des Fachs dürften die
meisten Geschichten längst alte Hüte sein.
Und natürlich lassen sich spezielle mathematische Verfahren nicht auf wenigen Seiten in ihrer ganzen Tiefe abhandeln. Aber
das ist nicht weiter schlimm, richtet sich
das Buch doch in erster Linie an interessierte Laien, denen die Autoren so zumindest
eine Idee vermitteln.
Zu den Themen zählen auch solche mit
praktischer Bedeutung, wie die Kryptografie
mit veröffentlichtem Schlüssel (public key
cryptography), mit der Zahlungsverkehrsdaten und andere empfindliche Informationen vor unbefugten Augen und insbesondere vor Verfälschung geschützt werden
(Spektrum der Wissenschaft 5/1995, S. 46,
und Spezial 2/2008 »Ist Mathematik die
Sprache der Natur?«, S. 21). Schritt für
Schritt veranschaulichen die Autoren das
zugehörige RSA-Verfahren und spornen
dazu an, auch mal selbst zum Taschenrechner zu greifen.
Ein empfehlenswertes Buch, das allen
Mathe-Muffeln ans Herz zu legen ist, die ihr
Trauma aus der Schulzeit endlich überwinden wollen.
Maud Hettinger
Die Rezensentin ist Referendarin für das Lehramt in Mathematik in Luxemburg.
Christoph Marty
Der Rezensent studiert Wissenschaftsjournalismus mit Schwerpunkt Biometrie und arbeitet als
freier Redakteur in Dortmund.
Carla Cederbaum
Wie man einen Schokoladendieb entlarvt
… und andere mathematische Zaubertricks
Edward B. Burger, Michael Starbird
Wie man den Jackpot knackt
Zufall, Wahrscheinlichkeit und all der Zauber
mit Zahlen
Herder, Freiburg 2008.
159 Seiten, € 14,95
Aus dem Englischen von Hubert Mania.
Rowohlt Taschenbuch Verlag, Hamburg 2007.
374 Seiten, € 9,90
SPEKTRUM DER WISSENSCHAFT · MÄRZ 2009
Vermischtes
Und täglich grüßt die Glosse
Das »Murmeltier-Buch« trägt Berichte aus der Forschung in und
um Braunschweig zusammen – die Stadt der Wissenschaft 2007.
A
ls Braunschweig sich im Jahr 2007 mit
dem Titel »Stadt der Wissenschaft«
schmücken durfte, schrieben eine 15-köpfige Redaktion sowie einige andere Autoren
Tag für Tag eine Glosse über den Forschungsalltag der gesamten Region im Internet und in einer lokalen Zeitung. Vom
Projektnamen »Und täglich grüßt die Wissenschaft« zum Murmeltier war es dann nur
noch ein Katzensprung, schreibt der Redakteur Jens Simon. Alle 304 Kolumnen lassen
sich nun mitsamt einem eher sachlichen Begleittext in eben diesem Murmeltier-Buch
nachlesen. Neben Universitäten und Museen sorgen beispielsweise auch die Deutsche Sammlung von Mikroorganismen und
Zellkulturen, die Hochschule für Bildende
Künste oder das Luftfahrt-Bundesamt für
Inhalte.
Entsprechend vielfältig sind die Geschichten. Quadratische Bakterien tummeln
sich in »einem Ambiente mit dem Salzgehalt von Sojasauce«. Haloquadratum ist
platt wie eine Briefmarke und ebenso eckig:
40 mal 40 Mikrometer, schildert die Autorin. Eingebaute Gasbläschen lassen den
Exoten willenlos an der Oberfläche der Lauge umhertreiben.
In der Bundesforschungsanstalt für
Landwirtschaft kann ein neu entwickelter
Kuh-Dolmetscher immerhin schon zwischen
sieben Rufen unterscheiden – darunter Anliegen wie Hunger, prall gefülltes Euter oder
Empfängnisbereitschaft. Den Forschern der
Physikalisch-Technischen Bundesanstalt gelingt es, mittels optischer Verfahren (Interferometer) Krümmungen von Flächen mit
einer Genauigkeit von unter einem Nanometer zu messen.
Leider ist das ganze Buch der Handlung
des Murmeltier-Films – täglich die gleiche
langweilige Geschichte – näher, als ihm lieb
sein kann. In Braunschweig ist 2007 durchaus wissenschaftlich Interessantes passiert – aber eben nicht, um jeden Tag eine
Glosse zu füllen. Für die Zusammenstellung
im Buch hätten die Herausgeber die Hinweise auf längst vergangene Ausstellungen
und Vorträge, die versteckte Reklame für lokale Forschungseinrichtungen oder die Experimentierlandschaft »phaeno« in Wolfsburg sowie etliche mühsam auf das Thema
hingequälte Glossen besser weggelassen.
Dann wäre vielleicht auch Platz gewesen für
eine etwas detailliertere Beschreibung, die
man bei einigen Themen vermisst.
Auf der Internetseite www.braunschweig.
de/murmeltier können Sie alle Glossen kostenlos nachlesen.
Maike Pollmann
Die Rezensentin ist Diplomphysikerin und freie
Wissenschaftsjournalistin in Heidelberg.
Sylvia Borchardt, Erika Schow, Jens Simon (Hg.)
Das Murmeltier-Buch
»Und täglich grüßt die Wissenschaft«
Glossen (und mehr) aus Leben, Technik, Kultur
Johann Heinrich Meyer, Braunschweig 2008.
352 Seiten, € 14,80
IHRE VORTEILE ALS ABONNENTT VON
Als Abonnent erhalten Sie Spektrum der Wissenschaft zum Vorzugspreis
spreeis von nur
and und
u haben
€ 79,20 (ermäßigt auf Nachweis € 66,60) inkl. Versandkosten Inland
Zugriff auf das Archiv des Magazins.
Unter www.spektrum.de/plus finden Sie weitere Vorteile:
• Ihren persönlichen Mitgliedsausweis zum Herunterladen mit zahlreichen Vergünstigungen bei vielen wissenschaftlichen Einrichtungen,
Museen und Filmtheatern,
• einen monatlichen Bonusartikel und den Zugriff auf das Archiv mit allen
bisher erschienenen Bonusartikeln,
• kostenlose Downloads verschiedener Hefte der Spektrum der Wissenschaft Verlagsgesellschaft mbH,
• das spektrumdirekt-Premiumabo zum Vorteilspreis und natürlich
• ein vergünstigtes Produkt des Monats
Wissen aus erster Hand
www.spektrum.de/plus