Teil 3  Weissagen als Wissenschaft      Start    Weiter 

16. Modellwelten 

 

Captain Fitzroy und die Wettervorhersage. # Die Welt als rotierende Schüssel. # Schon 1975 hatten sie Recht – fälschlicherweise. # Pinatubo-Prognosen. # Eine schwarze Kugel und der Aufstand der Skeptiker. # Zehn globale Zirkulationsmodelle und wie Wolken das Problem vernebeln. # Spuckende Ahnen. # Können wir mehr Gewissheit haben – und können 90.000 PCs sich irren? # Was ist mit mir? # Fragen ist menschlich – oder man lässt es lieber. # Regionalprognosen und Rückkopplung. #  Das Ende des englischen Gartens?

 

Wir haben die gesamte natürliche Welt zu unserem Labor gemacht, aber das Experiment ist aus Versehen losgegangen und daher nicht so angelegt, leicht zu entziffernde Resultate zu erbringen ... Es gibt beunruhigende Anzeichen, dass ... die Modelle die Klimafolgen der Treibhausgasanhäufung eher unter- als über­schätzen.  (Lee Kump, <Reducing Uncertainty about Carbon Dioxide As a Climate Driver>, NASA, 2002)

 

179-192

Die Wissenschaft, die Auswirkungen der globalen Erwärmung auf das Klima der Erde zu prognostizieren, hat ihre Ursprünge in der Wettervorhersage. Unter der Leitung von Captain Fitzroy (berühmt wegen Darwin und der <Beagle>) war der britische Wetterdienst eine der ersten Institutionen, die eine wissen­schaftlich fundierte Wettervorhersage entwickelten. 

Seit Gründung der <United Nations Meteorological Organization> werden heute sämtliche wissen­schaftlichen Aktivitäten, die mit dem Klima und dem Wetter zu tun haben, weltweit koordiniert. 185 Länder beteiligen sich an diesem Programm, und zusammen betreiben sie 10.000 Beobachtungs­stationen zu Lande, 7000 auf Schiffen und zehn Satelliten.

Das Basiswerkzeug für Klimawandel-Vorhersagen ist ein Computermodell der Erdoberfläche und der auf ihr ablaufenden Prozesse. Die Wissenschaftler variieren dann die Ausgangsdaten, was ihnen beispielsweise zu sehen erlaubt, wie unser Klima auf eine Verdopplung des CO2 in der Atmosphäre reagieren könnte oder wie sich das Ozonloch auf das Klima auswirken wird. Frühe Modelle beschränkten sich darauf, Kreisläufe in der Atmosphäre zu untersuchen. Deshalb werden diese Modelle — selbst die ausgeklügelten, die alles vom Kohlenstoffzyklus bis zur Vegetation simulieren — pauschal als »globale Zirkulationsmodelle« bezeichnet. 

Vor gut 50 Jahren war das aufwendigste Zirkulationsmodell der Erdatmosphäre eine mit Wasser gefüllte flache Schüssel, die in einem Labor an der University of Chicago auf einem Drehteller rotierte, während ihr Rand von einer Flamme erhitzt wurde, die die Tropensonne darstellte.1) So primitiv dieses Modell war, zeigte es doch die Strömungen in derselben relativen Position wie in der Realität der roaring forties, dem Sturmgürtel zwischen dem 39. und dem 50. Breitengrad. Und zur Überraschung ihres Erfinders produzierte die Wasserschüssel sogar einen Modell-Jetstream und Wirbel, die an Stürme erinnerten. Vom Erfolg ihrer Experimente beflügelt, hatten sich die Forscher bis 1949 Computern zugewandt, um die Atmosphäre zu simulieren.

Schon 1975 arbeiteten S.Manabe, damals beim <US Weather Bureau>, und sein Kollege R.Weatherald mit Computermodellen, um die Folgen einer CO2-Verdopplung in der Atmosphäre zu untersuchen.2 Sie fanden heraus, dass dies einen Anstieg der Durchschnittstemperatur der Erde um 2,4°C bewirken würde. Bis 1979 waren technisch fortschrittlichere Modelle in Dienst gestellt, und diese ließen darauf schließen, dass der Anstieg wahrscheinlich eher zwischen 3,5 und 3,9°C liegen würde, plus oder minus ein paar Grad vielleicht.3

Erstaunlicherweise änderte sich an dieser Vorhersage und ihrem Unsicherheitsfaktor über 20 Jahre lang kaum etwas: 2001 gab das Intergovernmental Panel on Climate Change (IPCC) noch immer 3°C plus oder minus ein paar Grad an. Die Erklärung scheint darin zu liegen, dass zwar bei den immer gewitzteren Computermodellen Unsicherheitsfaktoren in deren Programmen eliminiert worden waren, dafür aber mehr Unsicherheitsfaktoren aus der realen Welt berücksichtigt werden mussten. 

Diese Sachlage ändert sich jetzt jedoch.

Heute gibt es etwa zehn verschiedene globale Zirkulationsmodelle, die das Atmosphärenverhalten zu simulieren versuchen und vorhersagen sollen, was mit ihr in der Zukunft passieren wird.4 Über die leistungsfähigsten Modelle verfügen das Hadley Centre in England, das Lawrence Livermore National Laboratory in Kalifornien und das Max-Planck-Institut für Meteorologie in Deutschland. Zwar können alle drei Forschungseinrichtungen die allgemeinen Temperaturtrends reproduzieren, die die Erde im Verlauf des 20. Jahrhunderts erlebte, unabhängigen Prüfungen zufolge aber gilt das Hadley Centre als weltweit führend.

180


Das Hadley Centre for Climate Prediction and Research wirkt wie eine moderne Kathedrale der Klimaforschung. Das im Jahr 2003 fertig gestellte neue Gebäude ragt als elegante Kombination von Glas und Stahl in den Himmel; es ist so konstruiert, dass es den Energieverbrauch und damit Schädigungen der Umwelt minimiert. In diesem Komplex arbeiten über 120 Wissenschaftler daran, die Unsicherheit von Prognosen zu reduzieren, indem sie immer ausgeklügeltere Modelle zur Nachahmung der realen Welt entwickeln.

Wäre unser Planet eine einheitliche schwarze Kugel, hätten die Leute am Hadley leichtes Spiel, denn eine Verdopplung des CO2 in der Atmosphäre würde die Oberflächentemperatur unseres hypothetischen Rußballs um 1°C anheben. Aber die Erde ist nicht schwarz, und ihre Oberfläche ist auch nicht gleichförmig. Sie ist vielmehr bucklig und blau, rot, grün und weiß; und die weißen Anteile — größtenteils Wolken — sind es, die den Forscher Kopfschmerzen bereiten. Wolken vernebeln sozusagen die Sachlage, weil bis jetzt noch niemand eine Theorie der Wolkenbildung und -auflösung entwickelt hat; und weil Wolken zum einen Wärme speichern und zum andern Sonnenlicht ins All reflektieren, können sie je nach Umständen die Erde gewaltig aufheizen oder abkühlen.

Wie gut sagt die wolkige, computerisierte Kristallkugel des Hadley Centre die irdische Zukunft voraus ? Es gibt vier wichtige Tests, die jedes globale Zirkulationsmodell bestehen muss, ehe man seine Prognosen als glaubwürdig einstufen kann. Der Erste ist die Frage, ob die physische Basis des Modells mit den Gesetzen der Physik übereinstimmt — der Erhaltung von Masse, Wärme, Feuchtigkeit und so weiter. Zweitens: Kann das Modell das gegenwärtige Klima akkurat simulieren? Drittens: Kann es Tag für Tag die Weiterentwicklung der Wettersysteme, die unser Klima bestimmen, simulieren ? Und schließlich: Kann das Modell simulieren, was wir über das Klima der Vergangenheit wissen ?

Computermodelle wie die des Hadley Centre bestehen diese Tests mit angemessener Genauigkeit, aber neue Erkenntnisse über die reale Welt zwingen ständig zu Änderungen an den Computermodellen.5

181


Der kanadische Wissenschaftler Nathan Gillett und seine Kollegen haben kürzlich gezeigt, wie der menschengemachte Klimawandel den Luftdruck auf Meereshöhe verändert. Das ist der erste eindeutige Beweis dafür, dass Treibhausgase außer der Temperatur noch einen weiteren meteorologischen Faktor direkt beeinflussen.6) Eine Steigerung des Luftdrucks auf Meereshöhe war zuvor in den globalen Zirkulationsmodellen noch nicht berücksichtigt worden, was dazu geführt hatte, dass die Auswirkungen des Klimawandels auf Stürme im Nordatlantik unterschätzt wurden.

Zu den Skeptikern, die die globalen Zirkulationsmodelle noch immer belächeln, zählt Jack Hollander, Professor emeritus für Energie and Ressourcen der University of California. In seinem jüngsten Buch, <The Real Environmental Crisis>, sinniert Hollander: »Computersimulationen ... liefern keine adäquate Basis für die katastrophalen Verallgemeinerungen über das zukünftige Klima ... ohnehin ist es für die meisten von uns schwierig, zwischen soliden empirischen Beweisen und Spekulationen auf der Basis höchst unsicherer Computermodelle zu unterscheiden.«7

Hollanders Unterscheidung zwischen empirischen Beweisen und Spekulationen enthüllt ein mangelndes Verständnis, wie Computermodelle funktionieren. Alle Modelle beziehen sich auf bewiesene Tatsachen und berücksichtigen so viele empirische Daten wie möglich, um überprüfbare Hypothesen zum zukünftigen Klimawandel zu bilden. Solange Skepsis auf einem gründlichen Verständnis der Wissenschaft basiert, ist sie von unschätzbarem Wert, denn genau so macht die Wissenschaft Fortschritte. Schlecht begründete Kritik aber kann dazu führen, dass jene, die mit der zugrunde liegenden Wissenschaft nicht vertraut sind, sämtliche Vorhersagen zum Klimawandel in Zweifel ziehen.

Am häufigsten wissenschaftlich missbraucht wurde die Diskrepanz zwischen den Temperaturmessungen der World Meteorological Organization mit ihren 17.000 Thermometern (in den typischen Jalousien-Kästen) und den Messungen ihrer zehn Satelliten. Die Thermometer lieferten anscheinend nicht zu widerlegende Beweise, dass sich die Oberfläche unseres Planeten um 0,17 °C pro Jahrzehnt erwärmt — was zufällig das Maß war, das auch Computer­modelle vorhersagten —, doch die Satellitendaten ließen auf eine viel geringere Erwärmung der unteren Atmosphäre schließen.

182


Das Wetter am 1. Juli 1998: (A) ist die am Hadley Centre erstellte Computersimulation des weltweiten Wetters an diesem Tag. (B) ist eine Satellitenaufnahme des tatsächlichen Wetters. Die weißen Pfeile weisen auf Wolkengebiete hin, die der Computer nicht vorherberechnet hatte, aber ansonsten sind sich die beiden Bilder sehr ähnlich.

 

183


Das war Wasser auf die Mühlen derjenigen, die einen Klimawandel leugnen wollten. Dennoch mussten sie die Daten verdrehen, denn um zu argumentieren, dass es keine Erwärmung gäbe, mussten sie die 17.000 Thermometermessungen als unglaubwürdig hinstellen, die anscheinend die verlässlicheren Anzeichen des Wandels waren.

Nach Jahren komplizierter Forschungen fanden die Klimawissenschaftler 2004 die Fehlerquelle: Sie war bei den Satellitendaten zu suchen.8 Wir haben weiter oben erfahren, dass die Abnahme des Ozons die Stratosphäre kühler werden ließ, während zugleich Treibhausgase die Troposphäre aufheizten. Die Satelliten, so zeigte sich, hatten eine zunehmend wärmere Troposphäre und zugleich eine zunehmend kältere Stratosphäre gemessen, und der sinnlose Durchschnitt dieser auseinander driftenden Temperaturwerte hatte die Wissenschaftler in die Irre geführt.9

Ebenfalls ein Lieblingsthema der Skeptiker, aber der genaueren Betrachtung wert, ist eines der großen, frühen Rätsel in Sachen Temperaturtrends. Zwischen 1940 und 1970 ging trotz einer Zunahme der Treibhausgase in der Atmosphäre die durchschnittliche Oberflächentemperatur der Erde zurück. Darüber hinaus sagten alle globalen Zirkulationsmodelle voraus, dass sich die Erde angesichts der Menge des in die Atmosphäre gelangenden CO2 im Verlauf des Jahrhunderts doppelt so stark aufheizen müsste, wie es tatsächlich der Fall war. Die Skeptiker stürzten sich auf diese Anomalien, um sowohl die Computermodelle in Misskredit zu ziehen als auch die Idee hinauszuposaunen, dass CO2 und andere Treibhausgase nichts mit steigenden Temperaturen zu tun hätten. Beide Abweichungen, so stellte sich heraus, rührten von einem zuvor übersehenen Faktor her — dem sehr starken Einfluss, den winzige Partikel in der Atmosphäre auf das Klima haben.

Diese so genannten Aerosole können vom Staub aus Vulkanen bis zum tödlichen Partikelcocktail aus den Schloten von Kohlekraftwerken alles sein. Wüsten produzieren sie in großen Mengen genauso wie Dieselmotoren: Reifenabrieb und Brände sind gleichfalls wichtige Quellen. Frühe Computermodelle berücksichtigten keine Aerosole bei ihren Berechnungen, was zum Teil daran lag, dass niemand genau wusste, wie viel davon durch menschliche Aktivitäten freigesetzt wurde. Wir wissen heute, dass zwischen einem Viertel und der Hälfte aller Aerosole in unserer Atmosphäre menschengemachten Ursprungs sind.10

184


Aerosole können der Gesundheit sehr abträglich sein. Sie waren der Grund für die hohe Sterblichkeit im London des 17. Jahrhunderts, und auch heute kommen trotz technischer Weiterentwicklungen in den Vereinigten Staaten alljährlich 60.000 Menschen durch Aerosole um, die beim Verbrennen von Kohle entstehen.11 

Die Ursache dafür ist zum Teil, dass Kohle wie ein Schwamm fungiert und Quecksilber, Uran und andere schädliche Mineralien bindet, die freigesetzt werden, wenn die Kohle verbrannt wird. Im Bundesstaat Süd-Australien liegt das größte Uranbergwerk der Welt, doch die stärkste Strahlungsquelle des Landes ist nicht das Bergwerk, sondern ein Kohlekraftwerk bei Port Augusta. Es ist wirklich keine Überraschung, dass das Verheizen von Kohle häufig zu Lungenkrebs führt. Im australischen Hunter Valley, wo die Stromerzeugung aus Kohle konzentriert ist, liegt die Lungenkrebsrate um ein Drittel höher als im nahe gelegenen Sydney, und das trotz der Umweltverschmutzung in dieser Metropole.

Ich kann mich erinnern, dass ich als Kind »Spucken verboten«-Schilder an den Wänden der Eisenbahntunnel in meiner Heimatstadt Melbourne sah und auch erzählt bekam, dass zu Zeiten meines Großvaters Spucknäpfe in Gebrauch waren. Als ich im Erwachsenenalter dann China bereiste und die Bewohner stark verschmutzter Städte wie Hefei dreckigen Schleim aus den Lungen hochwürgen sah, ging mir auf, dass meine Vorfahren nicht notwendigerweise schlechtere hygienische Umgangsformen hatten als meine Generation. Sie kämpften viel mehr mit einer eher an eine Abfallgrube erinnernden Luft, für die das Verheizen von Kohle sorgte.

Die Wissenschaftler glauben heute, dass der Temperaturrückgang von den vierziger bis zu den siebziger Jahren des 20. Jahrhunderts durch Aerosole verursacht wurde, wobei sie vor allem das Schwefeldioxid verantwortlich machen. Schwefeldioxid wird freigesetzt, wenn Kohle minderer Qualität verbrannt wird, und in den sechziger Jahren begannen die Seen und Wälder in den hohen Breitengraden der Nordhalbkugel zu sterben. Die Bäume verloren Blätter und Nadeln, und die Seen wurden kristallklar, weil in ihnen nichts mehr lebte. 

185


Der Grund dafür war der saure Regen, der aus den Schwefeldioxid-Emissionen der Kohlekraftwerke resultierte. Als das klar wurde, kam eine Gesetzgebung in Gang, mit der die Rauchgaswäsche in Kohlekraftwerken und Industriebetrieben zwingend vorgeschrieben wurde. Solche Anlagen sind jetzt seit den siebziger Jahren in Gebrauch, und sie haben die Schwefeldioxid-Emissionen drastisch reduziert.

Das hatte jedoch auch unbeabsichtigte Folgen. Sulfat-Aerosole reflektieren das Sonnenlicht am effektivsten ins All und kühlen daher den Planeten sehr wirkungsvoll. Weil die meisten Aerosole nur ein paar Wochen in der Atmosphäre bleiben (von Schwefeldioxid zerfallen bei normaler Luftfeuchtigkeit ein bis zwei Prozent pro Stunde), machte sich die Wirkung der Rauchgaswäsche sofort bemerkbar. Während die Luft reiner wurde, begannen die globalen Temperaturen, vom CO2 aus denselben Kraftwerken getrieben, wieder nach oben zu klettern.12 Das war das perfekte Beispiel dafür, wie in Gaias Welt alles mit allem verbunden ist und alles andere beeinflusst.

Als 1991 auf den Philippinen der Pinatubo ausbrach, bot sich eine außergewöhnliche Testmöglichkeit, inwieweit die neuen globalen Zirkulationsmodelle den Einfluss der Aerosole prognostizieren konnten. Der Vulkan schleuderte 20 Millionen Tonnen Schwefeldioxid in die Atmosphäre; eine Gruppe unter Führung des NASA-Wissenschaftlers James Hansen sagte voraus, dies würde zu einer globalen Abkühlung um rund 0,3°C führen — und diese Zahl entsprach genau dem, was in der realen Welt passierte.

Zu den wichtigsten und am besten abgesicherten Vorhersagen dieser Modelle gehört, dass sich die Pole schneller erwärmen werden als der Rest der Erde, dass über den Landmassen die Temperaturen rascher steigen werden als im weltweiten Durchschnitt, dass es mehr regnen wird und dass Wetterextreme sowohl an Häufigkeit als auch an Intensität zunehmen werden.

Die Klimafolgen werden sich auch im Rhythmus von Tag und Nacht bemerkbar machen, wie es als Erster Arrhenius prophezeit hat; in Relation zu den Tagen werden die Nächte wärmer sein, denn in der Nacht gibt die Erdatmosphäre Wärme ans All ab.

Es wird auch einen Trend zur Ausbildung von quasi permanenten El-Nino-ähnlichen Verhältnissen geben, was, wie wir erfahren haben, weitreichende Folgen haben kann.

186


Wir müssen uns jetzt dem entscheidenden Unsicherheitsfaktor aller Modelle zuwenden: Wird eine Verdopplung des CO2 zu einer Erwärmung um 2°C oder um 5°C führen, und können wir erwarten, dass diese Spanne in der nahen Zukunft reduziert werden kann? 

Das ist ein entscheidender Punkt, nicht zuletzt weil die gegenwärtige US-Regierung signalisiert hat, dass sie ihre Klimapolitik nicht überdenken wird, solange es nicht mehr Gewissheit gibt. Dass fast 30 Jahre harter Arbeit und erstaunlicher technischer Fortschritte das Ausmaß dieser Unsicherheit nicht reduzieren konnten, sollte uns nicht allzu optimistisch stimmen, dass wir auf größere Präzision hoffen könnten. Viele würden argumentieren, dass wir bereits genügend wissen: Selbst eine Erwärmung von nur 2 °C wäre für weite Teile der Menschheit eine Katastrophe.

Die jüngste Studie zum Klimawandel — und die größte je unternommene — wurde Anfang 2005 von einem Team der Oxford University veröffentlicht. Die Unter­suchung bediente sich ungenutzter Rechenzeiten von mehr als 90.000 Personalcomputern und konzentrierte sich auf die Frage, was eine Verdopplung des CO2 in der Atmosphäre für die Temperaturen bedeuten würde. Das Durchschnittsergebnis aus vielen Durchläufen besagte, dies würde zu einer Erwärmung um 3,4°C führen. Alles in allem aber gab es ein erstaunlich breites Spektrum von Möglichkeiten — es reichte von 1,9 bis 11,2 °C Temperatur­steigerung, wobei der obere Wert noch nie zuvor prognostiziert worden war.13

Als ich diese Ergebnisse las, fiel mir wieder eine Anomalie ein, die mich lange beschäftigt hatte. Am Ende der letzten Eiszeit stieg das CO2-Niveau um 100 Teile pro Million und die durchschnittliche Oberflächentemperatur der Erde um 5°C. Das lässt den Schluss zu, dass das CO2 sich sehr stark auf die globale Temperatur auswirkt. In den meisten Computeranalysen jedoch wird vorhergesagt, dass ein fast dreimal so großer CO2-Anstieg (eine Verdoppelung des vorindustriellen Niveaus) zu einem Temperaturanstieg von nur 3°C führen würde.

Diese Anomalie ist für das Überleben unserer Zivilisation und zahlloser Spezies von großem Belang. Wissenschaftler, die gegenwärtig an Aerosolen arbeiten, glauben, dass sie die Antwort vielleicht kennen. 

187


Direkte Messungen der Sonneneinstrahlung am Boden und weltweite Aufzeichnungen der Verdunstungsraten (die hauptsächlich vom Sonnenlicht beeinflusst werden) weisen darauf hin, dass die Menge Sonnenlicht, die die Erdoberfläche erreicht, im Lauf der letzten drei Jahrzehnte deutlich (bis zu 22 Prozent in einigen Regionen) zurückgegangen ist. Es ist, als hätten wir das kleine »Fenster« in der Atmosphäre, durch das das sichtbare Licht hereinkommt, verschlossen.

Dieses Phänomen des globalen Dimmens wird auf zweierlei Weise herbeigeführt: Aerosole wie etwa Ruß steigern das Reflexionsvermögen der Wolken, und die Kondensstreifen der Düsenflugzeuge bilden einen permanenten Wolkenschleier. Rußpartikel verändern die reflektiven Eigenschaften der Wolken, indem sie die Bildung vieler winziger Wassertröpfchen anstelle wenigerer, größerer Tropfen fördern; und mit diesen winzigen Tröpfchen werfen die Wolken viel mehr Sonnenlicht ins All zurück als mit großen Tropfen. Mit den Kondensstreifen ist es eine andere Geschichte. An den drei Tagen nach dem 11. September 2001 blieben sämtliche US-amerikanischen Verkehrsflugzeuge am Boden, und in dieser Zeitspanne notierten die Klimatologen einen zuvor nicht gekannten Anstieg der Tagestemperaturen in Relation zu den Nachttemperaturen. Das war, vermuten sie, eine Folge des zusätzlichen Sonnenlichts, das dank fehlender Kondensstreifen auf die Erdoberfläche gelangte.

Wenn 100 Teile CO2 pro Million wirklich die Oberflächentemperatur um 5°C steigen lassen können und wenn Aerosole und Kondensstreifen dem so entgegensteuern, dass wir nur eine Erwärmung von 0,63°C haben, dann muss deren Einfluss auf das Klima enorm sein. Es ist, als würden zwei große Kräfte — beide weltweit durch die Schornsteine freigesetzt — das Klima in entgegengesetzte Richtungen zerren, nur dass das CO2 etwas stärker ist.

Das stellt uns vor ein gravierendes Problem, denn die die Luft verschmutzenden Partikel bleiben nur Tage oder Wochen, während CO2 nur schwer zu beseitigen ist und ein Jahrhundert oder länger in der Atmosphäre verweilt. Was bedeutet aber nun eine Temperaturerhöhung um 2°C oder 5°C — auf der Erdoberfläche — für die diversen Völker und Ökosysteme? Das sind Fragen, auf die wir zurückkommen werden, für den Moment kann man nur so viel sagen: Wenn wir uns vom globalen Dimmen die richtige Vorstellung machen, dann haben wir nur eine Möglichkeit: Wir müssen anfangen, das CO2 aus der Atmosphäre zu holen.

188


 

Diese als »Hockeyschläger« bekannte Graphik zeigt die Trends der durchschnittlichen Oberflächentemperatur der Erde von 1000 n.Chr. bis zum Jahr 2100. Vor 1900 lag diese bei 13,7 °C. Der graue Bereich markiert die Schwankungsbreite der zugrunde gelegten Werte; sie nimmt um 1850 mit der Einführung weltweiter Thermometermessungen ab. Die Projektionen rechts stellen das Spektrum möglicher Temperatursteigerungen bis 2100 dar.

Ehe wir fortfahren, müssen wir begreifen, welche Fragen von Computermodellen beantwortet werden können und welche nicht. Eine der fundamentalsten menschlichen Reaktionen auf irgendwelche Veränderungen ist zu überlegen, was sie verursacht haben mag. Das Klimasystem der Erde ist jedoch so sehr mit positiven Rückkopplungsschleifen durchsetzt, dass unsere normalen Konzepte von Ursache und Wirkung nicht länger greifen. Denken Sie an das oft zitierte Beispiel aus der Chaostheorie, dass der Flügelschlag eines Schmetterlings am Amazonas in der Karibik einen Wirbelsturm auslösen kann. Aber nur festzustellen, dass irgendetwas einfach etwas anderes verursacht hat, ist eine hilflose Denkweise. Wir haben es vielmehr mit scheinbar unbedeutenden Anfangsereignissen zu tun — beispielsweise einem Anstieg des atmosphärischen CO2 —, deren Folgen aus dem Ruder zu laufen drohen.

189


Eine weitere natürliche Reaktion besteht darin zu fragen, was das alles in der näheren Zukunft für einen selbst und das persönliche Umfeld bedeutet. Da das Wetter von Tag zu Tag und von Jahr zu Jahr stark variiert, gibt es keine narrensichere Möglichkeit, dies zu bestimmen.14 Aus der Perspektive einer menschlichen Lebensspanne ist die globale Erwärmung langsam — jedes Jahrzehnt wird nur ein bisschen wärmer als das vorangegangene —, während die klimatische Variabilität von Jahr zu Jahr oder auch nur das unterschiedliche Wetter von Tag zu Tag viel größer sein können als ein Klimawandel, der sich in über Jahrzehnte sich verändernden Durchschnittswerten äußert. In dieser Hinsicht ist die Wettervorhersage etwas ganz anderes, als die Folgen des Klimawandels zu prognostizieren: Das Wetter lässt sich am besten für eine spezifische Gegend und einen sehr kurzen Zeitraum vorhersagen — ein bis drei Tage etwa. Im Gegensatz dazu erhält man beim Klimawandel im globalen Maßstab und für viele Jahrzehnte im Voraus bessere Prognosen.

Eine Reihe von Klimaforschergruppen haben — oft auf Bitten von Regierungen, die Rat suchen, wie sie sich vorbereiten sollen — computergestützte Hochrechnungen für verschiedene Regionen der Erde und für Zeiträume von wenigen Dekaden vorgelegt. Drei Beispiele für solche Untersuchungen vermitteln eine Vorstellung von den unzähligen regionalen Vorhersagen. Man sollte jedoch dabei bedenken, dass viele Klimatologen die Sinnhaftigkeit solcher Versuche infrage stellen.

Zu den am besten ausgeklügelten Regionalprognosen zählen die des Hadley Centre für das Klima des Vereinigten Königreichs in den fünfziger bis achtziger Jahren des 21. Jahrhunderts.15 Sie gehen von einem Spektrum von Treibhausgasen aus, das von niedrig bis hoch reicht. Niedrig bedeutet, dass strenge Maßnahmen zur Reduktion der CO2-Emissionen erfolgreich umgesetzt werden und man mit den Rückkopplungsschleifen Glück hat; hoch bedeutet, dass wir weitermachen wie bisher und mit den Rückkopplungsschleifen Pech haben.

190


Bei allen Szenarios fanden die Forscher heraus, dass bis zum Jahr 2050 das menschliche Einwirken auf das Klima alle natürlichen Einflüsse überflügelt haben wird. Anders ausgedrückt: Es gibt beim Klima keine »höhere Gewalt« mehr, sondern nur noch von Menschen verursachte Katastrophen. Die Wissenschaftler sagen voraus, dass die Schneedecke an den britischen Küsten um bis zu 80 Prozent und im schottischen Hochland um bis zu 60 Prozent zurückgehen wird. Winterliche Regenfälle sollen sich um bis zu 35 Prozent steigern, und zwar in Form intensiverer Einzelereignisse, während der Sommerregen zurückgehen wird und ein Sommer von dreien »sehr trocken« ausfallen wird. So etwas wie der extreme Sommer von 1995 (in dem es an 17 Tagen über 25°C und an vier Tagen über 30°C heiß war) kann sich vielleicht zweimal pro Jahrzehnt wiederholen, während die große Mehrheit der Jahre heißer sein wird als das bisherige Rekordjahr 1999.16

Auf der europäischen Landmasse werden die Veränderungen deutlicher zu spüren sein als im globalen Durchschnitt. Eine globale Zunahme der Oberflächen­temperatur um 2°C wird konkret ganz Europa, Asien und dem amerikanischen Doppelkontinent eine Temperatursteigerung von 4,5°C bringen.17) Großbritannien wird ein eher mediterranes Klima bekommen, und einige Zeitungen verkündeten bereits das »Ende des englischen Gartens«. Wichtiger sind die Probleme, die dies beispielsweise der Wasserwirtschaft, dem Hochwasserschutz und der menschlichen Gesundheit bereiten wird.

In den Jahren 2003 und 2004 konzentrierten sich zwei weitere Regionalstudien einiger Wissenschaftler von Stanford und der University of California in Los Angeles auf die Klimafolgen für Kalifornien.18) Sie kamen zu dem Schluss, dass die globale Erwärmung dem Staat viel heißere Sommer und eine deutlich verringerte Schneedecke bringen wird, was sowohl die Wasserversorgung als auch die Gesundheit bedroht: Bis zum Ende des Jahrhunderts würden Hitzewellen in Los Angeles siebenmal mehr Todesopfer fordern als heute, die Schneedecke würde um die Hälfte oder mehr zurückgehen, und drei Viertel bis neun Zehntel aller alpinen Wälder in Kalifornien würden verloren gehen.

Das dritte Beispiel bezieht sich auf den Bundesstaat Neusüdwales, und die Prognosen stammen von der führenden Wissenschaftsinstitution Australiens, dem CSIRO. Der Zeitraum ist dabei sehr kurz — in einigen Fällen nur drei Jahrzehnte —, und die Studie stützt sich auf zwölf unterschiedliche Klimasimulationen, die ein breites Spektrum von Möglichkeiten ergaben. Dazu zählen Temperaturerhöhungen im ganzen Staat zwischen 0,2°C und 2,1°C, während Kälteperioden und damit Fröste zurückgehen sollen. Die Anzahl sehr heißer Tage (über 40°C) wird zunehmen, genauso die Dürre im Winter und Frühling sowie extreme Regenfälle und Windgeschwindigkeiten, und es werden sich auch die Wellenmuster und möglicherweise die Häufigkeit von Sturmfluten ändern.19

Liest man solche Regionalprognosen, wird klar, dass die Vorhersagen umso unsicherer werden, je kürzer der Zeitrahmen ist; umgekehrt gleichen sie, je länger der Zeitrahmen und je größer die berücksichtigte Region, immer mehr globalen Modellen, die die verlässlichsten Informationen liefern. Es gibt noch einen anderen sehr wichtigen Grund, warum Kurzzeitstudien nicht sehr aussagekräftig sind. Das Gas ist bereits in der Atmosphäre, und bislang haben wir keine Möglichkeit, es wieder herauszuholen. Das bedeutet, dass der Verlauf des Klimawandels zumindest für die nächsten paar Jahrzehnte bereits festgelegt ist.

192

#

 

^^^^

 www.detopia.de