Posts mit dem Label Klimasensitivität werden angezeigt. Alle Posts anzeigen
Posts mit dem Label Klimasensitivität werden angezeigt. Alle Posts anzeigen

Sonntag, 12. Januar 2014

Klimasensitivität und Säbelzahnlöwen

Bei den Leugnern von EIKE oder von „Die kalte Sonne“ (Sebastian Lüning, Fritz Vahrenholt) erzählt man Märchen darüber, dass lauter neue Artikel zur Klimasensitivität herauskommen, die deren Wert nach unten korrigieren. Wie ich gezeigt hatte, ist das vor allem heiße Luft – die alten Herren haben gerade mal zwei Arbeiten eher geringer Qualität gefunden, die in ihrem Sinne sind, der Rest sind eher Blogbeiträge oder falsch verstanden worden. Wenn man aber die Aufregung echter Wissenschaft spüren will, dann hatte 2013 tatsächlich einige zu bieten. Ich hatte mir mal einige Arbeiten angeschaut und festgestellt, dass wir noch viel über die Klimasensitivität herausfinden können, das über die Diskussion, ob sie größer oder kleiner als 3 Grad je Verdopplung des CO2-Äquivalents ist, hinausgeht. Ich mache also mal einen Streifzug durch die neuere Literatur.

Mittwoch, 1. Januar 2014

Gute und schlechte Modelle

Die Klimamodelle streuen bei Ihren Resultaten über einen weiten Bereich. Die Klimasensitivitäten, die sie wiedergeben, reichen meistens von ca. 1,5 bis ca. 5 Grad Erwärmung je Verdopplung des CO2-Mischungsverhältnisses. Die Unterschiede rühren wohl daher, dass in den verschiedenen Modellen Prozesse, die sie nicht auflösen können, wie zum Beispiel die Wolkenbildung und konvektive Prozesse (also der Aufstieg warmer Luft) verschieden parametrisiert sind, also durch pauschale Rechnungen wiedergegeben werden. Die spannende Frage ist, welche Modelle realistischer sind und wie man das entscheiden kann. Eine neue Arbeit von Steven C. Sherwood, Sandrine Bony und Jean-Louis Dufresne: Spread in model climate sensitivity traced to atmospheric convective mixing, Nature 505, 37-42 (2014), bietet möglicherweise einen Hinweis darauf, dass Modelle mit niedriger Klimasensitivität eher unrealistische Wolkenparametrisierungen bzw. der Konvektion über den Meeren haben. Das wäre ein Hinweis darauf, dass eine Klimasensitivität von 3 und mehr mit unseren Kenntnissen über das Klima besser verträglich ist und wir davon ausgehen müssen, dass Ergebnisse mit einem stärkeren Temperaturanstieg wahrscheinlicher sind.

Montag, 7. Oktober 2013

IPCC 5 - Uneinigkeit zur Klimasensitivität

Der Bericht der Arbeitsgruppe 1 (physikalische Grundlagen) des IPCC zum 5. Sachstandsbericht ist seit dem 30.09.2013 verfügbar, wenn auch noch in einer vorläufigen Form. Man kann nun vergleichen, was von Leugnern so alles im Vorfeld verbreitet wurde und was tatsächlich drin steht. Mich interessiert hier ein Aspekt - die Diskussion zum Thema Klimasensitivität scheint ein Stück weit zurückzulaufen. Oder vielleicht auch nicht? Tatsächlich ist die Sachlage etwas komplizierter.

Donnerstag, 30. Mai 2013

Sensitive Dinge

Semsitivität heißt Empfindlichkeit. Die Sensitivität mißt, wie empfindlich etwas ist. Wenn ich weiß, wie etwas sich durch den Einfluß von etwas anderem verändert, kann ich seine Sensitivität bestimmen. Nehmen wir mal eine beliebige Funktion (in der Abbildung unten in rot). An zwei Stellen dieser Funktion y=f(x) habe ich Tangenten angelegt (in schwarz). Sie zeigen an, wie sich die Funktion exakt an dem einen Punkt ändert, an dem ich schaue. Diese Tangenten zeigen die Sensitivität an, das heißt df(x)dx oder, näherungsweise, die Veränderung von y geteilt durch die Veränderung von x. Nichts anderes gibt die Sensitivität an. Die Klimasensitvität gibt an, wie sich die globale Temperatur der Erdoberfläche ändert in Abhängigkeit von einer Änderung eines Klimaantriebs, zum Beispiel des Antriebs durch die Änderung der Konzentration eines Treibhausgases in der Atmosphäre. Seit 1979 vermuten Wissenschaftler, dass eine Verdopplung des Kohlendioxidgehalts der Atmosphäre die globale Temperatur um ungefähr 3 Grad ändert. Plus minus einem Fehler. Anfänglich nahm man an, dass der Fehler vielleicht einen Faktor 2 ausmacht. Das wäre also eine Grenze von 1,5 bis 6 Grad. Inzwischen haben wir dazugelernt. Das Problem ist, dass jedes Mal, wenn wir etwas dazulernen, das Ergebnis ziemlich aus dem Zusammenhang der vielen Arbeiten zur Klimasensitivität gerissen wird. Wir sind vielleicht zu empfindlich für Empfindlichkeiten geworden. Darüber möchte ich heute erzählen:


Sonntag, 15. April 2012

Modelle mit Beobachtungen vergleichen - Teil 2

Im letzten Beitrag hatte ich erläutert, daß Modellergebnisse und Beobachtungen beide Unsicherheitsbereiche aufweisen, die den direkten Vergleich erschweren. Das Problem ist nicht nur, daß es Fehler in den Messungen und den Modellergebnissen gibt. Beim Vergleich einzelner Datenpunkte und selbst ganzer Jahre fällt viel stärker ins Gewicht, daß die Modelle keine globale Wettervorhersage betreiben, sondern die Übereinstimmung zwischen Beobachtungen und Modellergebnissen nur eine statistische ist. Es gibt viele verschiedene Modellergebnisse, die alle korrekt sind, aber nur ein unterschiedliches Wetter zeigen. Damit kann man in verschiedener Weise umgehen. Ein kleiner Überblick.

Sonntag, 19. September 2010

Currys italienische Flagge, postnormales Lagerdenken und Fehlerbalken

Prof. Judith Curry ist Leiterin des Instituts für Geo- und Atmosphärenwissenschaften am Georgia Institute for Technology. Sie ist zugleich auch eine Person, die es in Rekordzeit geschafft hat, ihre fachliche Reputation zu zerstören. Daneben entwickelt sie Ideen, die sich schwer mit ihrer Kompetenz in der Klimaforschung vereinen lassen. Aber vielleicht ist nicht die Kompetenz das Problem, sondern politischer Wille stellt wissenschaftlichem Verständnis ab und zu ein Bein. Jedenfalls hat Curry in ihrem Blog eine recht eigenwillige Ansicht entwickelt, wie unsicher unser Verständnis darüber ist, wie viel des aktuellen Klimawandels von Menschen verursacht wird. Diese Ansicht ist absurd, und das läßt sich einfach erklären. Aber ich fange besser beim Anfang an...

Donnerstag, 13. Mai 2010

Die Welt kommt langsam, aber gewaltig

Steigen die Mischungsverhältnisse der Treibhausgase in der Atmosphäre, absorbiert sie infrarotes Licht stärker. Dadurch wird die Abstrahlung der Wärme von der Erde ins All weniger effektiv und die Gleichgewichtstemperatur der Erde wächst an. Bei einer Verdopplung der CO2-Mischungsverhältnisse von 280 auf 560 ppm erhält man einen Wert von ca. 1,2 Grad Celsius bzw. 1,2 Kelvin.

Wird die Atmosphäre wärmer, führt dies jedoch auch zu Rückkopplungen. Die meisten Rückkopplungen sind positiv und verstärken Änderungen der globalen Temperatur. Zunächst nimmt eine wärmere Atmosphäre mehr Wasser auf. Dadurch wird der Treibhauseffekt verstärkt. Zugleich erwärmt sich die Troposphäre im oberen Bereich stärker als im unteren Bereich. Dadurch strahlt sie effizienter Wärme ab. Das ist eine negative Rückkopplung, die allerdings deutlich kleiner ist. Weiterhin nimmt die Bewölkung vermutlich zu. Je nach Modell kann das zu einer positiven oder negativen Rückkopplung führen, doch insgesamt überwiegt die Ansicht, daß wir von einem neutralen bis leicht positivem Effekt ausgehen müssen. Schließlich geht durch eine globale Erwärmung auch die Schneebedeckung in den gemäßigten Breiten und teilweise in den polaren Breiten zurück. Dadurch nimmt die Albedo der Erde im Mittel ab, also die direkte Reflektion der Sonneneinstrahlung vom Boden, was die Erde weiter erwärmt, aber besonders verstärkt über dem Land in den gemäßigten bis polaren Zonen, ganz besonders aber in der Arktis - speziell die arktische Verstärkung durch den Rückgang der Seeeisbedeckung läßt sich inzwischen bestätigen. Es gibt viele Zusammenfassungen dieser Effekte, die man etwa im IPCC-Bericht findet oder zum Beispiel auf dieser Seite, die ich gerade gesehen habe. Zusammengenommen nennt man diese Rückkopplungen schnelle Rückkopplungen, weil sie auf einer Zeitachse bis zu wenigen Jahren wirksam sind. Der Albedoeffekt ist vielleicht der langsamste, und kann durchaus eine Verzögerung von mehr als 10 Jahren haben. Für Klimaveränderungen ist das immer noch schnell.

Daß speziell der kombinierte Effekt von Wasserdampf und Wolken insgesamt zu einer positiven Rückkopplung bei der globalen Erwärmung führt, ist durch direkte Messungen gut gesichert. Dies wurde zum Beispiel von Georg Hoffmann kommentiert. Deshalb beeindruckt es auch nicht, wenn Lindzen oder Spencer von Zeit zu Zeit mit der Behauptung Unsicherheit streuen wollen, daß sie belegen könnten, daß die positiven Rückkopplungen viel schwächer seien - ihre Behauptungen stehen im Widerspruch mit praktisch der gesamten übrigen publizierten Forschung.

Zugleich wissen wir aber auch, daß die Klimasensitivität um einen Wert von 3 Grad Celsius je Verdopplung des CO2-Äquivalents ist. D.h. bei einer Verdopplung des CO2-Gehalts in der Atmosphäre oder einer in der Wirkung entsprechenden Erhöhung anderer Treibhausgasmischungsverhältnisse tragen die in der Summe positiven Rückkopplungen weitere 1,8 Grad Celsius Temperaturerhöhung bei. Dieser Wert von 3 Grad bezieht sich allerdings auf die neue Gleichgewichtstemperatur, die erst mit Verzögerung erreicht wird. Zum einen sind die Rückkopplungen Verzögerer, wie etwa der Albedoeffekt, der sich über ein Jahrzehnt lang auswirken kann, zum anderen dauert es, bis sich alle gekoppelten Teile der Erde auf die neue Temperatur eingestellt haben. Hier ist der Transport der Wärme in die Ozeane wesentlich. Nach und nach transportieren Meeresströmungen die Wärme von der Oberfläche immer tiefer und kühlen die ganze Zeit die Atmosphäre. Das kann Jahrzehnte dauern. 30 Jahre für die Kopplungen von Atmosphäre und die oberen ca. 2000 Meter der Ozeane sind eine plausible Hausnummer, aber es könnte auch mehr oder weniger sein. Die Gleichgewichtstemperatur für die bisherige Erhöhung der Treibhausgasmischungsverhältnisse ist also um die 1,5 Grad, aber davon ist bis zur Hälfte noch auf dem Weg, da erst noch die Ozeane die zusätzliche Wärme aufnehmen müssen und zudem ein Teil durch die kühlende Wirkung von Sulfataerosol maskiert wurde. Deshalb sehen wir erst eine globale Erwärmung von ca. 0,8 Grad, von denen ein kleiner Teil solaren Ursprungs ist, das meiste aber Folge der Treibhausgasemissionen.

Daß die Klimasensitivität für die schnellen Rückkopplungen bei etwa 3 Grad je Verdopplung des CO2-Äquivalents liegt, zeigt die Zusammenschau der Auswertung der Temperaturänderungen seit Beginn der Wetteraufzeichnungen, die Reaktion der globalen Temperatur auf Vulkanausbrüche, die Auswertung von Temperaturänderungen laut den Proxies über die letzten 2000 Jahre, die Untersuchung der letzten Eiszeit, die Untersuchungen von Erwärmungen in der weiteren Vergangenheit, wie etwa die Erwärmung im mittleren Pliozän vor 3 Millionen Jahren und außerdem Modellrechnungen. Das findet man hier zusammengestellt (von wo das Bild links entnommen ist, wo für verschiedene Ansätze die ermittelten wahrscheinlichen -dünner Balken- und sehr wahrscheinlichen Bereiche -dicker Balken- der Klimasensitivität gezeigt werden), wie auch beim obigen Link zu den schnellen Rückkopplungen und beruht auf einer Arbeit von Knutti und Hegerl 2008. Die Klimasensitivität von 3 Grad/Verdopplung des CO2-Äquivalents wird seit gut 30 Jahren immer wieder gefunden, wobei der Unsicherheitsbereich so nach und nach verkleinert wurde.

Doch es gibt auch die langsamen Rückkopplungen. Die machen zwar unserer und auch der nächsten Generation noch kein Kopfzerbrechen. Aber für die Menschen unserer Enkelgeneration und danach sind diese langsamen Rückkopplungen das eigentliche Problem bei dem Klimawandel. Diese langsamen Rückkopplungen sind noch wenig verstanden. Dazu zählen etwa die Albedoveränderungen durch ein Abtauen der Eisschilde auf Grönland und in der Antarktis, die Freisetzung von CO2 und Methan durch ein Auftauen des Permafrostbodens in der Tundra Sibiriens, Kanadas und Alaskas, die Freisetzung von Kohlendioxid durch eine Verschiebung der Kliamzonen und einem Absterben tropischer Regenwälder oder die Freisetzung von Methan aus Methanclathraten am Meeresgrund insbesondere in den arktischen Gewässern. Diese Rückkopplungen finden auf einer Zeitachse von einigen Jahrzehnten, von wenigen Jahrhunderten oder länger statt. Einige der langsamen Rückkopplungen könnten außerdem deutlich davon abhängig sein, wie schnell sich das Klima erwärmt oder CO2 ansteigt. Ein langsamer Anstieg der CO2-Konzentration könnte durch Mischen in tiefere Schichten der Ozeane gebremst werden. Ein schneller Anstieg könnte hingegen durch einen pH-Abfall Schalenbildner in den Ozeanen abtöten oder schwächen und dadurch die Fähigkeit der Ozeane, CO2 aufzunehmen so schwächen, daß hieraus eine positive Rückkopplung für das CO2-Mischungsverhältnis wird. Ähnlich sieht das mit einer Verschiebung von Klimazonen und einem Absterben von Bäumen aus, die Klimaveränderungen nicht mehr durch Wachstum in neuen Regionen folgen können.

Hinweise darauf, daß die langsamen Rückkopplungen die Klimasensitivität erhöhen, bieten Untersuchungen zum Beispiel der Erwärmung im mittleren Pliozän von 3 Millionen Jahren. Lunt et al 2010 schätzen die erhöhte Sensitivität aufgrund der langsamen Rückkopplungen auf bis zu 50% höher als die schnelle Sensitivität. Wir reden also von einem Wert, der im Mittel bei 4 bis 4,5 Grad Celsius liegt. Und selbst das halten wir nur ein, wenn wir in absehbarer Zukunft den Anstieg der Treibhausgasemissionen anhalten und bis 2050 deutlich reduzieren. Ohne Maßnahmen kann das CO2-Äquivalent bis 2100 sich gegenüber dem vorindustriellen Wert verdreifachen. Pagani et al 2010 kommen zu ähnlichen Abschätzungen. Man muß sich klar machen, daß im mittleren Pliozän die globale Temperatur gut 2 bis 3 Grad höher lag als heute, aber das CO2-Mischungsverhältnis mit dem heutigen Wert vergleichbar war!

Diese Arbeiten werden auf Skeptical science kommentiert.

Die Rolle der Zeit ist auch fatal, wenn es um den Anstieg des Meeresspiegels geht. Die Eisbedeckung in Grönland oder der Antarktis erreicht innerhalb eines Jahrhunderts keineswegs ein Gleichgewicht. Das dauert viel länger. Das heißt, die Vorhersagen für einen Meeresspiegelanstieg bis 2100, die sich im Bereich um 1,2 bis 2 Meter konzentrieren, erzählen nur den Anfang des Meeresspiegelanstiegs. David Archer erzählt in seinem Buch "Das langsame Tauen" die Geschichte einer Erde, in der über Jahrhunderte und Jahrtausende der Meeresspiegel auf globale Temperaturänderungen und Änderungen des Kohlenstoffkreislaufs reagiert. Danach ist die Gleichgewichtsreaktion der Erde auf einen Anstieg der globalen Temperatur um 3 Grad (wie im mittleren Pliozän) ein Anstieg des Meeresspiegels um 40 Meter, und zwar unaufhaltsam, selbst wenn die CO2-Emissionen zurückgehen, weil die Lebensdauer zusätzlich eingebrachten Kohlendioxids so lange ist. Einzelheiten erläutert Georg Hoffmann.

Es gibt nämlich einen anderen Blickwinkel, indem man insbesondere darauf schaut, wie eigentlich der Kohlenstoffhaushalt der Erde auf die Erwärmung reagiert. Ein Erweiterung unseres Bewußtseins bedeutet dabei die Herausgabe eines neuen Bodenatlas für den nordpolaren Bereich (nördlich 50 Grad nördlicher Breite). Im Zusammenhang mit diesem Werk wurde festgestellt, daß die Hälfte des im Boden gebundenen Kohlenstoffs in den nördlichen Böden festliegen und unter anderem durch ein Auftauen des Permafrostbodens in der Tundra freigesetzt werden können. Freigesetzt werden nicht nur CO2, sondern auch die viel wirksameren Treibhausgase Methan und Distickstoffoxid N2O. Möglicherweise ist der Klimaeffekt dieser Emissionen aus nördlichen Böden größer als bislang vermutet und jedenfalls so in den Klimamodellen noch nicht berücksichtigt.

Wir müssen uns klar machen, daß die Betrachtung des Klimawandels nur bis 2100 nur einen Teil der Geschichte erzählt. Der Klimawandel hört dann nicht durch ein Wunder auf. Vielmehr könnten schon ab 2050 Klimafolgen eintreten, die nicht rückgängig gemacht werden können und über Jahrhunderte einen Klimawandel erzeugen, den Menschen nicht mehr kontrollieren können. Die Einstellung, man bräuchte erst auf den Klimawandel zu reagieren, wenn man seine Folgen sehen könnte, ist daher äußerst ignorant und geradezu kriminell.

Sonntag, 19. Juli 2009

Die Botschaft der Paläozan-Eozän Warmzeit

Wir leben derzeit in einer Zwischeneiszeit. Das Klima im Wechsel von Eiszeiten und Zwischeneiszeiten ist im Grunde das Klima, das den Menschen hervorgebracht hat. Bedingung für dieses Klimaregime sind niedrige CO2-Mischungsverhältnisse unter 300 ppm.
Aus verschiedenen Gründen gab es aber in der Erdgeschichte seit der Zeit der Dinosaurier Phasen, in denen die CO2-Mischungsverhältnisse und die Temperatur anstiegen. Während die Eiszeiten eher eine Folge (vereinfacht ausgedrückt) wechselnder Neigungen der Erde zur Sonne waren und die dadurch verursachte wechselnder Stärke der effektiven Einstrahlung, und die CO2-Mischungsverhältnisse sich dann in der Folge als Rückkopplungsgröße mit 800 Jahren Verzögerung änderten, um den Wechsel zwischen Eiszeit und Zwischeneiszeit zu verstärken, gab es Ereignisse, in denen andere Antriebe wirkten, die weniger gut verstanden sind.
Über die relative Warmzeit im Mittelalter ist noch nicht mal bekannt, ob es wirklich ein globales Ereignis war oder zu verschiedenen Zeiten unterschiedliche Teile der Erde warm wurden. Insgesamt kann es kaum wärmer gewesen sein als zum Ende des 20. Jahrhunderts, und wahrscheinlich war es da gerade mal ein halbes Grad wärmer als zu Beginn des 20. Jahrhunderts.

Wesentlich ausgeprägter war eine Erwärmung vor 8.000 Jahren, das Klimaoptimum des Holozäns. Damals könnte es durchaus vorübergehend fast so warm gewesen sein wie heute, vielleicht aber liegen wir in diesem Jahrzehnt sogar über dem Maximum der laufenden Zwischeneiszeit. Doch vor den Eiszeiten gab es weitaus stärkere Warmzeiten. Vor 55 Millionen Jahren (55,5 oder 55,8 Millionen Jahre, je nach Quelle) war das Paläozän-Eozän Temperaturmaximum (PETM), das ca. 100.000-200.000 Jahre anhielt. In einem Artikel in Nature von Jason Head, Bloch, Hastings, Bourque, Cadena, Herrera, Polly und Jaramillo, Giant boid snake from the Paleocene neotropics reveals hotter past equatorial temperatures, Nature 457, 715 (2009) wird über eine Riesenboa, eine 13 Meter lange und über 1 Tonne schwere Riesenschlange berichtet, die vor über 58-60 Millionen Jahren gelebt hatte. Aus ihrer Größe leitet man ab, daß ihre Umgebungstemperatur mit einer Jahresmitteltemperatur über 30 Grad wärmer gewesen sein mußte, als es heute in den Tropen üblich ist. Beim PETM 3-5 Millionen Jahre später muß es noch wärmer gewesen sein. Die Tropen könnten Temperaturen um 38-40 Grad im Jahresmittel erreicht haben – für Menschen und viele andere Lebewesen unerträgliche Temperaturen. Laut einer anderen Studie in Nature lagen die Temperaturen in der Arktis über 20 bis 23 Grad, 5 Grad wärmer als vor dem PETM. (Sluijs et al,, Subtropical Arctic Ocean temperatures during the Paleocene/Eocene thermal maximum, Nature 441, 610 (2006).) Die Arktis war natürlich eisfrei. Es ist nicht klar, was das PETM erzeugt hat, aber es war möglicherweise begleitet von hohen Methan-Konzentrationen, einem besonders potenten Treibhausgas. Quelle für das Methan könnten Sümpfe oder ozeanische Methanhydrate, die aus tiefen Wasserschichten emporgesprudelt sind.

Dieses Ereignis zeigt zum einen, wie hoch Temperaturen auf der Erde steigen können, wenn es einen geeigneten Antrieb gibt. Es gibt, anders als vereinzelte Wissenschaftler behaupten, keinen tropischen „Thermostaten“, der zu starke Temperaturanstiege in den Tropen verhindern würde. Und ein an sich noch nicht katastrophaler Temperaturanstieg kann andere Rückkopplungen auslösen, die über eine Methanfreisetzung Klimaänderungen noch weiter verstärken.

Eine neue Studie verstärkt genau diesen Punkt, und verdeutlicht dabei, daß die vorhandenen Klimamodelle solche positiven Rückkopplungen vermutlich unterschätzen. Kürzlich gab es von Nature Geoscience ein Vorabinformation über Richard Zeebe, Zachos und Dickens, Carbon Dioxide forcing alone insufficient to explain Paleocene-Eocene Thermal Maximum warming, Nature Geoscience, 13. Juli 2009, doi:10.1038/ngeo578. Dort beschreiben die Autoren, daß sie die Klimaentwicklung in der PETM mit einem Modell für den Kohlenstoffkreislauf und gemessenen Daten über gelösten Kohlenstoff in den Ozeanen und Anteile der Kohlenstoffisotope nachvollzogen hatten. Ihr Ergebnis war, daß die freigesetzten Mengen an Kohlenstoff (deren Quellen unklar sind) mit den heute bekannten Klimasensitivitäten für CO2 eine Erwärmung um allenfalls 1 – 3,5 Grad erklären könnten, jedoch nicht von 5-9 Grad, wie man tatsächlich für das PETM annimmt. Daraus schließen die Autoren, daß es weitere positive Rückkopplungen auf größerer Zeitskala gibt, die damals in Gang gesetzt wurden, die uns aber in der Zukunft auch drohen könnten.

Diese Erkenntnisse bestätigen Hinweise von Hansen, die vor ca. einem Jahr sehr skeptisch aufgenommen wurden. Er hatte darauf hingewiesen, daß man die Klimaentwicklung seit der letzten Eiszeit schlüssiger erklären kann, wenn man neben den schnellen Rückkopplungen, die zu einem Temperaturanstieg um 2 – 4,5 Grad je Verdopplung des CO2-Mischungsverhältnisses führen, auch langsamere Rückkopplungsmechanismen berücksichtigt, die die Klimasensitivität auf ca. 6 Grad je Verdopplung von CO2 steigern. In diesem Fall wäre aber selbst die Absicht, das CO2-Mischungsverhältnis auf unter 450 ppm langfristig zu begrenzen nicht ausreichend, um katastrophale Klimaveränderungen zu verhindern. Hansens Ziel wären dann 350 ppm CO2 als langfristige Grenze. Das mag illusorisch erscheinen, da schon jetzt das globale CO2-Mischungsverhältnis bei ca. 387 ppm steht. Aber im Falle einer baldigen Einstellung der CO2-Emissionen würden die Ozeane gewaltige Mengen an CO2 aufnehmen und alleine dadurch die CO2-Konzentration der Atmosphäre wieder sinken. Das PETM ist eine klare Warnung, daß unsere Klimamodelle das langfristige CO2-Problem systematisch unterschätzen und daß es keinen „Erdthermostaten“ gibt, der katastrophale Klimaentwicklungen verhindert.

Montag, 16. März 2009

Zu spät, um noch mit einem blauen Auge davon zu kommen?

Die Klimaforschung hat eine ganz eigene Dramaturgie, die an die Dynamik der Kollision zweier Öltanker erinnert, deren Kapitäne bereits eine halbe Stunde vorher wissen, daß der Unfall nicht mehr zu vermeiden ist, aber in der Zwischenzeit noch in Ruhe ihre Mittagessen einnehmen können. Seit Ende der 70er Jahre wissen wir, daß wir mit den CO2-Emissionen vermutlich auf Dauer Probleme bekommen werden, seit Ende der 80er Jahre, daß der Klimawandel bereits begonnen hat und Probleme auf Dauer sicher sein werden, und trotzdem haben die Entscheidungsträger die ganze Zeit so getan, als sei noch viel Zeit zu handeln. Das ist bedrohlich in einem System, das Bremsspuren macht, die bei einer Länge von 50 Jahren anfangen (globale Temperatur) über Jahrhunderte (Abschmelzen des Festlandeises auf Grönland und in der Westantarktis) und Jahrtausende (Verweildauer von mindestens der Hälfte des CO2 in der Atmosphäre) gehen. Man neigt dazu, noch während der Kollisionsphase zu sagen: „Aber es ist ja noch nichts geschehen.“

Es gibt mehrere Gründe, warum inzwischen Zweifel aufkommen, ob wir den Klimawandel überhaupt noch in den Griff bekommen.

China kriegt die Kurve nicht

Die Emissionen Chinas: die chinesischen CO2-Emissionen steigen schneller als in allen Prognosen auf dem Stand des 3. Assesment Reports des IPCC. Neue Studien zeigen, daß selbst im optimistischen Fall sich die chinesischen CO2-Emissionen in den nächsten 20 Jahren verdoppeln werden, trotz massiven Ausbaus der Kernenergie und alternativer Energieträger und selbst unter Berücksichtigung von Technologien zum Auffangen und Ablagern von CO2 bei neuen Kohlekraftwerken. Und China ist dabei ein Platzhalter, der auch für Indien, Indonesien, den Iran, die Türkei, Pakistan, Nigeria, Mexico und viele andere Staaten steht, die ebenfalls bevölkerungsreich sind und Nachholbedarf bei der Entwicklung haben.

Bereits gebuchte Erwärmung ist größer

Eine neue Studie hebt die Menge an Erwärmung an, die bereits im System angelegt ist, aber wegen der Verzögerung durch die Ankopplung der Meere und möglicher Kühlung durch Aerosole noch nicht realisiert wurde. Dazu gibt es eine Publikation: D. P. Van Vuuren, M. Meinshausen, G.-K. Plattner, F. Joos, K. M. Strassmann, S. J. Smith, T. M. L. Wigley, S. C. B. Raper, K. Riahi, F. de la Chesnaye, M. G. J. den Elzen, J. Fujino, K. Jiang, N. Nakicenovic, S. Paltsev, and J. M. Reilly: Temperature increase of 21st century mitigation scenarios, Proceedings of the National Academy of Sciences of the USA, die hier verlinkt ist.

Selbst im striktesten Vermeidungsszenario kommt die Studie bis 2100 auf eine Erwärmung von 1990 an von 1,4 Grad mit einem Unsicherheitsbereich von 0,5 – 2,8 Grad. Selbst in dem Band der stärksten und raschesten Maßnahmen zur Reduktion der Treibhausgasemissionen besteht die Möglichkeit zu einer globalen Erwärmung von mehr als 2 Grad, der Grenze, bis zu der man die Folgen der globalen Erwärmung für moderat hält und bewältigen kann.



Was das IPCC verschwiegen hat

Doch selbst die Überlegungen dazu, welche Erwärmung eigentlich noch mit moderaten Folgen abläuft, wurden in den letzten Jahren revidiert. Die Veröffentlichung dazu ist schon wieder ein Politikum für sich.

Die Ergebnisse des IPCC basieren auf dem Stand der Wissenschaft, wie er zur Erstellung der IPCC-Berichte publiziert oder bekannt war. Es wurde jedoch nur in den IPCC-Bericht hereingenommen, was im Review durch die Experten und Staaten nicht auf Einspruch stieß. Einige Staaten, explizit genannt werden die USA, Russland, China und Saudi-Arabien, haben massiven Einfluß genommen, die Aussagen des IPCC zu entschärfen. Im konkreten Fall geht es um ein Diagramm, das darstellt, wie Risiken in verschiedenen Bereichen abhängig von der globalen Temperatur auftreten. Die gestrichene Graphik kann man nun in einer Publikation sehen von Joel B. Smith, Stephen H. Schneider, Michael Oppenheimer, Gary W. Yohe, William Hare, Michael D. Mastrandrea, Anand Patwardhan, Ian Burton, Jan Corfee-Morlot, Chris H. D. Magadza, Hans-Martin Füssel, A. Barrie Pittock, Atiq Rahman, Avelino Suarez and Jean-Pascal van Ypersele, Assessing dangerous climate change through an update of the Intergovernmental Panel on Climate Change (IPCC) “reasons for concern”, Proceedings of the national Academy of Sciences, 27.02.2009.

Die wesentliche Botschaft ist hier, daß nun erhebliche Risiken bereits bei einer deutlich niedrigeren globalen Erwärmung gesehen werden. Bereits bei einer globalen Erwärmung von einem Grad steht man bei mehreren der betrachteten Risiken im roten Bereich. Zu extremen Wetterereignissen mit Schäden an Vermögenswerten und Leben trägt die globale Erwärmung jetzt schon zu einem gewissen Teil bei. Unter Verdacht stehen einige Sturmereignisse, Überschwemmungen oder die Hitzewelle und die Brandereignisse in Australien. In allen Fällen kommen andere Ursachen maßgeblich oder möglicherweise dazu, aber Klimaveränderungen spielen in vielen Fällen sehr wahrscheinlich bereits eine Rolle.

Besorgniserregend ist auch, daß das Eis auf Grönland beim gegenwärtigen Klima bereits als nicht mehr stabil angesehen wird. Sollte es mal abtauen, würde es sich nicht wieder neu bilden. Nur weil das grönländische Eisschild bis zu 3 Kilometer dick ist, liegt es zum großen Teil in solchen Höhen, daß Niederschläge das Abtauen zum großen Teil ersetzen können. Auf dem Bodenniveau wäre es bereits zu warm, damit sich neue Gletscher aufbauen könnten – im Sommer würde neu gebildetes Eis immer wieder abtauen.

Die gebildeten Risikokategorien sind nicht alle einfach nachzuvollziehen, aber das Diagramm dazu ist intuitiv verständlich. Wohl deshalb gab es die Widerstände einiger Hauptverschmutzer, die Graphik aufzunehmen und nur kurze Textaussagen zu übernehmen.



Wir sind bereits auf Kollisionskurs, aber Aerosole nehmen uns die Sicht

Eine ähnliche Sicht unterstützt ein anderer Artikel von V. Ramanathan and Y. Feng, On avoiding dangerous anthropogenic interference withthe climate system: Formidable challenges ahead. Proceedings of the National Academy of Sciences, 105, 14245–14250 (2008).

Auch hier wird ein düsteres Bild gezeichnet. Der beobachtete Anstieg der Treibhausgaskonzentrationen hätte bereits im Strahlungsgleichgewicht einen Anstieg der Temperatur um 2,4 Grad zur Folge mit einer Unsicherheitsspanne von 1,4 bis 4,3 Grad. Damit läge man aber schon jetzt in der Spanne von 1 bis 3 Grad, bei der verschiedene Kippunkte überschritten werden, etwa für die Gletscher im Himalaya (Wasserversorgung für Indien und China) und das grönländische Eisschild (in anderen Arbeiten habe ich allerdinsg gelesen, daß dieser Kippunkt auch im optimistischen Fall bis hoch zu 6 Grad liegen könnte). Nach den IPCC-Modellen wurde bisher gerade 25% dieser Erwärmung realisiert. Der Rest käme zu 90% in diesem Jahrhundert, abhängig davon, wie viel von der bisherigen Erwärmung durch Aerosole maskiert wurde und wie stark bisher die Ozeane die Erwärmung gedämpft hatten. Jede Strategie zur Vermeidung von Treibhausgasemissionen, egal wie aggressiv durchgeführt, kann nicht unter diesen Stand von 2,4 Grad vorgemerkter Erwärmung gelangen. Die Zahlen liegen etwas höher als in der am Anfang genannten Arbeit, teilweise aber, weil hier die Erwärmung aus dem 20. Jahrhundert mit berücksichtigt wird, teilweise, weil hier der Anteil der Erwärmung nach 2100 dazugezählt wird. Korrigiert man dafür, stimmen die Zahlen in dieser Arbeit und in der von Van Vuuren et al weitgehend überein.

Keine schönen Neuigkeiten…

Sonntag, 8. März 2009

Klimasensitivität neu eingegrenzt, weniger Grund zur Sorge?

Die Klimasensitivität ist eine einfache Zahl, um die Frage zu beantworten, was bei einer Verdopplung der CO2-Konzentration herauskommt. 1 Grad erwärmt sich die Erde direkt durch den CO2-Anstieg, 2 Grad durch die Summe aller Rückkopplungen, von denen die meisten und die wichtigsten positiv sind, wie etwa die Wasser-Temperatur-Rückkopplung, zu der ich bereits hier geschrieben hatte. Die gesamte Klimasensitivität von 3 Grad je Verdopplung von CO2 (oder entsprechenden Äquivalenten anderer Treibhausgase) ist jedoch nur ein zentraler Wert einer Verteilung, die recht unsicher ist. 2 Grad und 4,5 Grad sind Ränder dieser Verteilung, aber Werte außerhalb dieser Grenzen kann man auch nicht sicher ausschließen. Insbesondere der obere Rand der Verteilung ist nur vage begrenzt. Auch 6 Grad je Verdopplung von CO2 kann man nicht ausschließen. Und das nicht nur deshalb, weil die Klimasensitivität nur einen Wert beschreibt für einen Zeithorizont von maximal 100 Jahren. Hansen meint sogar, aus der Untersuchung von Eiszeiten abgeleitet zu haben, daß langfristig die Klimasensitivität auf jeden Fall bei 6 Grad je Verdopplung von CO2 liegen könnte. Ich betrachte das nicht weiter, weil das hier zu weit ab vom Thema führt.

Daß der obere Rand der Klimasensitivität besonders vage begrenzt ist und einen langen Schwanz von Werten hat, deren Wahrscheinlichkeit gering, aber eben nicht vernachlässigbar ist, bereitet besondere Sorge. Die Aussicht auf Werte einer globalen Erwärmung über 6 Grad zum Ende des Jahrhunderts ist die Aussicht auf Klimaänderungen, die in einen Zusammenbruch unserer Zivilisation führen würden, selbst in Szenarien, bei denen bis zum Ende des Jahrhunderts die Treibhausgasemissionen sinken. Diesen Schwanz kann man von zwei Seiten her angreifen. Zum einen kann man sich die Rückkopplungen anschauen und versuchen, sie möglichst genau zu beziffern. Da bleibt man aber schnell bei den Unsicherheiten der Wolkenparametrisierung oder der Aerosoleffekte hängen, die nun einmal die beiden unsichersten Terme in den Modellen sind. Irgendwann werden wir genaueres wissen, aber niemand kann sagen, wann das der Fall sein wird.

Die andere Möglichkeit ist die Betrachtung der Klimasensitivität als solcher. Wie ändert sich die Temperatur der Erde, wenn der Klimaantrieb variiert. Es gibt viele solcher Studien und die Antwort ist immer – wahrscheinlich 3 Grad je Verdopplung der CO2-Konzentration oder eines vergleichbaren Antriebs (Änderung der solaren Strahlung, Ausstoß von Sulfataerosolen aus Vulkanen usw.), möglicherweise aber auch nur 1,5 oder auch 4,5 Grad, aber ein langer Schwanz bis rauf zu 6 oder gar 7,5 Grad kann nicht ausgeschlossen werden. Das ist auch der Stand des IPCC-Berichts von 2007.

Nun gibt es eine neue Arbeit: Urban, Nathan M., and Klaus Keller, 2009. Complementary observational constraints on climate sensitivity. Geophys. Res. Lett., 36, L04708, doi:10.1029/2008GL036457, February 25, 2009, in press. Die meinen, sie könnten nun den langen Schwanz ausschließen. Sie versuchen das Problem dadurch in den Griff zu bekommen, daß sie zwei Größen betrachten: die Änderung der globalen Temperatur am Boden und den Wärmegehalt der Ozeane. Der Trick dabei ist, daß diese beiden Größen gekoppelt sind über die Geschwindigkeit, mit der Hitze in die Ozeane hinein transportiert wird. Geschieht das schneller, steigt die globale Temperatur langsamer bei gegebener Erwärmung der Ozeane. Ist der Transport langsamer, steigt die Temperatur schneller bei gegebener Erwärmung der Ozeane. Da globaler Temperaturanstieg an der Oberfläche und der Anstieg des Wärmegehalts der Ozeane voneinander nicht unabhängig sind, begrenzen beide zusammengenommen die Klimasensitivität stärker als jede dieser Größen für sich genommen. Ich könnte also z.B. aufgrund der globalen Temperaturen feststellen, daß eine gewisse Änderung des globalen Klimaantriebs verträglich ist mit einer Sensitivität von 6 Grad, sofern nur die Wärme sehr schnell und stark in die Ozeane abgleitet wird. Wenn ich aber gleichzeitig feststelle, daß der Wärmegehalt der Ozeane nicht besonders stark steigt, dann mag das für sich auch verträglich sein mit einer hohen Klimasensitivität, aber nur, wenn dann die Oberflächentemperaturen stark steigen, weil Wärme nur sehr langsam in die Ozeane hinein transportiert wird. Beides gleichzeitig geht aber nicht, und schließt den langen Schwanz sehr hoher Klimasensitivität aus. Genau das beobachten die Wissenschaftler in der Anwendung ihres Modells auf die bekannten Daten für die Temperaturen, die klimatischen Antriebskräfte und die Erwärmung der Ozeane für den Zeitraum 1750 bis 2000. Ihr Ergebnis ist, daß die Klimasensitivät in den Bereich fällt, der im IPCC-Bericht als besonders wahrscheinlich angegeben wird: 2 bis 4,5 Grad je Verdopplung von CO2, ohne den langen Schwanz hin zu hohen Klimasensitivitäten. Das ist nur begrenzt beruhigend, weil uns auch schon 2 – 4,5 Grad Erwärmung je Verdopplung von CO2 Sorgen machen. Um präzise zu sein, da sich andere Treibhausgaskonzentrationen auch erhöhen (werden), wir die globale Erwärmung trotzdem deutlich höher ausfallen, wenn nicht strenge Gegenmaßnahmen getroffen werden.

Es gibt noch mögliche Einwände, auf die die Autoren selbst hinweisen. Diese Einwände würden dazu führen, daß der lange Schwanz zu hohen Klimasensitivitäten nicht wirklich ausgeschlossen ist. Zum einen gibt es in den historischen Daten zu Klimaantrieben (etwa tatsächliche Treibhausgaskonzentrationen, Sulfatemissioenn der Vulkane und solare Strahlung in der Vergangenheit) Unsicherheiten, zum anderen ist ein recht einfaches Klimamodell benutzt worden, um schnell Rechnungen über diesen langen Zeitraum durchführen zu können. Weitere Untersuchungen sollen hier zu mehr Sicherheit führen. Nimmt man andere Arbeiten dazu (meistens in den IPCC-Berichten zitiert), wächst die Sicherheit, daß man die Klimasensitivität im IPCC-Bericht richtig mit dem Bereich von 2 – 4,5 Grad je CO2-Verdopplung angenommen hat. Damit bleibt Raum für die Hoffnung, daß eine Begrenzung der globalen Erwärmung auf ca. 2 Grad möglich ist, auch wenn es sehr schwer fallen wird.

Sonntag, 16. November 2008

Klimasensitivität - die Wasser-Temperatur-Rückkopplung

Die Verdopplung der CO2-Konzentration allein führt über den Treibhauseffekt nur zu einer moderaten Temperaturerhöhung von ca. 1,2 Grad Celsius. Erst Rückkopplungseffekte verstärken die Auswirkungen der Erhöhung der Treibhausgaskonzentrationen auf die derzeit anerkannte Spanne im Bereich von ca. 1,5 bis 4,5 Grad Celsius mit dem wahrscheinlichsten Wert von 3 Grad. Daß diese Rückkopplungen bestehen, zeigen Auswertungen von Klimaveränderungen in der Vergangenheit. Hier war der Antrieb meist eine Veränderung der Aufnahme der Sonnenstrahlung durch Bahnveränderungen der Erde, aber auch Häufungen von Vulkanausbrüchen, die über ausgestoßenes Aerosol die Reflektion von Sonnenlicht erhöhten. Betrachtet wurden Eiszeiten, aber auch z.B. globale Temperaturschwankungen in den letzten Jahrhunderten und Jahrzehnten. Übereinstimmend ergeben Auswertungen vergangener Klimaänderungen und die Modellrechnungen einen positiven Beitrag der Rückkopplungen, die globale Temperaturänderungen um einen Faktor ca. 2,5 verstärken (mit der Spanne ca. 1,5 bis über 3).

Von ganz besonderer Bedeutung ist dabei die Temperatur-Wasser-Rückkopplung. Ihre Größe und ihr Vorzeichen macht letztlich den Unterschied aus zwischen Szenarien, bei denen der der Anstieg der Treibhausgasemissionen zu einer deutlichen globalen Erwärmung mit allen diskutierten Folgen führt und solchen, bei denen die Klimaänderung sich in kontrollierbaren Grenzen hält. Die Möglichkeit, daß eine steigende Temperatur auf geheimnisvolle Weise dazu führt, daß letztlich weniger Wasser in der Atmosphäre ist oder die Wolken sich so ändern, daß sie mehr Sonnenlicht reflektieren war seit langem die einzige wissenschaftlich begründbare Position, den Grundaussagen des IPCC skeptisch gegenüber zu stehen.
Diese Position hatte ich bereits als die Iris-Hypothese von Lindzen erwähnt. Kurz zusammengefaßt behaupten Lindzen und einige wenige andere Wissenschaftler dabei, daß über warmen Meeresflächen die hohen Cirruswolken ausgedünnt werden und dadurch mehr Wärme in das Weltall abgestrahlt werden kann, wodurch die Erde gekühlt wird. Das wäre eine negative Rückkopplung.

Diese Behauptung wurde bereits wiederlegt – sie stimmt mit Messungen nicht überein. Darüber hinaus wurde bereits in anderen Arbeiten und Modellrechnung wiederholt bestätigt, daß eine Erwärmung der Erde dazu führt, daß die Luft eher mehr Wasser halten kann und dadurch Wasser als zusätzliches Treibhausgas den Treibhauseffekt anderer Treibhausgase verstärkt – entsprechende Literaturstellen findet man in den IPCC-Berichten an gegebener Stelle.

Wem alle diese Nachweise und Diskussionen noch zu abstrakt waren, für den sollte eine Veröffentlichung alles klar machen, die letzten Monat herauskam. Hier wurde eine starke Temperatur-Wasser-Rückkopplung auf der Basis einer Auswertung von Satellitenmessungen nachgewiesen, die im Einklang mit Untersuchungen vergangener Klimaänderungen und mit den Modellergebnissen steht. Dessler, Zhang und Yang haben in einer sehr knapp und präzise formulierten Arbeit, die kürzlich in den Geophysical Research Letters publiziert wurde, aus Satellitendaten abgeleitet, wie stark die Temperatur-Wasser-Rückkopplung ist (über den Link ist leider nur die Zusammenfassung des Artikels frei verfügbar - den Artikel selbst erhält man hier). Gemessen wurden dabei verschiedene Größen, wie Temperatur und Feuchtegehalt der Atmosphäre. Sie fanden einen relativ hohen Wert von 2,04 W/m2/K heraus. Das heißt, je 1 Grad Klimaerwärmung steigt der Wassergehalt der Atmosphäre derart, daß der Treibhauseffekt einen zusätzlichen Antrieb von 2,04 W/m2 erhält, entsprechend einer weiteren Verdopplung der CO2-Konzentration. Damit ist aufgrund von Messungen bestätigt, daß zusammen mit anderen bereits bekannten positiven Rückkopplungen dafür eine Verdopplung von CO2 zu einer Temperaturerhöhung von nunmehr mindestens 3 Grad führt, möglicherweise auch mehr. Zusammen mit der höher als erwarteten Emissionsentwicklung heißt das, daß von den IPCC-Szenarien derzeit eher die pessimistischen zutreffen werden oder diese sogar noch übertroffen werden. Es gibt derzeit in der Fachliteratur einen Trend, und der deutet darauf hin, daß die Aussagen des IPCC eine wirkliche konservative Abschätzung der anstehenden Probleme darstellen - konservativ in dem Sinne, daß eher eine untere Grenze der Klimaänderungen und Klimafolgen dargestellt wird. Eine weitere Diskussion zu diesem Thema findet man auch hier.

Montag, 20. Oktober 2008

Neues zu CO2 und Temperaturentwicklung in den letzten 1000 Jahren

Den Treibhauseffekt hatte ich auf diesen Seiten bereits erklärt, gleichwohl es dafür ausführlichere und bessere Quellen gibt. Wir wissen, aufgrund der Spurengasbilanz (wenn man einen großen Teil der verfügbaren Kohle-, Öl- und Gasreserven verbrennt, kann man berechnen, wie groß die damit ausgestoßene CO2-Menge ist) und aufgrund von Messungen von Gaseinschlüssen im ewigen Eis, daß der Anstieg der CO2-Menge in der Atmosphäre in den letzten über 100 Jahren ausschließlich auf menschliche Ursachen zurückzuführen ist. Aus diesem Grund definiert man auch gerne den für ca. 1750 bestimmten Wert des CO2-Mischungsverhältnisses von 280 ppm als den natürlichen Hintergrund. Tatsächlich wissen wir aber nur sehr ungefähr, wie normal der Wert gerade in jener Zeit war. Die Messungen aus den Gaseinschlüssen sind messtechnisch anspruchsvoll und haben eine geringe zeitliche Auflösung. Daher ist es von besonderem Interesse, wenn man weitere Quellen zur Verfügung hat, um historische CO2-Werte zu bestimmen, gerade für die Zeit, in der man einigermaßen vernünftige Aussagen zur Temperaturentwicklung treffen kann. Eine alternative Möglichkeit ist die Bestimmung der Zahl der Stomata an Blattunterseiten. Blätter aus der Vergangenheit kann man z.B. aus Mooren gewinnen und mit der C-14-Methode datieren. Je mehr CO2 in der Atmosphäre war, desto weniger Stomata braucht eine Pflanze, um das Gas „einzuatmen“. Beide Größen sind daher antikorreliert. Unter dem folgenden Link kommt man zu einem Artikel von Van Hoof et al. in den Proceedings der National Academy of Sciences, 2008: A role for atmospheric CO2 in preindustrial climate forcing. Hier wird die Entwicklung des CO2-Mischungsverhältnisses für die letzten Jahrhunderte gezeigt (zwischen ca. 1000 und 1500). Man sieht dabei Fluktuationen mit einer Spanne von über 30 ppm, die man nicht auf menschliche Einflüsse zurückführen kann. Anscheinend ist die natürliche Variabilität des CO2 auch auf einer so kurzen Zeitskala größer, als es sich mit den Eisbohrkernanalysen zeigen lässt. Die daraus abgeleitete Spanne der globalen Temperaturänderungen könnte je nach Sensitivität für CO2-Änderungen bis zu fast 0,3 Grad betragen. Im Rahmen der Unsicherheiten ist das alles nicht wirklich unvereinbar mit der Darstellung in den IPCC-Berichten. Es stellt sich daher die Frage, warum die Autoren meinen herausstellen zu müssen, daß ihre Ergebnisse den IPCC-Berichten in einigen Punkten widersprechen würden. Im Kern bleibt, daß der natürliche Hintergrund des CO2-Mischungsverhältnisses vielleicht unschärfer definiert ist, als ursprünglich angenommen. Voraussetzung dafür ist, daß der Einwand von Grumbine in seinem Blog nicht zum Tragen kommt, daß die CO2-Fluktuationen von lokalen Ereignissen geprägt sein können – immerhin könnte so ein Sumpf oder Moor, aus dem man die Blätter zur Analyse gewinnt, je nach Temperatur eine stärkere lokale CO2-Quelle sein. Haben die Autoren recht, dann könnten die Meere in der Vergangenheit recht dynamisch CO2 ausgegast oder aufgenommen haben, in Wechselwirkung mit globalen oder regionalen Temperaturschwankungen. Das würde auf einen stärkeren Rückkopplungseffekt der beiden Größen hinweisen. Die globale Temperatur wäre also etwas stärker sensitiv zu der CO2-Konzentration und schwächer zu Vulkane und Sonneneinstrahlung als derzeit im Mittel angenommen wird. Aber bevor man so weitreichende Schlüsse zieht, sollte doch lieber diese Analyse noch mal untersucht werden, es sollten Blätter aus anderen Quellen herangezogen werden und alternative Erklärungen für die beobachteten Abweichungen zwischen Eisbohrkerndaten und Stomatadaten für CO2 untersucht werden.

Donnerstag, 4. September 2008

Hockeyschlägerkurve erneut bestätigt und was das bedeutet

Temperaturrekonstruktionen geben einen Eindruck davon, wie sich die Temperatur global und in bestimmten Regionen in der Vergangenheit entwickelt hatte. Der wesentliche Zweck dieser Rekonstruktionen ist es, zu verstehen, wie sich das Klima abhängig von verschiedenen Einflußgrößen wandeln kann und wie variabel es ist. Hat es früher starke Veränderungen gezeigt, müssen wir befürchten, daß es auch auf den CO2-Konzentrationsanstieg stark reagiert. In Verbindung mit Informationen über andere Einflüsse, zum Beispiel Vulkanausbrüche oder Änderungen der Sonneneinstrahlung kann man daraus ableiten, wie das Klima auf diese Veränderungen reagiert. Außerdem kann man darüber auch Modelle validieren, Schwächen aufzeigen und Klimamodelle verbessern.
Deshalb war die frühe Temperaturrekonstruktion von Mann, M.E., R.S. Bradley, and M.K. Hughes. 1998. Global-scale temperature patterns and climate forcing over the past 6 six centuries. Nature 392:779-787. so wichtig, da hier erstmals in diesem Umfang eine Temperaturrekonstruktion vorgelegt wurde.

Was eine solche Temperaturrekonstruktion ausdrücklich nicht kann und nicht soll, ist irgendeinen Beweis dafür zu erbringen, was die Ursachen für den Temperaturanstieg seit Mitte des 20. Jahrhunderts sind. Eine Korrelation zwischen CO2-Anstieg und Temperaturanstieg war nie ein Argument in der Klimadebatte. Menschen, die die Klimaforschung nicht verstehen, unterstellen dies aber und haben daher den falschen Eindruck, die Tatsache, daß die Temperaturentwicklung in den letzten 1000 und sogar fast 2000 Jahren vor unserer Zeit nie einen solchen Temperaturanstieg zeigte wie in den letzten 100 Jahren, wäre der Beleg dafür, daß Menschen über Treibhausgase das Klima ändern. Nein, wenn man soviel CO2 in die Luft bläst (und andere Treibhausgase), wie es seit über 100 Jahren nun der Fall war, dann ist ein erhöhter Strahlungsantrieb und damit ein Temperaturanstieg zwingend. Um das zu beweisen, benötigt man keine Temperaturrekonstruktionen und keine CO2-T-Korrelationen.

Durch diesen falschen Eindruck der Aufgabe von Temperaturrekonstruktionen kam es dazu, daß die Hockeyschlägerkurve von Mann et al. so stark angegriffen wurde, wie kaum ein anderer Beitrag zur Klimaforschung. Man könnte darüber reden, welche Fehler bei dieser immerhin frühen und ambitionierten Arbeit gemacht wurden und wie signifikant sie sind. Das ist aber eine Expertendiskussion, die man sich mit einer sehr einfachen Betrachtung ersparen kann. Kommen andere Gruppen mit anderen Daten und anderen Methoden prinzipiell zum gleichen Ergebnis wie Mann et al. 1998 ? Ja. Ich hatte darüber bereits an dieser Stelle berichtet. Man kann sich bei dem vierten Bericht des IPCC von 2007 die Temperaturrekonstruktionen anschauen und sieht, daß man auf den ersten Blick Mann et al. 1998 von anderen Temperaturkurven nicht unterscheiden kann. Man kann auch einen unabhängigen Bericht des National Research Council in den USA von 2006 anschauen (Surface Temperature Reconstructions for the Last 2,000 Years), der ebenfalls zwar einige Probleme anmerkte, aber im Grundsatz auch zum gleichen Resultat kam.

Und man kann sich nun die Ergebnisse der neuesten Temperaturrekonstruktion in den Proceedings of the National Academy of Sciences (Proxy-based reconstructions of hemispheric and global surface temperature variations over the past two millennia, Mann et al. 2008) bei Real Climate hier anschauen (siehe auch den Kommentar von Joe Romm hier), bei der man viermal so viele Datensätze zur Verfügung hatte, bei der man auch Rekonstruktionen zeigt, die nicht auf Hauptkomponentenanalysen und nicht auf Baumringdaten basieren (die beiden beliebtesten Einwände gegen Mann et al.) und man sieht: die grundsätzliche Aussage von Mann et al. ist robust gegen Datenquellen und Methodik der Auswertung von Proxydaten. Egal wie man die Daten behandelt und welche Daten man nimmt, das Mittelalteroptimum war vielleicht so warm wie die Mitte des 20. Jahrhunderts, aber seitdem ist es ca. 0,5 Grad wärmer auf der Erde geworden. Damit haben wir das schmale Band klimatischer Verhältnisse verlassen, in dem sich menschliche Zivilisationen entwickelten und die Menschen die heutige Bevölkerungsdichte aufbauten, worauf Joe Romm gerne hinweist. Das Unbehagliche an dieser Betrachtung ist, daß wir ja den größeren Teil der globalen Erwärmung nach allen Prognosen noch vor uns haben.
Die neue Arbeit von Mann et al 2008 hat den Vorzug, daß nun zum einen die Datenabdeckung auf der Südhemisphäre besser ist und besser abgeschätzt werden kann, wie stark das Mittelalteroptimum auf der Südhemisphäre war (nämlich merklich schwächer ausgeprägt als in unseren Breiten), zum anderen werden zeitliche Strukturen deutlicher, aus denen man schließen kann, daß das Klima empfindlicher reagiert als es in früheren Arbeiten erkennbar war. Es könnte ein weiterer Hinweis darauf sein, daß die gegenwärtig angenommene Klimasensitivität von 3 Grad je Verdopplung der CO2-Konzentration eher den Treibhauseffekt unterschätzt als überschätzt.


Falls jemand meint, hier würde nur einer von vielen natürlichen Temperaturzyklen abgearbeitet, dem sei noch ein Blick hierher anzuraten. Der gegenwärtige Temperaturanstieg beginnt nicht etwa am Ende einer Kaltzeit, sondern startet von einer relativen Warmzeit. Zudem ist der Temperaturanstieg 3 bis 10 mal schneller als bei den starken Temperaturänderungen zwischen Eiszeiten und Zwischeneiszeiten in der Vergangenheit. Am Ende der Entwicklung der Gegenwart stehen globale Temperaturen, bei denen sich die Dinosaurier auf der Erde wohl fühlten. Unsere Spezies entwickelte sich bei kühlerem Klima und an dieses ist unsere gegenwärtige globale Landnutzung angepaßt.

Mittwoch, 30. Juli 2008

Kollaps oder Krise?

Kürzlich habe ich mir die Zeit genommen, von Jared Diamond „Kollaps“ zu lesen. Diamonds Bücher sind sehr populär geworden, weil er plausible und leicht nachvollziehbare Botschaften dazu verbreitet, was Gesellschaften erfolgreich macht oder scheitern läßt. Im Falle von „Kollaps“ hatte ich erwartet, daß die bekannten Zusammenbrüche von Zivilisationen ein bißchen nach dem Katalog von Toynbee und anderen durchgegangen würden, etwa der Untergang Roms, des Sassanidenreiches, der Han-Dynastie usw. Diamond aber hatte sich speziell die Gesellschaften herausgegriffen, die an Umweltproblemen gescheitert sind. Das war zunächst eine Enttäuschung, andererseits konnte das Buch aber so eine griffige Botschaft herausarbeiten. Zunächst mal: es gibt Faktoren dafür, die erklären, warum eine Gesellschaft an Umweltproblemen scheitern wird (wobei hiermit vor allem die Zerstörung der Nahrungsgrundlagen gemeint ist). Unter anderem zählen zu diesen Faktoren

  1. wie stark wird das Siedlungsgebiet der Zivilisation genutzt

  2. wie schnell erneuern sich die Ressourcen des Gebietes

  3. wie sind die kulturellen Einstellungen in der Zivilisation zur Nutzung der Ressourcen

  4. wie sind die Beziehungen zu anderen Zivilisationen (anderen Staaten, Inseln, Siedlungsräumen usw.), um Ressourcenprobleme ausgleichen zu können

  5. Klimaeinflüsse
Diese Faktoren sind wohl einleuchtend. Am Beispiel der Südseeinseln läßt sich etwa zeigen, daß sie alle nach dem Eintreffen der ersten Siedler schnell übernutzt wurden. Vorhandene Tierarten wurden durch Überjagung ausgerottet, Bäume schneller gefällt , als sie nachwuchsen, Ackerland ging durch Erosion verloren. Auf manchen Südseeinseln, z.B. der Osterinsel, führte das schließlich zum völligen Zusammenbruch und der Verwüstung der Insel, andernorts hingegen konnten sich die Inselgesellschaften bis heute fortentwickeln.
Dieses Resultat hing stark vom zweiten Faktor ab – je besser eine Insel in der Lage war, ein Nachwachsen der Bäume und eine Erneuerung des Bodens zu unterstützen (etwa durch höheren Niederschlag und stärkere Düngung durch die Asche von Vulkanen), desto wahrscheinlicher war es, daß die Gesellschaft auf dieser Insel zu einer nachhaltigen Bewirtschaftung fand.
Die kulturellen Einstellungen der Zivilisation spielen eine Rolle, wenn es darum geht, wie kreativ vorhandene Ressourcen genutzt werden. Z.B. konnten die Inuit auf Grönland überleben, die Wikinger sind mit Beginn der kleinen Eiszeit auf Grönland ausgestorben – und zwar in wenigen Jahrzehnten, nachdem sie zuvor fast 500 Jahre dort gelebt hatten. Die Inuit waren in der Lage, Fisch, Wale und Robben je nach Nahrungsangebot zu nutzen und konnten so auch ungünstige Klimabedingungen überstehen. Die Wikinger hingegen waren vor allem auf die Mast von Haustieren angewiesen, sowie auf schiffbare Meere und Handel mit Europa. Ein geringfügig kälteres Klima führte dazu, daß die Haustiere verhungerten. Wären die Wikinger nicht so konservativ gewesen, hätten sie von den Inuit lernen und überleben können. Doch kulturell waren sie dazu nicht in der Lage.
Manche Gesellschaften übernutzen zwar ihre Umwelt, gleichen dies aber durch Handel mit anderen Gebieten aus. Kommen aber die Handelspartner in Schwierigkeiten oder verlieren sie das Interesse am Handel, ist die Gesellschaft, die ihre Ressourcen übernutzt, dem Untergang geweiht.
Klimaeinflüsse können bereits vorhandene Probleme kaschieren, da Niederschlag und Temperaturen zeitweilig bessere und schlechtere Werte für die Nutzung eines Gebietes einnehmen können. Die Wikinger siedelten in Grönland während milder klimatischer Verhältnisse, und konnten eine zeitweilige Absenkung der Temperaturen nicht mehr abfedern.
Letzlich war die Frage nach dem Überleben und Untergehen von Zivilisationen immer eine danach, ob die erforderlichen Nahrungsmittel sicher bereitgestellt werden konnten. Aus diesem Grund fällt es uns in den westlichen technisierten Gesellschaften schwer, die Lehren aus dieser Vergangenheit auf unsere Verhältnisse zu übertragen. Wir können uns nicht vorstellen, daß es uns an Nahrungsmitteln fehlen könnte – dies ist für uns ein Problem der Entwicklungsländer, während ein Land wie Deutschland das als reine Kostenfrage ansehen muß. Werden Weizen oder Milch knapper, zahlen wir halt entsprechend mehr. Wir machen uns allerdings nicht klar, daß es nicht nur darum geht, ob irgendwo auf der Welt Nahrungsmittel ausreichend vorhanden sind, sondern auch, ob diese zuverlässig zum Endverbraucher gelangen. Damit ist die gesamte Logistik gefragt: sind Treibstoffe vorhanden, können Verkehrswege gepflegt werden, laufen Computer, Telefone, Internet, arbeiten die Finanzsysteme, sind Währungen stabil, anerkannt, liquide? Die Steigerung des Ölpreises von 40 auf über 150 Dollar je Faß in kaum 3 Jahren, obwohl noch keine echte Verknappung des Öls eingetreten ist, sollte uns vor Augen führen, wie verwundbar unsere ölbasierte Wirtschaft ist.


Wenn ich nun auf die Lehren aus dem Buch „Kollaps“ zurückkommen möchte, geht es eigentlich um zwei Faktoren:



  1. Ist eine Gesellschaft robust oder labil gegenüber Änderungen ihrer Grundlagen, wie der genutzten Nahrungsgrundlagen, Rohstoffe oder anderen Abhängigkeiten?

  2. Sind diese Abhängigkeiten bzw. Bedingungen des Systems selbst stabil oder variabel?
Ersteres bedeutet, daß wir uns verwundbar machen. Letzteres bedeutet, daß eher spät oder eher früh der Bereich verlassen werden kann, in dem eine Gesellschaft existieren kann. Im einzelnen stelle ich das im Schaubild dar für eine Wippe. Beim robusten System (1) muß man das Gewicht weit verschieben, damit die Wippe von „gut“ zu „schlecht“ umkippt, beim labilen System (2) reicht schon eine kleine Veränderung für das Kippen des Systems. (Es gibt andere Definitionen für stabile und labile Systeme, die für diesen Spezialfall nicht interessieren, aber gebräuchlicher sind.) Bei stabilen Bedingungen (3) verschiebt sich das Gewicht nur wenig - ein robustes System wird dann vielleicht nicht darauf reagieren, ein labiles System vielleicht schon. Bei variablen Bedingungen (4) wird aber vermutlich sogar ein robustes System irgendwann kippen, die Kombination mit einem labilen System verspricht wilde Veränderungen.





In Bezug auf das Klima müssen wir feststellen, daß es von Natur aus veränderlich ist. Auf hinreichend langen Zeitskalen kann sich die mittlere globale Temperatur um vielleicht 10 Grad ändern (der Unterschied zwischen Eiszeit und den Verhältnissen vor vielleicht 30 Millionen Jahren). Der Unterschied zwischen Eiszeit und Warmzeit liegt bei vielleicht 5 bis 6 Grad und kann innerhalb von Jahrhunderten bis Jahrtausenden realisiert werden. Prinzipiell konnte der Mensch eine solche Veränderung überstehen, wenn wir auch keine Daten darüber haben, wie viele Menschen in der Steinzeit bei Klimaveränderungen verhungert oder ertrunken sind. Das heißt aber nur, daß die menschlichen Gesellschaften in einer vergleichsweise dünn besiedelten Erde insgesamt robust gegenüber Veränderungen der Lebensgrundlagen waren. Eine Erde, die von fast 7 Milliarden Menschen besiedelt ist und im Laufe der nächsten 50 Jahre wohl über 2 Milliarden weitere Menschen ernähren muß, sollte hingegen eher labil auf Veränderungen der Lebensgrundlagen reagieren. Wenn schon jetzt die wachsenden Bedürfnisse Chinas und Indiens binnen weniger Jahre Rohstoffpreise vervielfachen können, obwohl eigentlich noch alle Rohstoffe im ausreichenden Maße vorhanden sind, kann man sich vielleicht vorstellen, wie schnell es bei einer echten Knappheit zu einer Krise kommen kann – zu Preiswachstum um das 10fache, 100fache...um Verteilungskämpfe und Aufstände. Wenn bereits unter optimalen Verhältnissen die Menschheit gerade ausreichend versorgt wird, bedeutet eine Klimaänderung, bei der einige wichtige Nahrungsproduzenten Ernteausfälle melden oder die Überflutung einiger fruchtbarer Küstenstreifen, daß plötzlich dauerhaft die Nahrungsmittelproduktion nicht mehr ausreicht und Menschen auch bei optimaler Verteilung der Nahrungsmittel verhungern. Dazu kommen aber nun Versorgungskonflikte, die zusätzlich zur Hortung und Spekulation und zur Vernichtung von Ressourcen durch Aufstände und Kriege führen, und die Krise weiter verstärken. Der Schritt von einer ausreichenden Versorgung und einer Katastrophe stellt sich so als sehr klein dar.
Wenn die Menschen nun über Treibhausgase das Klima verändern, setzen wir eines oben drauf. Wir haben eine Welt, die durch Überbevölkerung immer labiler wird, machen uns dadurch immer verwundbarer gegenüber Klimaänderungen und drehen dann auch noch zusätzlich an der Schraube, die zusätzliche Variabilität beim Klima erzeugt. Das macht Vergleiche etwa mit dem Untergang der Wikinger in Grönland so erschreckend. Die Gesellschaft überlebte Jahrhunderte, trug aber die ganze Zeit die Vorbedingungen zum Untergang in sich. Eine geringfügige Klimaänderung löschte dann die grönländischen Wikinger aus.

Die Frage für die Welt ist, wie schlimm es für sie werden kann? Führt der Klimawandel zu einer dauerhaften Krise, die gemanaged werden kann oder zu einem Kollaps, der überraschend und plötzlich dem Leben in der Form, wie wir es kennen, ein Ende setzt, womöglich mit einem Massenstreben in verschiedenen Weltregionen? Ich muß hier sagen, daß ich es nicht weiß. Beunruhigender für mich ist aber, daß ich den Verdacht habe, daß niemand derzeit in der Lage ist, sinnvoll vorauszusagen, wie labil die Welt im Jahre 2050 für Klimaänderungen sein wird. Im Rahmen der Klimaprojektionen etwa des IPCC wird grundsätzlich darauf verzichtet von „katastrophalen Klimaänderungen“ zu sprechen. „Katastrophal“ ist eine Wertung, die zunächst definiert werden muß (ab wie viel Toten und wie viel Wertverlust der Weltwirtschaft). Weiterhin ist die weitere Entwicklung der Weltwirtschaft noch zu sehr im Fluß, um auch nur die ungefähre Größe zu erwartender Verluste vorherzusagen – wir haben es ja selbst im Griff, wie sich die Treibhausgaskonzentrationen entwickeln werden und davon hängt dann ab, welches Szenario verwirklicht wird. Es sind die Leugner des anthropogenen Klimawandels, die den Begriff des „katastrophalen Klimawandels“ erst einführen, um dann im weiteren genau dieses zu bestreiten, was niemand behauptet hat. Gremien wie das IPCC sagen einen Klimawandel voraus, der für bestimmte Szenarien, deren Eintritt die Menschen beeinflussen können, zu einem mittleren Temperaturanstieg von 2 bis 4,5 Grad zusätzlich zur natürlichen Variabilität führen wird. Ob das eine Katastrophe ist, bestimmen die Menschen selbst darüber, wie verwundbar sie sich machen. Dieser Gesichtspunkt spielt leider weltweit und besonders in den verwundbarsten Staaten, wie China, kaum eine Rolle.

Samstag, 29. März 2008

Beschreiben die Klimamodelle die Wirklichkeit?

Ich hatte hier bereits den Unterschied zwischen Wetter und Klima erläutert. Dabei hatte ich darauf hingewiesen, daß Klimamodelle ein Randwerteproblem lösen. In Abhängigkeit von der Einstrahlung der Sonne, der Albedo der Erde, dem Absorptionsverhalten der Atmosphäre für Strahlung, der Kopplungen von Luft, Boden und Meeren und vieler anderer Größen stellt sich die Erde auf ein bestimmtes Klima ein. Die Physik dahinter ist weitgehend bekannt und lösbar. Viele Werte, die bei der Lösung der Gleichungen eingehen, sind aber mehr oder weniger gut bekannt und verursachen einen Modellfehler bzw. sorgen dafür, daß die Ergebnisse der Modelle mit gewisser Wahrscheinlichkeit in bestimmte Ergebnisbereiche fallen. Modelle haben Unsicherheiten. Deshalb kann man zunächst mal skeptisch sein, ob Modelle die Wirklichkeit beschreiben. Vielleicht enthalten sie Fehler? Vielleicht ist ihr grundsätzlicher Ansatz falsch?

Besonders strittig bei den Klimamodellen sind folgende Fragen:

Ist die Rückkopplung des Wasserhaushaltes bei Temperaturänderungen richtig beschrieben? Bei steigenden Temperaturen verdampft mehr Wasser und ist mehr Wasser in der Luft gelöst. Dieses Wasser verstärkt den Treibhauseffekt. Daher ist hier die richtige Abschätzung entscheidend dafür, ob die Modelle die Temperatur in Abhängigkeit vom CO2-Anstieg richtig beschreiben.

Ist die Rückkopplung der Wolkenbildung richtig beschrieben? Mehr Wasser in der Atmosphäre kann bedeuten, daß es mehr Wolken gibt. Wolken können zwei Effekte haben. Sie können Sonnenlicht reflektieren und so die Erde kühlen. Den Effekt haben niedrige Wolken stärker als hohe Wolken. Wolken können andererseits Wärme, die vom Boden abgestrahlt wird, zurückhalten und so den Treibhauseffekt verstärken. Diesen Effekt haben hohe Wolken eher als niedrige Wolken. Diese beiden Effekte können sich aufheben. Wenn aber mehr niedrige als hohe Wolken bei einem Temperaturanstieg entstehen, dämpfen die Wolken den Treibhauseffekt.

Ist der Einfluß von Aerosol richtig beschrieben? Aerosol sind kleinste Schwebepartikel in der Luft (grobe fallen schnell zu Boden). Sie können aus Ruß, aus Mineralien oder aus anderen Stoffen, z.B. Sulfaten bestehen. Man weiß nur ungefähr, wo wie viel und welche Aerosole in der Luft sind und kann auch nur ungefähr abschätzen, welchen Effekt auf die Strahlungsverhältnisse der Luft sie haben. Ruß würde den Treibhauseffekt sogar verstärken, vor allem wenn er grob ist, Sulfate andererseits hätten eher eine kühlende Wirkung. Die Effekte hängen kompliziert von Größe, Form, Zusammensetzung der Aerosole und der Luftfeuchtigkeit ab, so daß ich hier nicht in Details gehen will.

Im Endeffekt ist die spannendste Frage bei der Bewertung der Modelle: wie groß ist die Klimasensitivität gemessen in Grad Celsius Änderung der globalen Temperatur je Verdopplung der Konzentration von CO2? Gegenwärtig sieht man den Wert bei 3 (Fehlergrenzen ca. 2,5 und 4). Moderate Skeptiker des Klimawandels erkennen zwar die dahinter stehende Physik an, sehen aber die Klimasensitivität bei deutlich weniger als 3, eher bei 1 und weniger. Allerdings aus verschiedenen Gründen. Lindzen z.B. beruft sich auf eine abweichende Meinung zur Rückkopplung der Wolken. Diese abweichende Meinung konnte experimentell allerdings nicht bestätigt werden.

Wir sind allerdings im Gegensatz zu den achtziger Jahre nicht mehr in dem Zustand, daß wir nur auf Annahmen angewiesen sind. Inzwischen können wir das, was Modelle seit den achziger Jahren voraussagen mit dem gemessenen Temperaturverlauf vergleichen. Wir können also sagen, ob die Annahmen, die in die Modelle eingehen, realistisch sind oder ob die Klimaskeptiker eine bessere Abschätzung etwa der Klimasensitivität haben. Wir brauchen allerdings weitere Informationen, um zu entscheiden, ob Modelle aus den richtigen Gründen richtige Ergebnisse geben (es könnten sich auch zwei Fehler, z.B. falscher Aerosoleinfluß und falsche Wolkenrückkopplung, gegenseitig aufheben).

Das erste Bild, das ich zeigen will, basiert auf einem Modell, das bei der NASA entwickelt wurde. Hansen, J., I. Fung, A. Lacis, D. Rind, Lebedeff, R. Ruedy, G. Russell und P. Stone publizierten 1988 einen frühen Versuch, zukünftige Temperaturen vorherzusagen. Es wurden drei Szenarien, A, B und C gerechnet mit jeweils verschiedenen Annahmen über die Entwicklung der Treibhausgase. Das wahrscheinlichste Szenario war mit B bezeichnet. A hatte extrem hohe Annahmen für die Treibhausgase und war mit dem Montreal-Protokoll ausgeschlossen worden. C nimmt an, daß ab dem Jahr 2000 starke Maßnahmen gegen den Klimawandel getroffen werden. Die Modellrechnungen sind ab 1984 unabhängig von bekannten Daten, stellen also inzwischen eine Prognose über 23 Jahre dar. Verglichen wird mit den Temperaturmessungen nach NASA/GISS in zwei Varianten, die aber wenig verschieden sind. Im Diagramm sieht man, daß die gemessene Temperatur mit der im Szenario B berechneten gut übereinstimmt. Angesichts der Tatsache, daß das Modell für heutige Verhältnisse noch ziemlich grob war, und daß man natürlich 1984 nicht wissen konnte, wann z.B. der für das Klima zeitweilig wichtige Ausbruch des Mt. Pinatubo erfolgen würde, sind die Abweichungen zwischen Messungen und Modell äußerst klein:




Der Vergleich wird diskutiert bei Real Climate. Die Modellergebnisse wurden veröffentlicht in Hansen, J., I. Fung, A. Lacis, D. Rind, Lebedeff, R. Ruedy, G. Russell, and P. Stone, 1988: Global climate changes as forecast by Goddard Institute for Space Studies three-dimensional model. J. Geophys. Res., 93, 9341-9364, doi:10.1029/88JD00231.

Noch wichtiger ist der Vergleich zwischen den Modellen, die für die IPCC-Berichte verwendet wurden und Messungen. Dies kann man für einen Zeitraum von 17 Jahren machen, weil die Modelle, die im Dritten Anwendungsbericht des IPCC 2001 (IPCC, TAR) verwendet wurden, Mitte der neunziger Jahre gerechnet wurden und dabei auf Bedingungen aufsetzen, die die Zeit bis 1990 berücksichtigen - ab dann liefen die Modelle unabhängig von Daten, die von außen aufgeprägt wurden. Im folgenden Diagramm werden die gemessenen Temperaturen von NASA/GISS (rote Linien) und von Hadley Center/CRU (blaue Linien) (Linien mit Punkten sind Jahresmittelwerte, die durchgehenden Linien sind geglättete Temperaturverläufe mit einem gleitenden 10-Jahresmittel) mit den mittleren Modellergebnissen für die verschiedenen Emissionsszenarien verglichen (bunte Linien, die graue Schattierung zeigt den geschätzten Unsicherheitsbereich der Modellergebnisse):


Dieses Diagramm basiert auf Rahmstorf et al. (2007), Science 316, 709 und wurde hier angepaßt und diskutiert. Die Übereinstimmung ist auch hier gut, und gegenwärtig deuten die gemessenen Temperaturen darauf hin, daß eher die hohen Szenarien realistisch sind, bei denen also der Temperaturanstieg am oberen Rand der Schätzungen liegen wird.
Angesichts dieser guten Bestätigung der genutzten Klimamodelle gewinnt man den Eindruck, daß die Aussagen des IPCC zu der Klimaentwicklung ein gut abgesicherte Basis haben. Von den Klimawandelskeptikern kann man dies nicht behaupten. Bislang hat die Temperaturentwicklung ihre Aussagen definitiv widerlegt.