Es gibt viele Beweise, dass CO 2 die Erwärmung verursacht; es ist ein wichtiges Spurengas

CO 2 macht nur 0,041 Prozent der Atmosphäre aus; davon ist inzwischen ein gutes Viertel von der Menschheit in der Lufthülle freigesetzt worden. Die Konzentration im Frühjahr 2019 betrug 414,8 ppm (parts per million). Vor der Industrialisierung waren es 280 ppm; der so genannte Taylor-Eisbohrkern aus der Antarktis zeigt, dass die Werte in den vergangenen 11 000 Jahren nur um 15 ppm von 265 auf 280 gestiegen sind – und dann in gut 150 Jahren um weitere 130 ppm, mit einer erkennbaren, weiteren Beschleunigung in den vergangenen Jahrzehnten. So hoch wie heute war der Spiegel des Gases vermutlich seit ungefähr drei Millionen Jahren nicht mehr; in jener Ära standen die Ozeane wahrscheinlich 20 Meter höher als heute.

Doch der geringe Anteil von CO 2 macht die Erde erst zum lebenswerten Planeten. Ohne die Atmosphäre, die mit ihrem Treibhauseffekt einen Teil der abgestrahlten Wärme auffängt, wäre die Erde nach einfachen physikalischen Gesetzen im Durchschnitt etwa minus 18 Grad Celsius kalt; das meiste Wasser wäre gefroren. Stattdessen liegt die Mitteltemperatur aber bei plus 15 Grad Celsius: Ozeane wogen, Flüsse fließen, Quellen sprudeln. Diese Zusammenhänge wurden bereits im 19. Jahrhundert von Joseph Fourier, John Tyndall und vor allem Svante Arrhenius erkannt.

Manche bezweifeln dennoch, dass CO 2 wirklich die Erde erwärmt. Sie machen sich gern über öffentliche Experimente lustig, wonach erhöhte CO 2 - und Methanspiegel in der Luft zu höheren Temperaturen führen, etwa eine Demonstration der US-Fernsehshow »Mythbusters«. Denn solche Versuche werden mit weit überhöhten Werten der Treibhausgase im Prozent- statt ppm-Bereich gemacht. Klimawandelleugner erklären sie darum gern zur Manipulation. Tatsächlich geht es aber um einen qualitativen Nachweis: In den kleinen Volumina der Testgefäße und in der begrenzten Zeit würde sich sonst überhaupt kein messbarer Effekt zeigen. Es kommt schließlich darauf an, wie oft Wärmestrahlen auf dem Weg durch das Volumen auf Kohlendioxidmoleküle treffen und von diesen aufgehalten werden können. Im Experiment wird die Länge in Zentimetern gemessen, in der Atmosphäre in Kilometern. Um diesen Faktor auszugleichen, muss die Konzentration erhöht werden.

In der Tat ist es so, dass Satelliten genau messen können, wie die von der Erde ins Weltall abgestrahlte Wärmeenergie abnimmt – weil Kohlendioxid und andere Treibhausgase die Wärme in der Atmosphäre halten und auf die Oberfläche zurückstrahlen. Gleichzeitig zeigen Messgeräte am Boden, wie hier mehr langwelliges Infrarot von oben ankommt. Beide Ergebnisse passen zur Theorie, dass Kohlendioxid für die Erwärmung verantwortlich ist.

Für Verwirrung unter Laien sorgt auch, dass manche Grafiken zeigen, wie die Temperaturen etwa am Ende einer Eiszeit vor den CO 2 -Werten zu steigen beginnen. Wie soll das damit verträglich sein, dass Kohlendioxid die Erwärmung auslöst, fragen dann einige. Doch dass die zyklischen Kalt- und Warmzeiten der letzten zwei Millionen Jahre ihren Ursprung in regelmäßigen Veränderungen der Erdbahn haben, ist seit Jahrzehnten bekannt. Während die Astronomie den groben Rhythmus vorgibt, erzeugt das Kohlendioxid durch eine positive Rückkopplung die starken Erwärmungen am Ende jeder Kaltzeit. Am Beispiel der letzten Eiszeit hat eine Studie von 2012 die Vorgänge erklärt. Zunächst erwärmte sich die Antarktis durch Veränderungen in der Erdbahn um die Sonne. Das setzte dort CO 2 in die Atmosphäre frei, und dieses verstärkte die Erwärmung so sehr, dass sie zum globalen Phänomen wurde. Mehr als 90 Prozent des Temperaturanstiegs passierten dann nach dem Anstieg der Kohlendioxidkonzentration.

Schließlich gibt es noch den Einwand, das Treibhausgas Kohlendioxid sei doch eigentlich ein Dünger und Pflanzennahrung. Und wirklich haben viele Pflanzen von dem bisherigen Anstieg der CO 2 -Werte profitiert. Die Satelliten stellen eine Ergrünung des Planeten fest. Der IPCC konstatiert im jüngsten Landreport, etwa ein Viertel bis zur Hälfte der Landfläche sei grüner und nur ein Bruchteil brauner geworden. Besonders in höheren Breiten, also näher an den Polen, bemerken die Forscher erhöhte Erträge für Getreide, Zuckerrüben und Baumwolle. Auch Bananen wachsen heute besser als 1961. Dabei spielen neben dem erhöhten CO 2 -Spiegel die Folgen der Erderwärmung, zum Beispiel verlängerte Vegetationsperioden, sowie menschliche Eingriffe wie verstärkte Düngung über die Atmosphäre eine Rolle.

Zum Problem wird jedoch, dass sich gleichzeitig die Luft erwärmt und Wetterextreme zukünftig zunehmen können und/oder sich intensivieren. Darum warnt der Weltklimarat auch vor zunehmender Nahrungsmittelunsicherheit in der Zukunft. In niedrigeren Breiten, das heißt Richtung Tropen, sinken die Erträge bereits. Von den Bananenexporteuren könnten Brasilien und Kolumbien als Erste von zurückgehenden Ernten betroffen sein.

Und selbst wenn die Felder nicht durch Dürren oder Überschwemmungen verwüstet werden, beeinflussen die erhöhten Temperaturen die Physiologie der Pflanzen. Ein wichtiges Protein funktioniert dann nicht mehr so gut. Ihr Gehalt an Nährstoffen könnte sinken. Das zeigten unter anderem große Freilandversuche, bei denen die Forscher zusätzliches CO 2 zwischen die Pflanzen pumpten – auf einem Niveau, das Mitte dieses Jahrhunderts erreicht sein könnte. Getreide wie Weizen und Reis enthielten im Bereich von fünf bis zehn Prozent weniger Protein, Eisen und Zink. In Hülsenfrüchten wie Erbsen und Soja gingen die beiden Spurenmetalle zurück. Getreide wie Mais und Hirse zeigten keine ausgeprägten Effekte; sie haben eine etwas andere Physiologie.

Klimamodelle sind die bestmögliche Annäherung an die Zukunft, aber keinesfalls perfekt

Aus dem jüngsten IPCC-Bericht kann man Aussagen herauslesen wie: Im Zeitraum von 2081 bis 2100 könnten die Temperaturen um 0,3 bis 4,8 Grad höher liegen als zwischen 1986 und 2005. Darüber kann man sich leicht lustig machen, denn dieser Satz scheint kaum Information zu enthalten. Dafür gibt es zwei wesentliche Gründe: Erstens ist die Simulation des Klimasystems ein kniffliges Geschäft. Supercomputer zerlegen die Erde und die Atmosphäre in kleine Stückchen und berechnen dann immer wieder, wie sich darin auf Grund physikalischer Gesetze Temperatur, Luftdruck, Feuchtegehalt und so weiter verändern. Wenn eine solche Simulation die ganze Erde bis zum Ende des Jahrhunderts berechnet, messen die Zellen oft mehr als 100 Kilometer und übergehen darum zwangsläufig die Dimensionen, in denen Menschen leben. Dabei müssen die Autoren der Modelle eine Vielzahl kleiner Entscheidungen treffen, wie ihre Software dieses oder jenes behandelt. Es ist darum kaum verwunderlich, wenn Kalkulationen aus Hamburg, Reading/England und Boulder/Colorado in Details voneinander abweichen.

Zweitens müssen die Forscher Annahmen treffen, wie sich die Menschheit in den kommenden Jahrzehnten verhält. Gelingt es, eine weltweite stringente Klimapolitik zu verabschieden, oder setzen sich Leugner im Präsidentenrang wie Donald Trump und Jair Bolsonaro durch? Damit die Berechnungen nicht davon abhängen, was sich die einzelnen Forschergruppen ausdenken, hat der IPCC vier Standardszenarien für mögliche zukünftige Treibhausgasemissionen entworfen, die alle Forschergruppen verwenden. Auch darum nennen die Forscher ihre Berechnungen »Projektionen«, nicht »Prognosen«: Ihre Simulationen erlauben Aussagen über Wettermuster, aber nicht über das Wetter an bestimmten Tagen im Jahr 2100.

Die Fehlerquellen sind den Forschern bewusst, darum haben sie mehrere Ebenen zur Überprüfung eingezogen. Zum einen starten die Modellrechnungen weit in der Vergangenheit, gefüttert mit Wetterdaten und anderen Messungen aus jener Ära. Der Computer muss daraus die heutigen Verhältnisse errechnen – und bloß wenn diese Kalkulation mit der Wirklichkeit übereinstimmt, bringen die Forscher den Ergebnissen für die Zukunft überhaupt Vertrauen entgegen. Das klappt für gewöhnlich nur dann, wenn die steigenden CO 2 -Werte in der Atmosphäre berücksichtigt werden, dann allerdings sehr gut.

Zum anderen vergleichen die Arbeitsgruppen ihre Resultate regelmäßig miteinander und überprüfen ältere Projektionen, die zum Beispiel 2004 und 2011 für die damals jeweils anstehenden IPCC-Berichte angefertigt wurden, gegen die Temperaturentwicklung bis 2018. Zurzeit liegt zwar der Mittelwert der vor acht Jahren errechneten Temperaturen ein wenig höher als die tatsächlich gemessenen, nach dem statistisch oft verwendeten 95-Prozent-Signifikanzkriterium stimmen beide jedoch überein.

Neben den breiten Temperaturspannen veröffentlicht der IPCC zudem die zentralen Schätzwerte der Modelle für das Jahr 2100. Sie beziffern die mögliche Erwärmung auf 1,0 Grad bei ehrgeizigem und 4,1 Grad Celsius bei fehlendem Klimaschutz.

Der IPCC weiß viel über die Klimasensitivität

Die Klimasensitivität ist ein komplizierter Begriff in der Klimaforschung. Sie gibt die Temperaturerhöhung an, die man messen könnte, wenn man erst die Menge von CO 2 verdoppelt – also von den vorindustriellen 280 auf 560 ppm – und dann so lange wartet, bis die Atmosphäre ins Gleichgewicht gekommen ist. Dabei ginge es allerdings wohl eher um Jahrhunderte als um Jahre. Im Prinzip ist die Klimasensitivität (englische Abkürzung: ECS) so etwas wie die PS-Angabe eines Motors.

In seinem jüngsten kompletten Report von 2013/14 hat der Weltklimarat Folgendes dazu gesagt: Die Klimasensitivität im Gleichgewicht liegt wahrscheinlich zwischen 1,5 und 4,5 Grad Celsius. Es ist extrem unwahrscheinlich, dass sie unter einem Grad liegt, und sehr unwahrscheinlich, dass sie mehr als sechs Grad beträgt. Auf einen zentralen Schätzwert, ein so genanntes »Best Estimate«, konnten sich die Autoren des Berichts aber nicht einigen, schreiben sie in einer Fußnote: Es gebe da zu wenig Übereinstimmung zwischen verschiedenen Methoden, den Wert zu berechnen.

Laden... © NASA, Goddard Institute for Space Studies (GISS) (Ausschnitt) Erderwärmung | Abweichungen der Durchschnittstemperaturen der Jahre 2005 bis 2009 verglichen mit der Zeit von 1951 bis 1980: Gelbe und rote Töne geben höhere, blaue Farben kühlere Werte wieder. Im globalen Rahmen zeichnet sich eine deutliche Erwärmung ab, die in der Arktis besonders ausgeprägt ausfiel.

In manchen Schriftstücken aus der Szene der Klimawandelleugner wird ausschließlich diese Fußnote zitiert und der Rest weggelassen. Dabei bedeuten die Begriffe wahrscheinlich, sehr wahrscheinlich und extrem wahrscheinlich, dass es zu 66, 90 oder 95 Prozent sicher ist, wo die ECS liegt. Das ist für einen solchen Fachbegriff eine verhältnismäßig klare Aussage.

Die Klimasensitivität ist schon lange fast mehr ein politischer Kampfbegriff als ein wissenschaftliches Konzept. Entsprechend einseitig ist oft die Interpretation; sich auf eine Grenze zu konzentrieren, ist ein Fehler. Schließlich ist der obere Rand genauso wahrscheinlich wie der untere. Das Klimasystem könnte also genauso gut relativ träge wie sehr reaktionsfreudig sein. Und selbst wenn die ECS am unteren Rand des 66-Prozent-Bereichs läge, also bei nur 1,5 Grad, käme die Menschheit nicht um eine deutliche Reduktion der CO 2 -Emissionen herum, stellten 2015 Wissenschaftler des Max-Planck-Instituts für Meteorologie in Hamburg fest.

Deutschland allein kann und muss ziemlich viel tun

Diesen Einwand kann man nicht allein naturwissenschaftlich beantworten. Der deutsche Anteil am globalen Ausstoß von Treibhausgasen beträgt etwa zwei Prozent. Wer allein diese Zahl betrachtet und politische, wirtschaftliche und historische Faktoren ignoriert, könnte denken, dass es auf Deutschland nicht ankomme und es ganz sicher nicht vorangehen müsse.

Aber: Deutschland hat sich als größter Staat der EU zu einer koordinierten Klimaschutzpolitik verpflichtet; im Augenblick scheint die Regierung sogar eine mögliche Verschärfung der Ziele unter der kommenden EU-Kommissionspräsidentin Ursula von der Leyen zu unterstützen. Es ist jedoch völlig unklar, wie Deutschland seine übernommenen nationalen Pflichten erfüllen kann. Zwar ist im Stromsektor mit den erneuerbaren Energiequellen wie Wind und Sonne einiges passiert, obwohl die alten Kohlekraftwerke momentan weitere Reduzierungen behindern. Doch in den Sektoren Verkehr, Gebäude und Landwirtschaft gibt es wenig oder keinen Fortschritt; die jeweiligen Vorgaben werden weit verfehlt.

EU-Beschlüsse sehen vor, dass Länder, die ihre Ziele in diesen Sektoren nicht erfüllen, von anderen Mitgliedern der Union Zertifikate kaufen müssen. Wie genau das aussehen soll und was die Verschmutzungsrechte kosten, ist noch ungeklärt. Es könnte aber um Ausgaben von einigen Milliarden Euro bis 2030 gehen.

Daher hat Deutschland ein politisches und wirtschaftliches Eigeninteresse daran, eine allein national wirksame Klimapolitik zu betreiben. Es gehört zudem zu den alten Industrieländern, in denen die großtechnische Nutzung von Kohle begonnen hat. Es muss also nach dem Pariser Vertrag eine historische Verantwortung übernehmen. Das Abkommen weist den Staaten der Welt »common but differentiated responsibilities« (gemeinsame, aber differenzierte Pflichten) zu. Heute ist Deutschland die viertstärkste Wirtschaftsmacht in der Welt und die stärkste in Europa – wenn es also sozusagen die Hände in den Schoss legt, werden sich andere Staaten fragen, warum sie vorangehen sollen. Doch wenn das reiche Deutschland Lösungen für die Umstellung der Wirtschafts- und Lebensweise findet, dürften andere folgen. Unser Land hat demnach so oder so einen Hebel, der weit größer ist als sein Anteil an den Treibhausgasemissionen. Es ist eine politische, vielleicht auch moralische Frage, ob es den Hebel nutzt – die Naturwissenschaften können das nicht entscheiden.