BSR 10: Klimawandel condensed

Prolog

„Ein UN-Umweltbeauftragter sagt, ganze Nationen können vom Erdboden verschwinden aufgrund steigender Meeresspiegel, wenn die globale Erwärmung nicht umgekehrt wird […] Überflutete Küsten und Missernten würden einen Exodus an ‚Umweltflüchtlingen‘ erzeugen […] Regierungen haben einen Zeitraum von zehn Jahren, um den Treibhauseffekt zu bekämpfen, bevor er außer Kontrolle gerät.“

Nein, das war keine der Meldungen, die Anfang Oktober 2018 z.B. in der Tagesschau zu lesen waren. Dort hieß es: „Der globale Meeresspiegel würde bis zum Ende dieses Jahrhunderts bei 1,5 Grad Erwärmung um zehn Zentimeter weniger klettern als bei zwei Grad. ‚Das würde beinhalten, dass zehn Millionen weniger Menschen den Risiken ausgesetzt wären, wie der Versalzung von Äckern oder Überschwemmungen durch Stürme in küstennahen Gebieten‘, sagt IPCC-Autor Wolfgang Cramer.“

Bei ZEIT ONLINE wurde Professor Niklas Höhne zitiert mit den Worten: „Der Sonderbericht sendet ein klares Signal an die Politik: Jetzt handeln, es ist fast schon zu spät“. In demselben Artikel wurde auch Grünenfraktionschef Anton Hofreiter zitiert: „Hitzesommer, Extremwetter, Ernteausfälle – alle Alarmzeichen stehen auf Rot“.

So oder so ähnlich schrieb die sog. deutsche Mainstream-Medienlandschaft Anfang Oktober 2018 über den Sonderbericht des Weltklimarates (IPCC).

Es war auch keine der Meldungen, die Ende November 2018 in derselben Medienlandschaft zu lesen waren. Die Quelle war dieses Mal der Bericht der US-Regierung, z.B. zitiert in der WELT: „Unwetter durch Klimawandel sind ‚häufiger, intensiver, länger‘.“

In Fortsetzung zum ersten Absatz diese Blogs heißt es: „Wenn die Erderwärmung das Polareis abschmilzt, wird der Meeresspiegel bis zu einen Meter steigen […] Küstenregionen werden überflutet […] Mengen von Kohlendioxid gelangen in die Atmosphäre, weil die Menschheit fossile Brennstoffe nutzt […] Die Atmosphäre hält mehr Wärmestrahlung zurück als sie abgibt, wie in einem Treibhaus […] Die konservativste wissenschaftliche Schätzung sagt, dass die Temperatur der Erde in den nächsten 30 Jahren um 1 bis 7 Grad steigen wird […]“

Der erste und der letzte Absatz unterscheiden sich inhaltlich nur marginal von den Absätzen dazwischen, in ihrer Botschaft hingegen gar nicht. Dennoch gibt es einen signifikanten Unterschied: der beträgt 29 Jahre. Der erste und letzte Abschnitt stammen aus einem Artikel der Associated Press (AP) vom 30. Juni 1989, in dem der Direktor des New Yorker Büros des Umweltprogramms der Vereinten Nationen (UNEP), Noel Brown, zitiert wurde. Um den dort beschriebenen Weltuntergang zu verhindern, müsse der Trend der Erderwärmung übrigens bis zum Jahr 2000 umgekehrt werden, so Brown.

Und wie ich diese Zeilen so schreibe, werfe ich einen Blick auf das Datum, das mir mein Notebook in der unteren rechten Ecke meines Bildschirms anzeigt: 25.11.2018. Hmm. Vor 18 Jahren ist also die Welt untergegangen. Und ich habe es nicht gemerkt. Welche der Katastrophen, die Noel Brown 1989 prognostiziert hat, sind eingetreten?

Das Intergovernmental Panel on Climate Change (IPCC), zu Deutsch: Weltklimarat, wurde übrigens 1988 u.a. vom UNEP ins Leben gerufen.

Gehen wir zum Spaß noch ein bis zwei Jahrzehnte zurück.

„Die Getreideernten in Kanada und in den USA stagnieren; Missernten häuften sich in der Sowjet-Union, Indien und Pakistan. In Peru gingen die Anchovis-Fänge um 55 Prozent zurück. Die Chancen für eine rasche Rückkehr des günstigen Klimas etwa der dreißiger Jahre, so taxierte der US-Wetterforscher James McQuigg, stünden ‚bestenfalls eins zu 10000‘.“ (Der Spiegel, 12.8.1974)

Dieser Bericht im SPIEGEL bezog sich nicht etwa auf die Erderwärmung. Worum es in den 70er Jahren ging, wird zum Beispiel in einem Artikel im Hamburger Abendblatt deutlich:

„Der Klimatologe Prof. R. A. Bryson von der Wisconsin-Universität sagte voraus, dass sich durch den zivilen Überschall-Luftverkehr ein breiter Streifen zwischen Europa und Amerika mit einer Cirrus-Wolkenschicht bedecken wird. Nur fünf Prozent zusätzliche Wolken durch Luftverschmutzung würden die mittlere Temperatur um vier Grad herabsetzen. Damit käme die nächste Eiszeit bestimmt. Sie könnte ein unerwünschtes Beiprodukt der Zivilisation sein, sozusagen ein ‚Industrie-Erzeugnis‘. Ob sich die irdische Luftverschmutzung im gegenwärtig kühler werdenden Klima schon bemerkbar macht, ist nicht mit Sicherheit zu sagen. Seit zehn Jahren sinken die Temperaturen. Dennoch befürchten viele Meteorologen, dass es einen ‚Punkt ohne Umkehr‘ geben mag, von dem aus die verschmutzte Luft zwangsläufig und unaufhaltsam das Klima beeinflusst. Der Winter 1968/69 brachte für den Nordatlantik eine Eisbedeckung, wie es sie schon seit fast sechzig Jahren nicht mehr gab. Viel Eis reflektiert viel Sonnenstrahlung wieder in den Weltraum hinaus und verbraucht viel Wärme zum Schmelzen.“ (Hamburger Abendblatt, 21.3.1970)

Oder in der Wirtschaftswoche: „Eines steht schon fest: Es wird seit 30 Jahren kälter. Seit 1940 ist die globale Durchschnittstemperatur um 1,5 Grad gesunken. Weite Gebiete Kanadas, die einst im Sommer stets eisfrei waren, sind heute das ganze Jahr hindurch kristallbedeckt. Was den Temperatur-Rückgang ausgelöst hat (der seinerseits verantwortlich ist für die meisten anderen Klima-Veränderungen), darüber sind sich die GARP-Wissenschaftler noch nicht einig. Die Theorien reichen vom Einfluss der Sonnenflecken bis zur Aussperrung von Sonnen-Energie durch eine umweltverschmutzte Atmosphäre.“ (Wirtschaftswoche, 28.4.1974)

Bis hierher vielen Dank. Wir merken uns: In den 70er wurde öffentlich Angst geschürt vor einer neuen Eiszeit. Mitverursacher – der Mensch mit all den Abgasen, die er in die Luft bläst und damit die wärmenden Sonnenstrahlen nicht mehr rein lässt. Seit den 80er Jahren wird öffentlich Angst geschürt vor einer globalen Erwärmung. Mitverursacher – der Mensch mit all den Abgasen, die er in die Luft bläst und damit die wärmenden Sonnenstrahlen nicht mehr raus lässt. Bin ich der einzige, dem hier Zweifel kommen?

Die vermeintlichen Konsequenzen für die Menschheit sind interessanter Weise in beiden Fällen erstaunlich ähnlich, obwohl diametral entgegengesetzte Effekte prognostiziert werden.

Das vermeintlich klimabeeinflussende Verhalten des Menschen hat sich seit damals im Prinzip nicht geändert. Dennoch soll dasselbe Verhalten ursächlich für zwei entgegengesetzte Auswirkungen sein?

Und – es wird natürlich höchste Zeit zu handeln. Es gibt nur noch ein kurzes Zeitfenster, sonst ist es zu spät. Das Zeitfenster bleibt interessanter Weise stets gleich lang – seit Jahrzehnten – egal, ob die nächste Eiszeit droht oder alle Pole angeblich drohen zu schmelzen.

Wissenschaftliche Falsifizierung des atmospärischen CO2-Treibhauseffekts

Wer sich in theoretischer Physik auskennt, möchte sich vielleicht an der wissenschaftlichen Arbeit von Gerlich/Tscheuschner (2009) versuchen. Wer nicht so bewandert ist in theoretischer Physik, möge sich auf Kap. 5.2 beschränken und die Zusammenfassung zur Kenntnis nehmen:

„Der Punkt, der hier diskutiert werden sollte, war die Beantwortung der Frage, ob der behauptete atmosphärische Effekt eine physikalische Basis hat. Dies ist nicht der Fall. Zusammenfassend gesagt, gibt es keinen Treibhauseffekt, insbesondere keinen atmosphärischen CO2-Treibhauseffekt, weder in der Theoretischen Physik, noch in der Ingenieursthermodynamik. Es ist daher nicht legitim, daraus Vorhersagen herzuleiten und sie als Beratungslösung für Ökonomie und regierungsübergreifende Politik zu verkaufen.“

Damit könnten wir die Akte „Klimawandel“ eigentlich schließen, wenn, ja wenn …

IPCC – Intergovernmental Panel on Climate Change

In den deutschen Medien zumeist als Weltklimarat bezeichnet, wird der IPCC von den Mainstream Medien gerne als Referenz zum Thema Klimawandel propagiert. Von daher wird er einen relativ großen Raum in diesem Blog einnehmen. Er postuliert seit Jahrzehnten einen anthropogenen (durch den Menschen verursachten) Klimawandel, dessen Hauptursache das CO2 sein soll. Die vom IPCC veröffentlichten Berichte finden in den Mainstream-Medien stets große Beachtung und werden trotz der vorstehend genannten wissenschaftlichen Falsifizierung eines CO2-Treibhauseffektes und trotz der nachfolgend beispielhaft aufgeführten Unregelmäßigkeiten in keiner Weise kritisch hinterfragt.

Bislang hat der IPCC fünf Berichte veröffentlicht, der sechste befindet sich derzeit in Arbeit.

Ein paar Fakten zum IPCC sollen an dieser Stelle dem geneigten Leser nahegebracht bzw. wieder ins Gedächtnis gerufen werden, sofern sie in der Vergangenheit Beachtung in den Medien gefunden haben.

Unter der Schlagzeile Klimagate gelangten Ende 2009 geleakte E-Mails von Mitgliedern des IPCC an die Öffentlichkeit (1, 2). Ein zweiter Schwung E-Mails folgte im Fortsetzungsleak 2011 (3). Die britische Daily Mail berichtete mehrfach ausführlich darüber. In den deutschen Medien wurde der Skandal eher stiefmütterlich behandelt. Hier einige wenige Stimmen:

„In den E-Mails unterhalten sich prominente Klimaforscher darüber, wie sie mit Kritikern umgehen, wie Datensätze so verändert werden, dass sie zur offiziellen Theorie passen, und wie kritische Journalisten boykottiert werden sollen.“ (Focus vom 12.12.2009)

Die WELT titelte am 30.01.2010: „Die selbstgemachte Klimakatastrophe der UN“.

2017 gab es weitere Berichte über Unregelmäßigkeiten bei den verwendeten Daten.

Bis hierher vielen Dank. Damit könnten wir die Akte IPCC eigentlich schließen. Denn die wenigen beispielhaft aufgeführten Berichte allein sollten für den Nutzer des gesunden Menschenverstandes ausreichend sein, um jedweder Veröffentlichung des IPCC mit größtem Argwohn zu begegnen. Wenn, ja wenn, …

Temperaturentwicklung

Für den Nachweis eines Zusammenhangs zwischen globaler Erwärmung und CO2-Ausstoß bietet sich zu allererst der Nachweis eines Temperaturanstiegs an. Dies ist zwar keineswegs hinreichend, aber ganz sicher notwendig, weil der CO2-Ausstoß seit Beginn der Industrialisierung zweifelsfrei zunimmt.

Für den Nachweis eines Temperaturanstiegs wird gerne die sog. globale Mitteltemperatur herangezogen.

Freunde der Statistik wissen natürlich, dass ein Mittelwert ohne Informationen zu Anzahl und Streuung der Einzelwerte wertlos ist. Als Maß für die Streuung wird i.d.R. die sog. Standardabweichung herangezogen. In Bezug auf die globale Mitteltemperatur wird Anzahl und Streuung der Einzelwerte i.d.R. nicht erwähnt.

Zur kurzen Verdeutlichung sei ein Beispiel zum durchschnittlichen verfügbaren Einkommen von 10 Haushalten angeführt. Ein mittleres verfügbares Einkommen von EUR 3.000 klingt erst einmal gut. Dies kann bedeuten, dass jeder der zehn Haushalte ein verfügbares Einkommen von EUR 3.000 hat. Es kann aber auch bedeuten, dass ein einziger Haushalt ein verfügbares Einkommen von EUR 25.500 hat, während 9 Haushalte lediglich EUR 500 zur Verfügung haben. In beiden Fällen ist das mittlere verfügbare Einkommen EUR 3.000.

Freunde der Statistik wissen natürlich auch, dass eine verlässliche Aussage der Temperaturentwicklung im Zeitverlauf über mehrere Jahre nur dann möglich ist, wenn stets Messwerte derselben Messstationen herangezogen werden, wo mit denselben Messmethoden gemessen wird. Bedauerlicher Weise wurde sowohl die Anzahl der Einzelmesswerte signifikant reduziert – ländliche Messpunkte wurden herausgenommen, d.h. städtische, wärmere Messungen damit überbetont – und die Messmethode wurde ebenfalls verändert. So wird heutzutage Großteils auf Satellitendaten zugegriffen. Dies ist wunderbar, um herauszufinden, was in der Atmosphäre geschieht, aber nicht so hilfreich, um die Temperatur auf der Erdoberfläche zu messen. Insofern müssen aus Satellitenmesswerten die Temperaturen auf der Erdoberfläche „berechnet“ werden. Damit offenbaren sich gleich zwei Hebel, an denen eine „Korrektur“ der globalen Mitteltemperatur ansetzen könnte, um sie in eine erwünschte Richtung zu „entwickeln“, wenn man denn wollte. Die im vorigen Abschnitt aufgezeigten Unregelmäßigkeiten beim IPCC sind dem Leser sicherlich noch frisch in Erinnerung.

Für den Nachweis eines Temperaturanstiegs kann sich der geneigte Leser auch gerne die Temperaturreihe einer Messstation seines Vertrauens anschauen. In Deutschland bietet sich hierfür z.B. die Wetterstation in Hohenpeißenberg an.

Dass wir uns in einer Warmphase befinden, ist unverkennbar. Damit können wir die notwendige Bedingung als erfüllt betrachten.

Simulationsmodelle

Neben Korrelationen sollen auch häufig Simulationsmodelle denselben Dienst erfüllen – etwas „beweisen“, was sich nicht beweisen lässt.

Alle Prognosen des IPCC über die Klimaentwicklung basieren auf Simulationsmodellen. Simulationsmodelle verknüpfen Eingabewerte (Parameter) und Ausgabewerte (Ergebnisse) in einer definierten Art und Weise. Dh in Simulationsmodellen existieren grundsätzlich definierte Ursache-Wirkungsbeziehungen. Diese können linear oder nicht-linear sein.

Der Sinn und Zweck von Simulationsmodellen besteht darin, komplexe Systeme abzubilden und die Auswirkung komplexer Zusammenhänge transparent zu machen.

Simulationsmodelle funktionieren gut bei geordneten, geschlossenen Systemen. Simulationsmodelle funktionieren nicht gut bei offenen, chaotischen Systemen. Zu letzteren gehören zB die Wettermodelle. Es gibt für bestimmte Teile der Erde verschiedene Wettermodelle, die versuchen, das Wetter für die nächsten Tage vorherzusagen. In meiner Region gibt es beispielsweise einen Hobbymeteorologen, der aus den Verläufen und Prognosen verschiedener europäischer Wettermodelle und seiner Erfahrung über die Stärken und Schwächen der jeweiligen Wettermodelle seine Wettervorhersage ableitet. Für die kommenden ein oder zwei Tage ist dies in der Regel auch gut zutreffend. Alles, was über drei Tage hinausgeht, ist nach seiner eigenen Aussage stark unsicherheitsbehaftet.

Manchmal ist es so, dass selbst die Prognose für den kommenden Tag nicht stimmt, weil ein Wetterereignis eintritt, das von den Wettermodellen nicht berücksichtigt wird. Ein Beispiel ist der Saharastaub, der bei bestimmten Wetterkonstellationen von Nordafrika bis nach Mitteleuropa transportiert wird, aber von den Wettermodellen zumeist nicht berücksichtigt wird. Und so wird aus einem vorhergesagten sonnigen Tag mit blauem Himmel plötzlich ein ziemlich trüber Tag.

Es gibt aber auch sogenannte stabile Wetterkonstellationen, aufgrund derer eine sichere Wettervorhersage für eine gute Woche möglich ist. Es darf in diesem Fall natürlich die Frage gestellt werden, ob es überhaupt noch eines Simulationsmodells für die Wettervorhersage bedarf, wenn diese stabile Wetterkonstellation einmal erkannt worden ist. Dann ist nämlich der kommende Tag genauso wie der heutige, und zwar für mehrere Tage. Eine solche Konstellation haben wir zum Beispiel gerade jetzt beim Schreiben dieser Zeilen in der ersten Oktoberhälfte 2018.

Wir merken uns, wenn ein Simulationsmodell einen existierenden Parameter (Saharastaub) nur schlecht oder gar nicht berücksichtigt, ist die Prognose für den nächsten Tag schon nicht zu gebrauchen. Bei bestimmten Parameterkombinationen (stabile Konstellation) ist eine gute Prognose bis zu zehn Tagen möglich, bedarf aber eigentlich keines Simulationsmodells mehr für die Wettervorhersage.

Klima und Wetter unterscheiden sich per Definition durch den Betrachtungszeitraum. Der kritische Leser mag sich nun zurecht die Frage stellen, welche Ergebnisgüte man von Simulationsmodellen erwarten kann, die bestimmte klimatische Ereignisse für die kommende Jahrzehnte prognostizieren.

Darüber hinaus gibt es bei Simulationsmodellen weitere Begrifflichkeiten, die eine wichtige Rolle spielen. Als Parametrisierung bezeichnet man die Auswahl und Eingabe der „richtigen“ Eingangsparameter. Validierung bezeichnet die Überprüfung und Sicherstellung, dass die Simulationsergebnisse gültig sind. Hierzu eignen sich besonders gut Vergangenheitsdaten. Damit kann überprüft werden, ob die Simulationsergebnisse mit den vorhandenen gemessenen Daten übereinstimmen. Dies garantiert zwar noch nicht, dass die Zukunft richtig prognostiziert wird, macht dies aber zumindest wahrscheinlicher, sofern alle relevanten Parameter enthalten sind.

Ferner muss man über Simulationsmodelle wissen, dass bereits winzige Variationen von Eingangsparametern eine sehr große Auswirkung auf das Ergebnis haben können. Simulationsexperten wissen sehr genau, dass sich mit Hilfe eines Simulationsmodells  praktisch jedes gewünschte Ergebnis „erzeugen“ lässt.

Wir merken uns also zusätzlich: Simulationsmodelle sind wunderbar. Sie können alles bestätigen, alles widerlegen, aber nichts beweisen.

Wenn Sie zu den etwas reiferen Jahrgängen gehören, erinnern Sie sich vielleicht noch an ein Buch, das seinerzeit weltweit Beachtung fand. Es ist 1972 erschienen, basierte auf einer wissenschaftlichen Untersuchung und heißt: Die Grenzen des Wachstums von Dennis Meadows und anderen.

In der Zusammenfassung auf der vom Bundesministerium des Innern geförderten Seite 1000 Dokumente heißt es: „Das 1972 erschienene Buch ‚Die Grenzen des Wachstums‘ gehört zu den ganz seltenen Texten, denen eine globale Rezeption zuteil geworden ist. Diese erstaunliche Wirkung erzielte die Publikation, indem es ihr gelang, ein verbreitetes Unbehagen zu fokussieren. Obwohl die im Auftrag des Club of Rome von einem Forscherteam um Dennis Meadows erstellte Studie wissenschaftlich wenig überzeugte, schärfte sie das Bewusstsein für die Endlichkeit der natürlichen Ressourcen und für die Dringlichkeit einer internationalen Umweltpolitik. Das Buch steht für die umweltpolitische Wende der 1970er Jahre, und insbesondere sein Titel hat sich ins kollektive Gedächtnis eingeschrieben.“

„[…] wissenschaftlich wenig überzeugte […]“, weil das Simulationsmodell, das die weltweiten Ressourcenverbräuche abbilden und fortschreiben sollte wesentliche Mängel aufwies. Es gibt nämlich bei Verbrauchsprognosen mittels Simulationsmodellen einen zusätzlichen Parameter, der nicht erfasst werden kann: der technologische Fortschritt. Der technologische Fortschritt führt dazu, dass bestimmte Rohstoffe durch andere ersetzt werden können. Der technologische Fortschritt führt dazu, dass weitere Rohstoffvorkommen entdeckt werden können. Der technologische Fortschritt führt, dass Rohstoffvorkommen in viel größerem Maße erschlossen werden können. Wann, in welcher Richtung und in welchem Umfang der technologische Fortschritt eintritt, ist schwer bis gar nicht prognostizierbar. Die Ergebnisse des Buches waren lediglich Extrapolationen vergangener Ressourcenverbräuche und wirtschaftlicher Entwicklungen. Das ist in der Tat nicht wirklich wissenschaftlich.

Wer sich – trotz der bereits erwähnten gebotenen Vorsicht – die Simulationsmodelle des IPCC anschaut und sich wissenschaftlich damit auseinandersetzt, sollte sich an obige Ausführungen zur Parametrisierung erinnern oder sich – noch besser – den Artikel „The Art and Science of Climate Model Tuning“ gelesen haben. Wir kehren also wieder zum IPCC zurück.

Im 5. Bericht des IPCC wird die Temperaturentwicklung nach folgender Formel berechnet:

Temperaturformel

(Quelle: Independent Committee on Geoethics – London Conference 2016)

Auch der Laie erkennt die zahlreichen Parameter, die in dieser Gleichung einen Einfluss auf die Temperaturentwicklung T haben. Unberücksichtigt soll an dieser Stelle bleiben, ob der in der Gleichung postulierte Zusammenhang als solcher korrekt ist. Selbst wenn man davon ausgeht, ergeben sich folgende fehlerhafte Parametereinstellungen des IPCC:

Die Klimasensitivität wird überschätzt und damit auch der Feedbackfaktor f.

Der Sensitivitätsparameter wird überschätzt.

Der Einfluss von Wasserdampf in der Atmosphäre wird in diesem Zusammenhang überschätzt.

Im Regelkreis wird zum einen die Temperatur statt der Flussdichte verwendet. Zum anderen darf nicht die Temperaturdifferenz, sondern muss die absolute Temperatur verwendet werden, um die korrekte Verstärkung im Regelkreis zu ermitteln.

Das Ergebnis ist eine Überbewertung der Temperaturveränderung bei steigendem CO2-Anstieg durch den IPCC um den Faktor 3. In Worten: DREI. Insofern ist es nicht verwunderlich, dass die in den Berichten des Weltklimarates veröffentlichten Prognosen weit neben den tatsächlichen Messwerten liegen. Das sog. Global Warming Speedometer veranschaulicht dies:

AGW-Speedometer

(Quelle: Independent Committee on Geoethics – London Conference 2016)

Mehr Details gibt es in folgendem sehr interessanten und kurzweiligen dazugehörigen Vortrag.

Zum Nachlesen gibt es den Foliensatz und die Dokumentation der London Conference 2016 vom Independent Committee on Geoethics, wo übrigens auch andere erhellende Vorträge zum Thema Klimawandel zu finden sind.

Wie gesagt, die Betrachtung der IPCC-Simulationsmodelle in diesem Abschnitt lässt deren grundsätzliche Richtigkeit unberücksichtigt und bezieht sich allein auf die innerhalb des Modells verwendeten Parameter, die fehlerhaft sind.

Stets interessant wird es, wenn sich ehemalige IPCC-Mitglieder zu Wort melden, um die Arbeit des Weltklimarates zu kommentieren. An dieser Stelle sei zum Beispiel auf ein Interview mit Dr. Patrick Michaels bei FOX News verwiesen.

Temperaturverlauf der letzten 810.000 Jahre

Betrachtet man die Rekonstruktionen der Temperatur der letzten 810.000 Jahre auf Basis der Eisbohrkerne, lässt sich feststellen, dass es Phasen mit deutlich höheren und deutlich niedrigeren Temperaturen als heute gab, der Temperaturverlauf also einer natürlichen Fluktuation unterliegt. Es lässt sich weiterhin feststellen, dass die Temperatur relativ konstant ist. Die Schwankungsbreite liegt bei +/- 3,3 Grad.

Temperaturverlauf 810.000 Jahre

Es gibt auch Temperaturrekonstruktionen, die viel weiter zurückgehen. Wie zuverlässig diese sind, vermag ich nicht zu beurteilen.

All palaeotemps

(Quelle: Glen Fergus [CC BY-SA 3.0 (https://creativecommons.org/licenses/by-sa/3.0)], from Wikimedia Commons)

Unstrittig ist jedenfalls, dass der Temperaturverlauf natürlichen Schwankungen unterliegt und es wärmere und kältere Phasen gab. Und diese Schwankungen sind mit absoluter Sicherheit unabhängig von einem durch den Menschen verursachten CO2-Ausstoß, da dieser erst durch die Industrialisierung seit Mitte des 19. Jahrhunderts auftritt.

Treibhauseffekt

In Treibhäusern gedeihen Pflanzen übrigens auch im Winter. Woran liegt das? In Treibhäusern treten zwei Effekte auf:

Es wird Konvektion verhindert, dh der Austausch zwischen den warmen Luftmassen im Innern des Treibhauses mit den kalten Luftmassen außen.

Je nach Wahl des Scheibenmaterials wird mehr oder weniger Infrarotstrahlung (Wärmestrahlung) im Treibhaus „festgehalten“.

Der Haupteffekt entsteht durch die Unterbindung der Konvektion. Ein Treibhaus ist ein geschlossenes System! Unsere Atmosphäre ist hingegen ein offenes System. Insofern ist die Verwendung des Begriffs Treibhauseffekt im Zusammenhang mit dem Erdklima irreführend. Ich erinnere an dieser Stelle noch einmal an die oben erwähnte wissenschaftliche Arbeit von Gerlich/Tscheuschner zur Falsifizierung eines atmosphärischen CO2-Treibhauseffekts.

CO2-Düngung

In Gewächshäusern wird übrigens der CO2-Anteil künstlich erhöht, damit die Pflanzen besser gedeihen. Dabei sind verschiedene Pflanzenarten zu unterscheiden, weil sie unterschiedlich auf einen erhöhten CO2-Anteil reagieren.

 

Photosynthese CO2-Konzentration.svg
(Quelle: Von Yikrazuul – Own work by uploader; ISBN 978-3-527-31179-8; S. 473, CC BY-SA 3.0, Link)

Wir merken uns: aus Sicht der Pflanzen wäre ein erhöhter CO2-Anteil in der Atmosphäre wünschenswert.

Weitere Einflussfaktoren auf Klima und Temperatur

Es gibt zahlreiche weitere Einflussfaktoren auf das Klima und die Temperatur auf der Erde, auf die ich hier im Detail nicht eingehen kann, weil es den Rahmen dieses Blogs sprengen würde. Der geneigte Leser möge zu den folgenden Punkten im Bedarfsfalle selbst recherchieren.

In hohem Maße verantwortlich für das, was auf der Erde geschieht, ist die Sonne mit ihren Sonnenflecken und ihrer Aktivität. Wie hoch genau das Maß ist, ist wiederum ungewiss. Sie ist in jedem Falle die Voraussetzung für Leben auf der Erde. Die Entfernung der Erde von der Sonne hat einen Einfluss auf das Klima, ebenso die Aktivität der Sonne. D.h. die Strahlung, die von der Sonne bei uns auf der Erde landet, unterliegt Schwankungen.

Wasserdampf. Ist ihnen schon einmal aufgefallen, dass es nachts viel weniger abkühlt, wenn der Himmel bedeckt ist. Dies ist insbesondere im Winter auffällig.

Ozeane können Unmengen CO2 speichern – je kälter desto mehr. D.h. wenn die Temperatur der Ozeane in einer Warmphase steigt, geben sie sehr große Mengen an CO2 ab. Wenn ihre Temperatur sinkt, können sie sehr große Mengen CO2 speichern. Normalerweise gibt es eine zeitliche Verzögerung von mehreren hundert Jahren zwischen Temperaturanstieg und CO2-Anstieg. Hier haben wir es offensichtlich mit einer tatsächlichen Kausalität zu tun. Diese Kausalität lässt sich anscheinend auch in kürzeren Zyklen nachweisen.

Die Photosynthese der Pflanzen und Wälder trägt in großem Umfang zur Umwandlung von CO2 in Sauerstoff bei. Wälder werden in großem Umfang gerodet. Insbesondere die Rodung der Regenwälder könnte einen signifikanten Einfluss auf den CO2-Kreislauf haben.

Es gibt immer noch sehr viele aktive Vulkane auf der Erde. Diese blasen enorme Mengen CO2 und andere Gase und Partikel in die Atmosphäre, wenn sie ausbrechen. Die Mengen sind schwer bis gar nicht zu messen.

Zusammensetzung der Atmosphäre

Nun haben wir schon reichlich über den Klimawandel und dessen vermeintlichen Verursacher CO2 geschrieben. Aber wie setzt sich unsere Atmosphäre überhaupt zusammen (Deutscher Wetterdienst).

Unsere (trockene) Atmosphäre besteht ungefähr, je nach Quelle, aus rund 78% Stickstoff, 21% Sauerstoff und 0,9% Argon. Die verbleibenden 0,1% setzen sich zusammen aus Kohlendioxid (380 ppm), Neon (18 ppm), Helium (5 ppm), Methan (1,8 ppm), Wasserstoff (500 ppb), Lachgas (310 ppb), Kohlenmonoxid (100 ppb), Ozon (30 ppb) und anderen.

Der Anteil der sog. Spurengase in der Atmosphäre ist dabei so gering, dass er i.d.R nicht mehr in Prozent (%), sondern in Parts per Million (ppm) angegeben wird. D.h. 380 ppm CO2 in der Atmosphäre entsprechen 0,038%. Oder anders formuliert: in 10.000 Teilen Luft befinden sich 7.800 Teile Stickstoff, 2.100 Teile Sauerstoff, 90 Teile Argon und 3,8 Teile CO2.

Als Kuriosität sei in diesem Zusammenhang Meyers Konversationslexikon erwähnt, welches im Jahr 1890 den Anteil von CO2 in der Atmosphäre auf 0,04% bezifferte.

CO2-Gehalt 1890

Damit stellen sich gleich zwei Fragen:

Wie genau waren die damaligen Methoden zur Bestimmung der Zusammensetzung der Atmosphäre?

Wie genau kann mit den heutigen Methoden die damalige Zusammensetzung der Atmosphäre ermittelt werden?

Allem Anschein nach können wir heute mit größerer Genauigkeit die Zusammensetzung der Atmosphäre im Jahre 1890 bestimmen als seinerzeit. Sonst würde schließlich stets Meyers Konversationslexikon mit seinen 400 ppm CO2-Gehalt in der Atmosphäre zitiert.

Gerne erwähnt werden die sogenannten Eisbohrkerne, die in der Antarktis und in Grönland entnommen wurden. Es wird angenommen, dass die Eisbohrkerne die damalige Atmosphäre und damit auch ihre Zusammensetzung konserviert haben. Das heißt, wenn bekannt ist, wie alt das Eis ist, das als Probe entnommen wurde, ist auch bekannt, wie sich die Atmosphäre seinerzeit zusammengesetzt hat. Soweit die Theorie. In der Praxis gibt es aber einige Besonderheiten und interessante Erkenntnisse, die mancherorts gerne verschwiegen werden.

Der Frage nach der Bestimmung des CO2-Gehalts im vorindustriellen Zeitalter ist David Middleton nachgegangen und betrachtet in seinem Beitrag verschiedene Methoden. Die Erkenntnis ist, dass der CO2-Gehalt in der Atmosphäre bei weitem nicht so konstant bei rund 275 ppmv bis zur Mitte des 19. Jahrhunderts lag, wie bislang angenommen, sondern ebenfalls Schwankungen unterlag – genauso wie die Temperatur. Ferner konnte auch das Vorauseilen des Temperaturanstiegs gegenüber dem CO2-Anstieg bestätigt werden.

Zwischenfazit

Werfen wir noch einmal einen Blick auf obiges Zitat zu dem Buch Die Grenzen des Wachstums: „Diese erstaunliche Wirkung erzielte die Publikation, indem es ihr gelang, ein verbreitetes Unbehagen zu fokussieren.“

Und nehmen wir dazu ein Zitat vom damaligen UN-Generalsekretär aus dem Jahr 1969 aus der Einführung des Buches: „Ich will die Zustände nicht dramatisieren. Aber nach den Informationen, die mir als Generalsekretär der Vereinten Nationen zugehen, haben nach meiner Schätzung die Mitglieder dieses Gremiums noch etwa ein Jahrzehnt zur Verfügung, ihre alten Streitigkeiten zu vergessen und eine weltweite Zusammenarbeit zu beginnen […] Wenn eine solch weltweite Partnerschaft innerhalb der nächsten zehn Jahre nicht zustande kommt, so werden, fürchte ich, die erwähnten Probleme derartige Ausmaße erreicht haben, dass ihre Bewältigung menschliche Fähigkeiten übersteigt.“

Nun rufen wir uns noch einmal den Prolog in Erinnerung: Erst drohte die Eiszeit – mit einem vermeintlichen Punkt, ab dem es kein Zurück mehr gibt. Dann wurde die Eiszeitstimmung durch die Globale Erwärmung abgelöst – mit einem vermeintlichen Punkt, ab dem es kein Zurück mehr gibt, und nur einem kleinen Zeitfenster von zehn Jahren, das bleibt, um zu handeln – 1989 wie auch 2018.

Dazu denken wir an die Unregelmäßigkeiten der vermeintlichen Referenzinstitution IPCC sowie die „Gestaltungsmöglichkeiten“ von Temperaturdaten und Simulationsmodellen.

Erkennt der geneigte Leser und Nutzer des gesunden Menschenverstandes hier vielleicht ein Muster? Geht es womöglich gar nicht darum, die zukünftige Entwicklung auf unserem Planeten möglichst akkurat zu prognostizieren?

Am Anfang hieß es Global Warming

„Der atmosphärische Treibhauseffekt ist eine Idee, die viele Autoren auf die überlieferten Werke von Fourier (1824), Tyndall (1861) und Arrhenius (1896) zurückführen. Er wird in der Globalklimatologie immer noch als grundlegend angesehen und beschreibt im Wesentlichen einen fiktiven Mechanismus, in dem die planetare Atmosphäre wie eine Wärmepumpe arbeitet, die von ihrer Umgebung angetrieben wird, die sich mit dem atmosphärischen System zwar in einer Strahlungswechselwirkung, aber gleichzeitig in einem Strahlungsgleichgewicht befindet. Nach dem Zweiten Hauptsatz der Thermodynamik kann eine solche planetare Maschine niemals existieren. Trotzdem wird in fast allen Texten der Globalklimatologie und in einer weit verbreiteten Sekundärliteratur stillschweigend vorausgesetzt, dass ein solcher Mechanismus physikalisch möglich ist.“ (Gerlich/Tscheuschner 2009)

Einer der ersten und einflussreichsten Wissenschaftler, die den Einfluss von anthropogenen (d.h. nicht-natürlichen) CO2-Emissionen auf die Temperatur genauer untersuchten, war Professor Roger Revelle, von 1950-64 Direktor des Scripps Instituts für Oceanographie an der Universität von San Diego. Er wechselte 1964 zur Harvard Universität und gründete dort das Center for Population Studies. Einer seiner Studenten dort war Al Gore. Ja, genau – der Al Gore.

John Coleman, „original“ Wettermann der ABC-Morgensendung Good Morning America in den 70er Jahren und Mitbegründer von The Weather Channel 1981 hat hierzu ein 30-minütiges Video erstellt, welches hilft, die Entstehung der „Global Warming Bewegung“ zu verstehen.

Fazit

Unsere Atmosphäre ist ein offenes, dynamisches System, dessen Ursache-Wirkungsprinzipien in keinem Simulationsmodell umfänglich genug abgebildet werden können, um daraus akkurate Prognosen über die zukünftige Entwicklung des Klimas ableiten zu können.

Der angebliche Treibhauseffekt widerspricht den Gesetzen der Physik und der Thermodynamik und wurde wissenschaftlich falsifiziert.

Ein hoher CO2-Gehalt in der Atmosphäre bringt die Flora zum Ergrünen. In Gewächshäusern gibt es eine sogenannte CO2-Düngung, weil die CO2-Konzentration in der Luft für eine optimale Photosynthese der Pflanzen zu niedrig ist.

Das Klima und damit auch der Temperaturverlauf auf der Erde unterliegen natürlichen Schwankungen. Die Ursachen hierfür sind vielfältig und lassen sich in ihrem individuellen Beitrag nicht unabhängig voneinander quantifizieren.

Bezüglich des Anteils an der Atmosphäre ist eine durch den Menschen verursachte Veränderung des CO2-Anteils um 100ppm aus rein statistischer Sicht als nicht signifikant einzustufen.

Bezüglich des Anteils am gesamten atmosphärischen CO2-Kreislauf ist eine durch den Menschen verursachte Veränderung des Anteils um 100ppm aus rein statistischer Sicht als nicht signifikant einzustufen.

Bezüglich des Betrachtungszeitraumes sind 150 Jahre seit der Industrialisierung bei einer Erdgeschichte von rund sechs Milliarden Jahren aus rein statistischer Sicht als nicht signifikant einzustufen.

Der IPCC ist aufgrund seiner personellen Besetzung und der öffentlich gewordenen Skandale um die Manipulation von Klimadaten als unwissenschaftlich, unglaubwürdig und politischen Interessen folgend einzustufen. Seine Berichte sind daher mit größter Skepsis zu betrachten.

Die gesamte Debatte um das Thema Klimawandel und Erderwärmung lässt sich in einem Satz wie folgt zusammenfassen:

Die dem Menschen zugeschriebenen Auswirkungen auf die globalen Temperatur- und extremen Wetterereignisse liegen im Rahmen der natürlichen Schwankungen und sind somit statistisch nicht signifikant.

Punkt.

Epilog

Zu viele Details trüben mitunter den Blick auf das Wesentliche.

In den meisten (Main Stream) Medien wird gerne undifferenziert berichtet. Die Art und Weise der Berichterstattung lässt die Vermutung zu, dass dies kein Zufall ist, sondern einem bestimmten Zweck dient.

Das Thema Klimawandel ist ein wunderbares Beispiel für die Mechanismen der Macht, denen der „normale Mensch“ ausgesetzt ist. Mittels umfangreicher PR-Kampagnen (siehe hierzu auch BSR Social Engineering) wird Angst bei der Bevölkerung erzeugt. Angst vor Krieg. Angst vor Klimakatastrophen. Über Jahrzehnte aufgebaute Netzwerke werden genutzt, um mittels politischem Druck die „Botschaft unters Volk zu bringen“ und anders lautenden Meinungen die Plattform zu entziehen. Da es mittlerweile, dank Internet, möglich ist, dass sich praktisch jeder seine eigene Plattform schafft, blieb bislang nur die unsachliche Diffamierung Andersdenkender. Dies ändert sich nun. Die großen „Internetmonopolisten“ wie Google, YouTube (ist auch Google, ich weiß), Facebook etc. sind bereits fleißig dabei, „unerwünschte Informationen“ von ihren Plattformen zu verbannen, d.h. in großem Umfang zu zensieren (z.B. Alex Jones). Das äußert sich z.B. auf YouTube durch das Löschen ganzer Benutzerkonten mit den dazugehörigen Kanälen oder bei Google durch das Unterdrücken oder weit nach hinten Platzieren von bestimmten Informationen bei den Suchergebnissen.

Wer wissen möchte, auf welche Zukunft wir uns mit großen Schritten zubewegen, sei auf die Werke von Aldous Huxley (Schöne Neue Welt von 1932) und George Orwell (1984 von 1949) verwiesen. Hierzu gibt es auch Verfilmungen.

In Schöne Neue Welt ist die Manipulation des menschlichen Genoms selbstverständlich. Auch da sind wir breits nah dran.

Brave New World (Länge ca. 3 Stunden, engl.):

1984 als Spielfilm von 1956 (Länge ca. 90 Min., engl.):

…oder als Fernsehfilm von der BBC von 1954 (Länge ca. 105 Min., engl.):

Diese Entwicklung ist unverkennbar. Es handelt sich hierbei um die wertfreie Feststellung einer Tatsache.

Das Thema CO2 bietet die Möglichkeit einer universellen weltweiten Steuer mit dem Potenzial zur Weltwährung, die in ferner oder gar nicht mehr allzu ferner Zukunft einmal das Geld ablösen könnte.

Die CO2-Steuer wird derzeit ausgerollt, zum Beispiel in Deutschland als KFZ-Steuer, die die bisherige hubraumbasierte KFZ-Steuer ablöst, oder in Frankreich, wo die CO2-Steuer zusätzlich erhoben wird, was aufgrund der daraus resultierenden finanziellen Mehrbelastung der Bürger zu massiven Protesten geführt hat. Die deutsche Regierung war wenigstens so schlau, die CO2-Steuer gegen eine bestehende Steuer zu tauschen.

Als weiterführende Literatur sei an dieser Stelle u.a. auf die Bücher Technocracy Rising und Technocracy: The Hard Road to World Order von Patrick M. Wood verwiesen.