Professor Rahmstorf entdeckt das Internet, oder: was hat Statistics Norway da gemacht?

7. Dezember 2023von 43,1 Minuten Lesezeit

Im Herbst erschien auf der Homepage des Statens Statistisk Sentralbyrå (SSB) ein „Working Paper“, das hierzulande die Wogen hochgehen ließ. Ein „kontroversielles Papier“, so die „Leit- und Qualitätsmedien“ unisono, in dem Zweifel über „den Klimawandel“ geäußert wurden, sei da veröffentlicht worden. Die Tatsache, dass das SSB dabei mitmache, nichts weniger als ein Angriff auf Anstand, Moral und Glaubwürdigkeit einer ehrwürdigen staatlichen Institution. Und dann blickte man seitens der norwegischen Medien auch immerhin noch in die Studie, was jedoch offenkundig ein wenig zu viel verlangt war von Herrn Prof. Stefan Rahmstorf vom Potsdamer Institut für Klimafolgenforschung, der Ende November die Studie „entdeckte“, zum Angriff überging und dabei nicht einmal so „weit“ kam, wie die norwegischen „Leit- und Qualitätsmedien“.

Die Sache ist so brandaktuell, dass ich darüber (unter einem zugegeben nicht zwingend reißerischen Titel) am 2. Okt. 2023 auf meinem Substack berichtet habe. Sie finden diesen Beitrag hier, an dieser Stelle folgt nun eine deutschsprachige Übertragung bzw. Erweiterung um den zuvor erwähnten Beitrag von Stefan Rahmstorf.

Im Sinne der Darlegung jeglicher Interessenskonflikte halte ich zudem fest, dass ich Herrn Rahmstorf einmal getroffen habe, als er 2017 in einem Weiterbildungsstudiengang der Universität Zürich auf meine Einladung hin über „Klimawandel“ sprach; am Rande dieser Veranstaltung haben wir uns in der Mittagspause ganz gut unterhalten, wobei mir Herr Rahmstorf damals erklärte, dass das „worst case“-Szenario des damalig aktuellen IPCC-Berichts (sog. „RCP 8.5„) nicht realistisch sei, man dies aber in der Klimawandel-Community nicht laut sagen würde, da sonst ggf. die Dringlichkeit verloren ginge.

„Wissenschaftler glauben nicht, sie haben Evidenz“

So Kary Mullis, zitiert von Celia Farber in ihrem tollen Buch Serious Adverse Events (Chelsea Green, 2023, S. 129), das ich fast fertig gelesen habe. Sehr empfehlenswert.

Dies ist ein sehr langer Beitrag, wenn Sie wegen des Titels bzw. der Aussagen von Stefan Rahmstorf hier sind, aber die „Hintergründe“ und „Zusammenhänge“ überspringen wollen, scrollen Sie doch bis zu der Überschrift „Wie buchstabiert man Stohmann-Argument in der Klimaforschung™?“ weiter.

Nördliche Verflechtungen von Kapital, Medien und Regierung

Als ich an einem Oktobermorgen an meinem Kaffee nippte und gelassen durch die alten norwegischen Medien blätterte, stolperte ich über einen sehr beunruhigenden Artikel. Als erstes fiel mir eine kleine Schlagzeile auf der Homepage von Bergens Tidende auf, die auf einen Artikel verweist, den ich als „sekundären Journalismus“ bezeichne, d.h. jemand hat eine Zusammenfassung von etwas geschrieben, das anderswo erschienen ist. Das kommt hier in Norwegen recht häufig vor, da die meisten privaten „Leit- und Qualitätsmedien“ im Besitz der Schibsted-Gruppe sind, insbesondere die führenden Zeitungen des Landes in Oslo (Aftenposten) und Bergen (Bergens Tidende).

Am Rande sei bemerkt, dass derartige Vermerke („Erstmals veröffentlicht bei [Stelle einfügen]“) ebenso häufig zu finden sind, doch selbst ein kurzer Blick auf die Eigentümerstruktur von Aftenposten und Bergens Tidende ist aufschlussreich: Beide gehören der Schibsted-Gruppe, deren Mehrheitseigentümer (60,1 %) ist der sog. „Tinius Trust“, eine Stiftung, die Mitte der 1990er Jahre von dem legendären Journalisten Einar Fredrik Åke „Tinius“ Nagell-Erichsen über seine Investmentgesellschaft Blommenholm Industrier gegründet wurde, die ein weiteres Viertel (25,1 %) der Schibsted-Aktien besitzt. Der Rest befindet sich, wie uns Wikipedia (ausgerechnet) mitteilt, im Besitz von Unternehmen wie der Deutschen Bank, Goldman Sachs, JP Morgan Chase oder UBS, wobei sich deren Anteile im einstelligen Bereich bewegen. Nahezu unnötig zu erwähnen ist, wie der „Tinius Trust“ in seinen „Corporate-Governance-Grundsätzen“ ausführt, dass es zu der „grundlegenden Überzeugung“ der Stiftung gehöre, ein „aktiver Eigentümer zu sein und Einfluss zu nehmen… als größter Eigentümer von Schibsted“.

So weit nichts Neues unter der nordischen Sonne, was bedeutet, dass wir uns dem eigentlichen Thema zuwenden können.

Die „Leit- und Qualitätsmedien“ berichten (sic) am Punkt vorbei

Gestern, am 1. Oktober 2023, erschien in Bergens Tidende ein interessanter Artikel. Unter dem Titel „Staatliches Statistikbüro veröffentlicht umstrittenes Papier zum Klima [Wandel]“ (orig. „SSB publiserte kontroversiell forskningsartikkel om klima“) war dies nicht viel mehr als eine billige Wiederholung dessen, was Aftenposten zuvor veröffentlicht hatte. Da beide Medien im Besitz von Schibsted sind, ist dies ein klarer Fall des zuvor erwähnten „sekundärem Journalismus“.

Daher folgen wir dem Bericht von Aftenposten (Original mit Bezahlschranke, archivierte Version ohne Bezahlschranke), dessen Titel und Untertitel näher an der Wahrheit sind:

SSB [Statistisk Sentralbyrå, oder Statistics Norway] veröffentlicht umstrittenes Forschungspapier zum Klimawandel – und wird geschlachtet

Das norwegische Statistikamt hat ein Forschungspapier veröffentlicht, das den vom Menschen verursachten Klimawandel in Frage stellt. Jetzt wollen sie ihre eigenen Regeln [für die Veröffentlichung] ändern.

Sie haben wahrscheinlich erraten, warum diese Artikel mein Interesse geweckt haben…hier ist eine Teilübersetzung der Highlights des Artikels. Der von Stine Barstad verfasste Artikel wurde am 1. Okt. 2023 am frühen Nachmittag veröffentlicht (hier und in Folge meine Übersetzungen und Hervorhebungen):

Die Ergebnisse deuten darauf hin, dass der Effekt der vom Menschen verursachten CO2-Emissionen nicht stark genug zu sein scheint, um systematische Veränderungen im Muster der Temperaturschwankungen zu verursachen.

Dies ist ein Teil der Schlussfolgerung eines Forschungsartikels, der am Montagmorgen im SSB-Newsfeed veröffentlicht wurde.

Die Behauptung, die regelmäßig in der Klimadebatte auftaucht, steht im Widerspruch zu dem, was die einheitliche globale Forschungsgemeinschaft dazu festhält:

Die von Menschen verursachten Treibhausgasemissionen aus der Verbrennung von Öl, Kohle und Gas führen zu einer Erwärmung des Planeten. Dies ist gründlich dokumentiert und bewiesen worden.

Abgesehen von dem problematischen Begriff des „Beweises“ im wissenschaftlichen Sinne – es handelt sich hierbei im Grunde um ein Axiom, d.h. um etwas, das bis zum Beweis des Gegenteils als bewiesen angenommen wird. Zwischen etwas, das „gründlich dokumentiert“ ist, und etwas, das „bewiesen“ ist, klafft übrigens eine große Lücke, aber aus welchen Gründen auch immer, ist Frau Barstad nicht geneigt, solche mehr als nur semantischen Nuancen zu berücksichtigen.

Aber es war nicht nur der Inhalt der Nachricht, der viele Menschen am Montagmorgen an ihrem Frühstück beinahe verschlucken ließ, sondern es war der Vermittler der Botschaft.

SSB verleiht Glaubwürdigkeit

„Statens Statistisk Sentralbyrå verleiht Schlussfolgerungen Glaubwürdigkeit, die nicht haltbar sind und sonst keine Beachtung finden würden“, sagt Christian Bjørnæs, Direktor für Kommunikation am Cicero Centre for Climate Research.

Andere gehen noch weiter und werfen SSB vor, alternative Fakten zu verbreiten.

Der Artikel wird nun eifrig in den sozialen Medien von Menschen geteilt, die den SSB-Artikel nutzen, um ihre Ansicht zu untermauern, dass der Klimawandel nicht durch unsere Emissionen verursacht wird.

Beachtlich ist, wie schnell wir von etwas, das „gründlich dokumentiert“ ist zu der typischen Beschwörung von ursächlichen Kausalzusammenhängen („verursacht“) übergegangen sind. Nach der redaktionellen Ausrichtung (und möglicherweise der persönlichen Voreingenommenheit von Frau Barstad) zu urteilen, wird das, was früher „Wissenschaft“ war, jetzt zunehmend als moralische Keule benutzt.

Davon abgesehen: Wie kann es der gewiss ungewaschene, bedauernswerte Pöbel es auch noch dazu wagen, solche ketzerischen Inhalte in den sozialen Medien „eifrig zu teilen“?

Das Cicero Centre for Climate Research ist übrigens kein unabhängiges Forschungszentrum, sondern eine als Stiftung organisierte Dependance der norwegischen Regierung, die 1990 gegründet wurde. Das aber verschweigt der Aftenposten-Beitrag geflissentlich:

Cicero kritisiert die Tatsache, dass der Artikel auf der SSB-Website zusammen mit dem SSB-Logo und ohne weitere Erklärung, worum es sich bei dem Artikel handelt oder wer dahinter steckt, veröffentlicht wurde.

Großes Kino also, dass eine de facto Regierungsbehörde (Cicero Centre for Climate Research) nun eine andere de jure Regierungsbehörde (Statens Statistisk Sentralbyrå) dafür kritisiert, eine Studie zu veröffentlichen, und das noch dazu auf der SSB-Website zusammen mit dem SSB-Logo und ohne weitere Erklärung, worum es sich bei dem Artikel handelt oder wer dahinter steckt, veröffentlicht wurde.

Diese Position ist übrigens nur dann objektiv zutreffend, wenn man all die anderen „Forschungspapiere“ außer Acht lässt, die vom Statens Statistisk Sentralbyrå zur – nun ja – Anregung politischen Debatten veröffentlicht oder verbreitet werden. Da aber all diese anderen „Forschungspapiere“ nicht vom vom etablierten Mainstream abweichen, so liegt nahe, dass die Autoren dieses Klimawandelpapiers tatsächlich „umstritten“ bis geradezu „schädlich“ ist, oder?

Interessanterweise werden diese Art von Forschungspapieren nicht wie in wissenschaftliche Zeitschriften oder Forschungs-Monographien von Fachleuten begutachtet, sondern unterliegen internen Gutachtern, d. h. jemand der beim Statens Statistisk Sentralbyrå arbeitet hat die Studie wohl tatsächlich gelesen, es für interessant befunden und veröffentlicht.

Und damit sind wir an des Pudels Kern dieser Staatsaffäre angelangt: Es sieht so aus, als ob es dieses Gedankenverbrechen und die darauf folgende Publikation der Studie war, die die Hüter des Diskurses verärgert. Und dies ist nahezu ein Hilfsausdruck, wenn man den Aftenposten-Beitrag weiter liest:

Der Klimawissenschaftler Bjørn Samset beschreibt die Analyse als „so schwach, dass sie fast wertlos ist“.

Hier können wir sehen, wie Herr Samset die internen Referenten der SBB sozusagen als Idioten bezeichnet. Der folgende Absatz verrät jedoch auch, dass es hier um etwas viel Schlimmeres geht:

Wer steckt wirklich hinter dem umstrittenen Artikel, und was sagt er aus?

Statistiker und pensionierter Zivilingenieur

Der Artikel fasst eine so genannte Diskussionsnotiz der Forschungsabteilung des Statens Statistisk Sentralbyrå zusammen. Bis Donnerstag sagte der SSB-Artikel selbst nichts darüber aus, was ein solches Diskussionspapier ist. Er sagte auch nichts darüber aus, wer dahinter steckt.

Um das herauszufinden, musste man auf einen englischsprachigen PDF-Artikel zurückgreifen. [Oh, was für ein Affront: Man muss auf einen Link klicken und etwas auf Englisch lesen…]

Linda Nøstbakken, Forschungsdirektorin beim Statens Statistisk Sentralbyrå, erklärt, dass es in der Sozialforschung üblich ist, solche Arbeitspapiere zu veröffentlichen, um Anregungen und Diskussionen zu erhalten, bevor sie zur Veröffentlichung weitergeleitet werden. Es wurde von Kollegen des Statens Statistisk Sentralbyrå gelesen und kommentiert, aber nicht von Fachkollegen [vulgo: „Peer-review“] überprüft. Die Schlussfolgerungen gehen zu Lasten der Autoren und werden vom Statens Statistisk Sentralbyrå nicht geteilt.

Niemand, der bei klarem Verstand ist und wissenschaftliche Arbeit leistet, braucht eine offizielle Bestätigung. Wer so etwas „braucht“, ist eher in einem Kult oder in einer Sekte tätig, nicht aber in „der Wissenschaft“.

In diesem Fall werden die Schlussfolgerungen von John Kristoffer Dagsvik und Co-Autor Sigmund H. Moen gezogen. Dagsvik ist ein pensionierter Statistiker und Forscher im Ruhestand des Statens Statistisk Sentralbyrå. Moen ist ein pensionierter Zivilingenieur.

Jetzt wissen wir, wer diese Studie verfasst hat – und hier wird es „lustig“ im Sinne von aufschlussreich, was den fortgeschrittenen Verfall „der Wissenschaft“ als gesellschaftliche Aktivität angeht, wie sie seit dem, was als „wissenschaftliche Revolution“ des 17. Jahrhunderts bezeichnet wird, praktiziert wurde (abgesehen von Steven Shapins Veröffentlichungen ist die quasi Standarddarstellung von H. Floris Cohen, The Scientific Revolution, Chicago, 1994).

Wenn im Folgenden von „Paradigma“ die Rede ist, beziehe ich mich übrigens auf Thomas S. Kuhn, The Structure of Scientific Revolutions (Chicago, 1962); weitere Informationen finden Sie hier.

Wir betreten ein neues Paradigma, das der Wissenschaft ist vorbei

Denken Sie daran, dass all das oben Genannte angeführt, zitiert und moralisiert wird, bevor auch nur eine einzige Aussage aus dem Forschungspapier angeführt wird. Mit anderen Worten: Die „Berichterstattung“ in den „Leit- und Qualitätsmedien“ spannt das sprichwörtliche Pferd vor den Wagen (Kontextualisierung, redaktionelle Bearbeitung). Aus dem Aftenposten-Beitrag:

Was also haben die beiden getan, das so viel Aufmerksamkeit erregt hat?

Studie findet keinen CO2-Effekt

Dagsvik und Moen haben Temperaturreihen der NASA von 95 Stationen ausgewertet, die weltweit die Oberflächentemperaturen messen.

Die Analyse ist eine Aktualisierung eines Artikels, der im Jahr 2020 im Journal of the Royal Statistical Society [Series A, Nr. 183, S. 883-908] veröffentlicht wurde.

Oh, was sehen wir hier? Es gibt tatsächlich einen dem „Working Paper“ zugrundeliegenden, von Fachexperten begutachteten Artikel, den die Herren Dagsvik und Moen, beide im Ruhestand, gemeinsam verfasst und bei einer wirklich „wissenschaftlichen“ Zeitschrift eingereicht haben. Sie können die Arbeit mit dem Titel „How does the temperature vary over time Evidence on the stationary and fractal feature of temperature fluctuations“ (etwa: „Wie variiert die Temperatur im Laufe der Zeit?“) nachlesen, wenn Sie auf den Titel klicken. Übrigens habe ich (institutionellen) Zugang zu den Inhalten, die von keinem Geringeren als Oxford University Press (einem sehr angesehenen Wissenschaftsverlag) veröffentlicht wurden. Wenn Sie die zugrundeliegende Studie lesen wollen, dies aber aufgrund der Bezahlschranke nicht tun können, so schicke ich Ihnen die Studie gerne zu (Email an mich reicht), selbstverständlich zu Forschungszwecken.

Der Artikel von Dagsvik und Moen wurde 2016 eingereicht und durchlief anscheinend eine Reihe von Überarbeitungen und Bearbeitungen und natürlich den Review- und Redaktionsprozess, bevor er 2020 veröffentlicht wurde.

Die Autoren, die eine begutachtete wissenschaftliche Arbeit in einer einschlägigen akademischen Publikation veröffentlicht haben, werden nun dafür bestraft, dass sie es gewagt haben, ihre Analyse zu „aktualisieren“, und zwar von einer Person (Stine Barstad), die, wenn ihr LinkedIn-Profil einigermaßen korrekt ist, an buchstäblich allem Möglichen gearbeitet hat, einen Bachelor-Abschluss in „Journalismus und Wirtschaft“ von der City University of London (1998-2001) und einen Master-Abschluss in „Politik der Weltwirtschaft“ von der London School of Economics (2003-04) besitzt.

Bei diesem Unterfangen wird sie von Bjørn Samset unterstützt, dem Äquivalent eines ausgewiesenen „Klimawissenschaftlers™“, der seine Emotionen kaum im Zaum halten kann (Homepage-Profil). Unnötig zu erwähnen erscheint nahezu, dass dieser ursprünglich als Physiker ausgebildet wurde und in seinem offiziellen Profil als „Wissenschaftsvermittler“ bezeichnet wird, der einen Doktortitel in Kernphysik von der Universität Oslo, Norwegen (2006), besitzt.

Wenn Sie oder ich, die übrigens keinen dieser hochtrabenden Titel tragen, Vorträge wie „Wie wir die Welt retten können“ (Dr. Samset) halten und einfach nur Studien lesen, so etwas tun würden, würden viele Leute mit den Augen rollen. Davon abgesehen steht die Frage im Raum, warum ein Nuklearphysiker nicht an einer renommierten Universität oder in der Privatwirtschaft „in“ bzw. „an der Kernforschung“ arbeitet, sondern vielmehr seine Tage als „Wissenschaftsvermittler“ zubringt.

Wenden wir uns nun aber dem Papier von Dagsvik und Moen zu, zwei „pensionierten“ Fachleuten, einer ein Statistiker und der andere ein Zivilingenieur. Was könnten diese beiden Leute wissen, was, sagen wir, „Journalisten“ wie Stine Barstad oder „Wissenschaftsvermittler“ wie Bjørn Samset nicht wissen?

Lassen Sie uns also herausfinden, was es mit der ganzen Aufregung auf sich hat, ja?

Dagsvik und Moen, „Wie variiert die Temperatur im Laufe der Zeit? (2023)

Aus der Zusammenfassung der Autoren (Hervorhebungen von mir, Verweise weggelassen; Quelle):

Wetter und Temperaturen schwanken in einer Weise, die schwer zu erklären und genau vorherzusagen ist. In diesem Artikel werden Daten über Temperaturschwankungen in der Vergangenheit sowie mögliche Gründe für diese Schwankungen untersucht. Anschließend werden die Schlüsseleigenschaften globaler Klimamodelle und statistische Analysen, die von anderen durchgeführt wurden untersucht, um die Fähigkeit der globalen Klimamodelle zu eruieren, historische Temperaturen nachzuvollziehen. Diese Tests zeigen, dass Standard-Klimamodelle durch Zeitreihendaten zu globalen Temperaturen widerlegt werden. Schließlich aktualisieren und erweitern wir frühere statistische Analysen von Temperaturdaten. Mit Hilfe theoretischer Argumente und statistischer Tests kommen wir zu dem Ergebnis, dass die Auswirkungen der vom Menschen verursachten CO2-Emissionen nicht stark genug zu sein scheinen, um systematische Veränderungen in den Temperaturschwankungen der letzten 200 Jahre zu verursachen.

Klingt pikant, was? Lesen wir weiter:

Ein typisches Merkmal der beobachteten Temperaturreihen der letzten zwei Jahrhunderte ist, dass sie mehr oder weniger einen steigenden Trend aufweisenEine Schlüsselfrage ist, ob diese Tendenz Teil eines Zyklus ist oder ob das Temperaturmuster während dieses Zeitraums systematisch von früheren Schwankungen abweicht. Selbst wenn sich herausstellen sollte, dass die in jüngster Zeit aufgezeichneten Temperaturschwankungen systematisch von früheren Schwankungsmustern abweichen, ist es immer noch schwierig festzustellen, wie viel von dieser Veränderung auf die zunehmenden vom Menschen verursachten Emissionen von Kohlendioxid (CO2) und anderen Treibhausgasen zurückzuführen ist.

Gegenwärtig besteht unter vielen Klimaforschern offenbar ein weitgehender Konsens darüber, dass der Temperaturanstieg der letzten Jahrzehnte systematisch (und teilweise vom Menschen verursacht) ist. Das ist jedenfalls der Eindruck, den die Massenmedien vermitteln. Für Laien ist es sehr schwierig, sich ein umfassendes Bild von der Forschung auf diesem Gebiet zu machen, und es ist fast unmöglich, einen Überblick und ein Verständnis für die wissenschaftliche Grundlage eines solchen Konsenses zu erlangen. In diesem Artikel werden die beobachteten und rekonstruierten Temperaturdaten der Vergangenheit sowie die Eigenschaften und Tests der globalen Klimamodelle (GCMs) genauer untersucht. Außerdem führen wir statistische Analysen der beobachteten und rekonstruierten Temperaturreihen durch und prüfen, ob sich die jüngsten Temperaturschwankungen systematisch von früheren Temperaturzyklen unterscheiden, was möglicherweise auf die Emission von Treibhausgasen zurückzuführen ist.

Dies erklärt übrigens – zumindest für mich – die Wut der „Leit- und Qualitätsmedien“: Diese beiden „Rentner“ haben also die Dreistigkeit, (endlich) die Klimainquisition der Mainstream-Medien anzuprangern. Hut ab, meine Herren!

Historisch gesehen gab es jedoch große Klimaschwankungen. Temperaturrekonstruktionen deuten darauf hin, dass es einen „Erwärmungstrend“ gibt, der schon seit etwa 400 Jahren andauert. Vor den letzten etwa 250 Jahren konnte ein solcher Trend nur auf natürliche Ursachen zurückzuführen sein. Die Länge der beobachteten Zeitreihen ist daher von entscheidender Bedeutung für die empirische Analyse des Musters der Temperaturschwankungen und für die Unterscheidung zwischen natürlichen und vom Menschen verursachten Temperaturschwankungen.

Dagsvik und Moen führen dann eine lange Liste solcher historischer Temperaturaufzeichnungen an, die in einigen Fällen bis ins Jahr 1659 in England zurückreichen, was die längste derartige Aufzeichnung ist, die monatliche Temperaturangaben enthält.

Wie gehen Dagsvik und Moen übrigens von diesen allgemeinverständlichen Beobachtungen aus?

Eine Möglichkeit, die Auswirkungen der vom Menschen verursachten Treibhausgasemissionen auf die Temperaturen von den Auswirkungen natürlicher Ursachen zu unterscheiden, besteht darin, zu prüfen, ob die Temperaturschwankungen mit Hilfe von GCMs erklärt werden können. Eine Mindestvoraussetzung dafür ist, dass die GCMs in der Lage sind, die historisch beobachteten Temperaturen zu reproduzieren. Mehrere Forscher haben fortschrittliche statistische Methoden angewandt, um die Fähigkeit von GCMs zu untersuchen, globale Temperaturreihen nachzuvollziehen, und wir überprüfen die Ergebnisse ihrer Analysen.

Gut, eine Meta-Analyse, sozusagen, aber sie fügen ein paar warnende Worte hinzu:

Da wir die Gesamtwirkung des Klimas nicht gut genug verstehen, sind die Schwankungen in den beobachteten und rekonstruierten Zeitreihen der Temperaturdaten möglicherweise schwer zu erklären. Sie können daher bis zu einem gewissen Grad unsystematisch (stochastisch) erscheinen. Ein alternativer Forschungsansatz besteht daher darin zu untersuchen, ob die Temperaturreihen mit einem statistischen Modell vereinbar sind und welche Merkmale ein solches Modell haben könnte. Diesen Ansatz verfolgten Dagsvik et al. (2020) und einige der dort genannten Referenzen. Eine strenge statistische Analyse des Temperaturphänomens ist jedoch komplizierter, als man erwarten würde. Hierfür gibt es mehrere Gründe. Erstens stellt sich heraus, dass die Temperatur als zeitlicher Prozess offenbar Zyklen aufweist, die Jahrzehnte (langes Gedächtnis), wenn nicht gar Hunderte von Jahren dauern können. Genau aus diesem Grund sollte selbst ein so lang anhaltender Anstieg in den jüngsten beobachteten Temperaturreihen nicht einfach als ein Trend interpretiert werden, der zu einem dauerhaften Klimawandel führt.

Man beachte die äußerst klare Sprache und die sorgfältige Formulierung, mit der versucht wird, zwischen Beobachtungen (langen Temperaturaufzeichnungen) und deren Interpretation zu unterscheiden. Ich für meinen Teil würde mir wünschen, dass wir mehr von dieser Art von Papieren hätten als von der anderen Sorte.

Im Wesentlichen gliedern Dagsvik und Moen ihr langes Papier folgendermaßen:

  • Abschnitt 2 beschreibt historische Daten und Klimaschwankungen in der Vergangenheit und
  • Abschnitt 3 erörtert diese Schwankungen
  • In Abschnitt 4 werden die wichtigsten globalen Klimamodelle (GCM) erörtert, wobei Abschnitt 5 einen Überblick über die Literatur zu diesen Modellen gibt.
  • In Abschnitt 6 wird der eigene Ansatz formuliert, und Abschnitt 7 befasst sich mit den Ergebnissen der eigenen Untersuchung
  • Abschnitt 8 schließlich liefert „Grenzwerte für maximale Temperaturwerte“ unter bestimmten Bedingungen.

Im Folgenden werde ich Zusammenfassungen der Abschnitte 2 und 3 sowie der Abschnitte 4 und 6 geben; danach werde ich etwas ausführlicher auf die nachfolgenden Abschnitte 6 bis 8 eingehen. Wenn ich mit dem Papier fertig bin, werden wir noch einmal darauf zurückkommen, was die alten Medien und die Hüter der „Wissenschaft™“ in der postwissenschaftlichen Ära sagen, bevor wir kurz auf die Auswirkungen eingehen.

Abschnitte 2 und 3: Historische Schwankungen

„Abgesehen von den letzten 250 Jahren beruhen die Daten auf Rekonstruktionen aus verschiedenen Quellen wie Eiskernen, Baumringen und Seesedimenten“, so die Autoren, die darauf hinweisen, dass einige Eiskerne eine Rekonstruktion vergangener Temperaturen bis zu 2 Mio. Jahren ermöglichen. Die „moderne“ Aufzeichnung, die über Satellitenbeobachtungen in der Troposphäre erfolgt, läuft seit 1979.

Eisbohrkerne aus Grönland und der Antarktis zeigen, dass vier Zwischeneiszeiten (125.000, 280.000, 325.000 und 415.000 Jahre vor heute) „wärmer waren als die heutige Zeit„. Sie stellen weiterhin fest, dass „die typische Dauer einer Eiszeit etwa 100.000 Jahre beträgt, während eine Zwischeneiszeit typischerweise etwa 10-15.000 Jahre dauert. Die gegenwärtige Zwischeneiszeit dauert nun schon etwa 11.600 Jahre“.

Die Autoren untersuchen eine Reihe von Arbeiten, die alle darauf hinweisen, dass „in den letzten 10.000 Jahren die Temperaturen über lange Zeiträume höher waren als heute. Die wärmste Phase fand vor 4.000 bis 8.000 Jahren statt und ist als holozänes Klimaoptimum oder atlantische Periode bekannt“.

So viel zu den Rekonstruktionen, und was ist mit den Beobachtungen seit 1979? Zunächst werden zahlreiche Probleme mit methodischen Auswirkungen festgestellt:

Im Laufe des 20. Jahrhunderts hat sich die Zusammensetzung des Messnetzes verändert… Viele der Landstationen sind im Laufe ihres Bestehens auch geografisch umgezogen, und ihre Instrumentierung hat sich geändert…

Auch die Temperaturaufzeichnungen per Satellit haben ihre Probleme, doch sind diese im Allgemeinen eher technischer Natur und daher korrigierbar. Hinzu kommt, dass die Temperaturerfassung durch die Satelliten weltweit regelmäßiger und vollständiger ist als die der Oberflächenaufzeichnungen.

Die verschiedenen Temperaturaufzeichnungen sind möglicherweise nicht von gleicher wissenschaftlicher Qualitätgroße administrative Änderungen…[und] der Grad der Unsicherheit (Messfehler) in diesen globalen Temperaturreihen hat sich im Laufe der Zeit verändert. Auch die Zahl der Wetterstationen und Meeresbeobachtungsstellen hat sich im Laufe der Zeit erhöht. Infolgedessen hat sich die Varianz der Messfehler wahrscheinlich im Laufe der Zeit verringert.

Unter Verweis auf Essex et al. (2006) stellen Dagsvik und Moen fest, dass „das gesamte Konzept der globalen Temperatur“ in Frage gestellt werden muss. Anders ausgedrückt: Es könnte sich herausstellen, dass es vielleicht besser als ein „soziales Konstrukt“ (oh, welche Ironie) zu bezeichnen wäre, da „jede beliebige Menge lokaler Temperaturmessungen, die über die ganze Welt verteilt sind, so interpretiert werden kann, dass es gleichzeitig eine „Erwärmung“ und eine „Abkühlung“ gibt, was den Begriff der globalen Erwärmung physikalisch unzulässig macht“.

Als Hauptquellen für diese Schwankungen werden die Sonne als Hauptenergiequelle und die Milankovitch-Zyklen für die Eiszeiten genannt (einschließlich der Achsenneigung der Erde, der Präzession und der elliptischen Umlaufbahn um die Sonne). Außerdem wird die Fähigkeit der Ozeane erwähnt, „enorme CO2-Kapazitäten zu speichern“ – ebenso wie das Henry’sche Gesetz über die proportionale Absorption von Flüssigkeiten (Ozean) und der Atmosphäre.

Dementsprechend ist eine Erklärung…, dass die Schwankungen der Speicherkapazität der Ozeane aufgrund von Temperaturschwankungen der dominierende Effekt sind.

Zusätzlich zu den jahreszeitlichen Schwankungen und den Gletscherperioden scheinen die beobachteten Temperaturen aus Gründen zu schwanken, die nur teilweise verstanden werden. Einige der Schwankungen sind auf Sonneneinstrahlung, Wolkenbildung und Treibhausgase (Wasserdampf, Argon, CO2, Aerosole, Methan, Distickstoffoxid und Ozon) zurückzuführen.

Im Klartext: Es könnten viele dieser Faktoren sein, sie könnten (teilweise) korreliert sein, oder etwas anderes, d.h. wir wissen es nicht wirklich. Die Rolle der Sonne ist entscheidend, insbesondere die so genannten großen Sonnenzyklen von 350-400 Jahren, aber es kann gut sein, dass auch andere Planeten in unserem Sonnensystem die Schwankungen auf der Erde beeinflussen, ebenso wie die Wolken (über die wir nicht viel, wenn überhaupt, wissen).

Das wichtigste Treibhausgas ist der Wasserdampf, der an jedem Ort und zu jeder Zeit stark schwankt. Etwa 66-85% des natürlichen Treibhauseffekts lassen sich auf Wasserdampf und kleine Tröpfchen in Wolken zurückführen. Das zweitwichtigste Treibhausgas ist CO2, das sich von Wasserdampf dadurch unterscheidet, dass seine Konzentration in der Atmosphäre überall auf der Erde ziemlich gleich ist. Die Menge an CO2 und anderen Gasen, die der Mensch in den letzten 250 Jahren in die Atmosphäre eingebracht hat, erhöht die Fähigkeit der Atmosphäre, die Ausbreitung von Wärme in den Weltraum zu verhindern.

Erwähnt werden auch die El-Nino/La-Nina-Zyklen und natürlich die übliche Ausweichmöglichkeit für alles, was wir nicht wissen, das „Chaos“ (Theorie).

Abschnitte 4 und 5: Globale Klimamodelle und ein nackter Kaiser (IPCC)

Das Hauptargument in diesen beiden Abschnitten ist, dass in Anlehnung an die Arbeiten von Judith Curry eine Reihe von stark formulierten Behauptungen aufgestellt werden:

Während einige der Beziehungen in GCMs auf gut etablierten Theorien aus der Physik beruhen, wie z.B. den Navier-Stokes-Gleichungen, gibt es Darstellungen, die nur Annäherungen sind und nicht auf physikalischen Gesetzen beruhen…Übliche Auflösungen für GCMs sind etwa 100-200km in horizontaler Richtung und etwa ein Kilometer in vertikaler Richtung mit einer zeitliche Komponente von etwa 30 Minuten. Aufgrund der relativ groben Auflösung der Modelle finden viele wichtige Prozesse innerhalb der durch die Modellauflösung bestimmten Zellen statt, wie z.B. Wolken und Niederschlag [oft eben von „höher“ als 1 km ausgehend, ganz zu schweigen von z. B. Meereis, Nebel und allem, was dazwischen liegt].

Beachten Sie kurz, dass die „Auflösung“ solcher GCMs mindestens einmal von der beobachteten Realität entfernt ist, da diese „Zellen“ von den Modellen bestimmt werden (die allerdings bereits „nur“ durch Messinstrumente, die ebenso im Lauf der Zeit Veränderungen unterliegen, gefüttert werden). Wenn Sie dachten, das wäre „schlecht“, dann warten Sie auf die Auflistung der Einschränkungen, u. a.

  1. Die Auswirkung zunehmender CO2-Emissionen auf das Klima kann auf Zeitskalen, die in der Größenordnung von weniger als oder gleich 100 Jahren liegen, nicht genau bewertet werden.
  2. Es mangelt an Kenntnissen über die Unsicherheit, die zum Teil auf die Wahl der Subskalenmodelle und die Parametrisierung und Kalibrierung dieser Modelle sowie auf unzureichende Daten zurückzuführen ist [ich habe die Diskussion über die Subskalenmodelle übersprungen].
  3. Einigen Bewertungen zufolge sind die GCMs nicht zuverlässig genug, um zwischen natürlichen und vom Menschen verursachten Ursachen für den Temperaturanstieg im 20. Jh. zu unterscheiden. Einige der Vorhersagen der GCMs sind mit Standardfehlern versehen, wie bei statistischen Analysen üblich. Da es sich bei den GCMs jedoch um deterministische Modelle handelt, kann man diese Standardfehler nicht auf dieselbe Weise interpretieren wie in der Statistik. [Abgesehen von Behauptungen wie „das ist durch die wissenschaftlichen Modelle bewiesen“ sind die Modelle ebenfalls deterministisch, d. h. sie projizieren ihre „Ergebnisse“ in der Zeit zurück; wäre dies ein historischer Text, würde ich dies als Anachronismus bezeichnen]
  4. GCMs werden in der Regel anhand der gleichen Beobachtungen bewertet, die zur Kalibrierung der Modellparameter verwendet werden. (Wer passt auf die Wächter auf? Ach ja, dieselben Kollegen, die die Studien überprüfen, in denen die Ergebnisse beschrieben werden – wie buchstabiert man „Interessenkonflikt“ in der Klimawissenschaft?]

Ich nehme an, ein weiteres langes Zitat von Dagsvik und Moen reicht aus, um diesen Abschnitt abzurunden:

In einem Artikel in Science schreibt Voosen (2016): Ob Klimawissenschaftler es nun zugeben wollen oder nicht, fast jedes Modell wurde genau auf die Klimadaten des 20. Jahrhunderts kalibriert – andernfalls wäre es im Müll gelandet.“ Leider sind Modelle, die aufgrund einer Kalibrierung mit den Daten des 20. Jahrhunderts übereinstimmen, von zweifelhafter Qualität, wenn es darum geht, die Ursachen für die Temperaturschwankungen im 20. Jh. zu ergründen.

Methodisch interessanter ist die anschließende Überprüfung der Genauigkeit dieser GCMs bei der Rekonstruktion vergangener Temperaturen, sog. „Hindcasts“:

Eine Schlüsselfrage ist daher, ob man den GCMs vertrauen kann, dass sie zuverlässige Vorhersagen liefern. Eine Möglichkeit, die Qualität der GCMs zu untersuchen, besteht darin, zu prüfen, ob die Temperaturvorhersagen (Hindcasts) der GCMs in der Lage sind, die globalen Temperaturzeitreihen zu verfolgen…

Vor Beenstock et al. (2016) wurde die Fähigkeit der GCMs, die globalen Temperaturreihen nachzuvollziehen, unseres Wissens nach keiner strengen empirischen Prüfung mit Hilfe fortgeschrittener statistischer Methoden wie Kointegrationstests unterzogen.

Lassen Sie das einen Moment auf sich wirken: Die gesamten Bemühungen unter Führung der UN seit den späten 1980er Jahren wurden bis 2016 ohne jegliche Prüfung der Modelle durchgeführt.

Beenstock et al. (2016) haben Daten…von 22 ausgewählten GCMs für den Zeitraum 1880-2010 verwendet, um zu testen, ob das Regressionsmodell…zu den Daten passt…[sie] fanden heraus, dass die statistischen Tests die Hypothese…zurückwiesen, was bedeutet, dass das oben postulierte Regressionsmodell nicht gilt. Mit anderen Worten bedeutet dies, dass der von den GCMs erzeugte Prozess nicht in der Lage ist, die globale Temperatur nachzuzeichnen.

McKitrick und Christy (2020) haben eine ähnliche Analyse für den Zeitraum 1979-2014 durchgeführt und festgestellt, dass die GCMs die globalen Temperaturen nach dem Jahr 2000 überprognostizieren…Fildes und Kourentzes (2011) haben das Tracking-Verhalten eines GCM mit einfachen Zeitreihen- und neuronalen Netzwerkmodellen verglichen und festgestellt, dass letztere trotz ihrer Einfachheit besser abschneiden als erstere [was ich noch erstaunlicher finde: einfache Überlegungen übertrumpfen teurere „Modelle“]…

Es ist theoretisch möglich, dass die GCMs in der Lage sind, die „wahre“ latente globale Temperaturreihe recht gut abzubilden, obwohl sie die entsprechende beobachtete (konstruierte) Reihe nicht abbilden. In jedem Fall sind die Analysen von Beenstock et al. (2016) und McKitrick und Christy (2020) erschreckend und lassen ernsthafte Zweifel an der Qualität der GCMs aufkommen, insbesondere daran, ob die CO2-Sensitivität korrekt ermittelt wurde.

In diesem Abschnitt begehen Dagsvik und Moen eine weitere, scheinbar ungeheuerliche Sünde: Sie kritisieren den IPCC lautstark und in aller Deutlichkeit:

In einer IPCC-Überprüfung wurde behauptet, dass „weiterhin ein sehr hohes Vertrauen besteht, dass die Modelle die beobachteten großräumigen mittleren Oberflächentemperaturmuster reproduzieren (Musterkorrelation ∼0,99)“ (IPCC, 2014, S. 743). Aber wie oben erörtert, bedeutet die bloße Tatsache, dass diese Korrelationen hoch sind, nicht unbedingt, dass die GCMs, die sie erzeugt haben, erfolgreich validiert wurden…Die oben zitierte Aussage des IPCC ist daher irreführend.

Oh, schau her, der Kaiser trägt gar keine Kleidung.

Daher die Gegenreaktion, auch wenn ich bezweifle, dass jemand, der so lautstark die Kreuzigung von Dagsvik und Moe fordert, das Papier tatsächlich gelesen hat. Behalten Sie diese Überlegung noch ein wenig im Hinterkopf.

Abschnitte 6 und 7: Re-Analyse und Bewertung des GCM

Was die Ziele betrifft, so sei noch einmal darauf hingewiesen, dass „die vorliegende Arbeit die Analyse von Dagsvik et al. (2020) erweitert, indem sie beobachtete Temperaturreihen bis 2021 für eine Reihe von Wetterstationen verwendet, im Gegensatz zu der Analyse von Dagsvik et al. (2020), die nur einige Temperaturreihen bis 2012 analysierten, während die meisten der in ihrer Analyse verwendeten Temperaturreihen zwischen 1980 und 2012 endeten“.

Während ich den streng methodischen Abschnitt 6 nicht wiedergeben werde (in dem Dagsvik und Moen erklären, wie sie versuchen, die GCM zu testen, befindet sich der scheinbar wichtigste Streitpunkt in der Studie in Abschnitt 7, in dem die Autoren ihre Ergebnisse beschreiben:

Da globale Temperaturkonstruktionen unterschiedliche Datenquellen zu unterschiedlichen Zeiträumen verwenden, ist es, wie oben erwähnt, problematisch, sie mit statistischen Zeitreihenmethoden zu analysieren, da sich ihre statistischen Eigenschaften im Laufe der Zeit auf bis anhin unbekannte Art und Weise verändern können. Betrachtet man insbesondere die HadCRUT3-Zeitreihen (Abbildung B1 in Anhang B), so zeigt sich, dass die Varianz der Temperaturen in den ersten 30 Jahren größer ist als in den darauf folgenden Jahren…die aggregierten Reihen erwiesen sich im Gegensatz zu den HadCRUT3-Reihen als stationär. Dies bedeutet, dass der Trend in den aggregierten Reihen unsystematisch (stochastisch) ist. Der Grund dafür, dass die HadCRUT3-Reihe nicht stationär ist, liegt möglicherweise nicht am zunehmenden Trend, sondern an der systematischen Veränderung des Variationsmusters im Laufe der Zeit (Varianz und Autokorrelation, in der Abbildung nicht sichtbar).

Was Dagsvik und Moen damit sagen wollen, ist Folgendes: Unabhängig von den Daten, die in das HadCRUT3-Modell einfließen, ist in einem der am häufigsten verwendeten globalen Temperaturmodelle kein klarer Trend zu erkennen.

Was die Temperaturrekonstruktionen auf der Grundlage grönländischer Eisbohrkerne betrifft, so haben Dagsvik und Moen im Wesentlichen dasselbe festgestellt: „Die aktuelle dekadische mittlere Schneetemperatur in Zentralgrönland hat den Rahmen der natürlichen Variabilität der letzten 4000 Jahre nicht überschritten„.

Wie buchstabiert man Stohmann-Argument in „der Klimaforschung™“?

Im Angesicht der vorgehenden Inhalte stellt sich Prof. Rahmstorfs Beitram im Spektrum der Wissenschaft sowohl als mehr oder minder kreative Wiederholung dessen hervor, woran sich die norwegischen Medien zwei Monate zuvor abgearbeitet hatten.

Davon abgesehen verweist Rahmstorf sogleich auf die korrekte „Haltung“, die man zu dieser Sache einnehmen muss, denn sonst…

Diesmal macht zum Beispiel ein “Diskussionspapier” die Runde, das von Statistics Norway veröffentlicht wurde. Es ist nicht deshalb bemerkenswert, weil es etwas Neues enthält (das tut es nicht), sondern weil es von einer Regierungsbehörde veröffentlicht wurde, obwohl es eindeutig gegen die etablierten Standards der guten wissenschaftlichen Praxis verstößt. Deshalb hat das Papier auch in nicht-wissenschaftlichen Kreisen, einschließlich der Unternehmenswelt, Wirkung gezeigt und wurde sogar diesen Monat in einer Stellungnahme zum Klimaschutzgesetz im Deutschen Bundestag zitiert (ja klar, von einem AfD-“Sachverständigen”) – Drucksache 20(25)513.

Ist man Leugner, verweigert sich der „guten wissenschaftlichen Praxis“ und ist AfD-Sympathisant.

Von den Inhalten einmal abgesehen, hier also die „Logik-Kette“ von Prof. Rahmstorf: Jemand (ein „Sachverständiger“) hat das Papier gelesen; dieser jemand wurde von einem Bundestagsabgeordneten (der AfD) in einer parlamentarischen Stellungnahme zitiert (der Horror!), und offenbar macht dieser „Umstand“ die Herren Dagsvik und Moen zu AfD-Sympathisanten.

Kontaktschuld des Lesers um gleich wie viele Ecken also.

Es folgen einige beispielhafte Aussagen von Prof. Rahmstorf zu dem o.a. Beitrag von Dagsvik und Moen. So hat Klimaforscher™ Rahmstorf den Text gelesen (hier und im Folgenden meine Hervorhebungen):

Die Flut von Irrtümern oder Täuschungen beginnt mit dem Titel des Papiers: “To what extent are temperature levels changing due to greenhouse gas emissions?” (“Inwieweit verändert sich das Temperaturniveau aufgrund von Treibhausgasemissionen?”) Doch die Wirkung von Treibhausgasen wird in dem Papier gar nicht untersucht – was darauf schließen lässt, dass der Titel politisch motiviert ist. Und das Papier ignoriert frühere Studien und grundlegende physikalische Erkenntnisse, verwendet zweifelhafte Quellen und kommt zu einem eklatanten Fehlschluss: Wenn die Erwärmung an einzelnen Wetterstationen theoretisch auch durch zufällige Wetterschwankungen erklärt werden könnte, dann habe CO2 keinen Einfluss.

Wenn Sie die obigen Passagen aus dem Papier von Dagsvik und Moen gelesen haben, so können Sie sehen, was Herr Rahmstorf hier betreibt: persönliche Attacken, Untergriffe und Behauptungen, die die Inhalte des Papiers von Dagsvik und Moen nicht einmal ansatzweise widerspiegeln und so kaum den „etablierten Standards der guten wissenschaftlichen Praxis“ folgen.

Das Papier enthält viel zu viele grobe wissenschaftliche Fehler und logische Irrtümer, um sie hier aufzulisten, aber lassen Sie mich auf einen davon eingehen: In dem Papier werden ständig lokale und globale Temperaturen miteinander verwechselt. Es führt einige statistische Analysen zu lokalen Temperaturveränderungen an einzelnen Wetterstationen durch und argumentiert, dass sie einzeln betrachtet auch zufällige Schwankungen sein könnten

Aber selbst wenn das wahr wäre, gilt das nicht für die globale Temperatur. In einem unveränderlichen Klima würden zufällige Wetterschwankungen zu einer Erwärmung in einigen Teilen der Welt und zu einer Abkühlung in anderen führen. Die Tatsache, dass alle Weltgegenden, mit sehr wenigen Ausnahmen, zur gleichen Zeit eine Erwärmung aufweisen, kann nicht durch zufällige interne Schwankungen erklärt werden.

Wenn Sie oben genau mitgelesen haben, ist dies nicht, was Dagsvik und Moen darlegen. Es ist auch nicht die Kernpassage des Papiers, die hier von Rahmstorf abschätzig mit einer – zugegeben flapsigen – Bemerkung („einige statistische Analysen zu lokalen Temperaturveränderungen an einzelnen Wetterstationen“) abgetan. Anstatt auf die methodisch-statistische Argumentation von Dagsvik und Moen einzugehen, erhält der Leser von Rahmstorf hingegen eine Moralpredigt:

Das ist nicht schwer zu verstehen. In einer Welt, in der es nur zufällige regionale Schwankungen, aber keinen Klimawandel gäbe, würde etwa die Hälfte der Wetterstationen eine (mehr oder weniger signifikante) Erwärmung und die andere Hälfte eine Abkühlung zeigen. Bei einer mäßigen globalen Erwärmung würden vielleicht 60 % eine Erwärmung und 40 % eine Abkühlung aufweisen. Bei einer starken globalen Erwärmung würden fast 100 % eine Erwärmung zeigen, und genau das ist auch der Fall. Das zeigt, dass die globale Erwärmung die natürlichen Temperaturschwankungen klar übertrumpft hat, und genau das wird durch das Papier von Statistics Norway daher erneut bestätigt. Die Autoren sehen buchstäblich den Wald vor lauter Bäumen nicht, wenn sie fälschlicherweise das Gegenteil behaupten…

Blinder Gebrauch von Statistik ohne Verständnis der Physik

Das vielleicht wichtigste Gesetz der Physik ist die Erhaltung der Energie, und die beobachtete Erwärmung der Erde erfordert einen enormen Energieaufwand, der nicht durch zufällige Wetterschwankungen erbracht werden kann. Aber selbst Erstsemester-Physik wird in dem Papier von Statistics Norway völlig ignoriert.

Jenseits der ad hominem-Attacken verweise ich erneut auf die zuvor – von den norwegischen „Leit- und Qualitätsmedien“ eindeutig zitierten Passagen der Forschungsdirektorin von SBB hin. Das aber kümmert Herrn Rahmstorf keineswegs:

Handelt es sich hier um schiere Inkompetenz oder sind es politische Motive?

Das Papier von Statistics Norway ignoriert also die Physik, interpretiert Statistiken falsch und geht sehr selektiv mit Daten um – aber ist das nur reine Inkompetenz oder ist es politisch motiviert? Abgesehen vom Titel gibt es viele verräterische Anzeichen, die stark auf Letzteres hindeuten…

In dem Papier wird nur ein einziger Temperaturdatensatz analysiert, der tatsächlich global ist: die HadCRUT3-Daten, eine der bewährten globalen Temperaturreihen. Seltsamerweise enden die gezeigten Daten im Dezember 2010, und das Diagramm wurde von derselben Klimaskeptiker-Website kopiert, anstatt die aktuellen HadCRUT5-Daten zu verwenden, die eine bessere globale Abdeckung haben und von der Originalquelle problemlos verfügbar sind (Google findet sie sekundenschnell).

Aber egal: für diesen Datensatz hat sogar ihre Methode “ergeben, dass die HadCRUT3-Zeitreihe bei weitem nicht stationär ist”. Das eigentliche Ergebnis ihrer statistischen Analyse ist also: Die globale Temperatur zeigt den Klimawandel! Sie fragen sich sogar, warum das so ist, obwohl ihr selbstgebasteltes Aggregat aus einer kleinen Anzahl von Wetterstationen das nicht belegt, obwohl es einen ähnlichen Trend aufweist. Sie scheinen nicht zu verstehen, dass das Signal-Rausch-Verhältnis eine Rolle spielt, das umso schlechter ist, je weniger Daten man verwendet (sie verwenden magere 74 Stationen und ignorieren völlig die 71 Prozent der Erde, die von Meeren bedeckt sind).

An dieser Stelle erlaube ich mir lediglich den Verweis bzw. das Zitieren einer weiteren Passage:

Es ist mehr als nur peinlich, dass das norwegische Statistikamt diesen Unsinn veröffentlicht hat. Es ist ein Skandal. Hoffen wir, dass es sich nicht um eine politische Entscheidung dieser Institution handelt, sondern einfach um einen schlimmen Fehler. Wenn sie ihren Ruf und ihre Glaubwürdigkeit retten wollen, sollten sie den Bericht sofort zurückziehen und eine angemessene Erklärung über die echten wissenschaftlichen Erkenntnisse zur globalen Erwärmung veröffentlichen.

Was aber sind die Schlussfolgerungen von Dagsvik und Moen?

An dieser Stelle und insbesondere angesichts der Medienberichterstattung und der Anfang Oktober bereits angekündigten Reaktion von SSB (über die Herr Rahmstorf offenkundig nicht Bescheid weiß) lohnt es sich, noch einmal längere Passagen zu zitieren:

Wir haben Daten über das Klima und die Temperaturen in der Vergangenheit geprüft und festgestellt, dass es große (nicht-stationäre) Temperaturschwankungen gab, die auf natürliche Ursachen zurückzuführen sind.

Anschließend haben wir neuere Arbeiten zu statistischen Analysen über die Fähigkeit der GCMs, historische Temperaturdaten zu verfolgen, zusammengefasst. Diese Studien…lassen ernsthafte Zweifel daran aufkommen, ob die GCMs in der Lage sind, natürliche Temperaturschwankungen von Schwankungen zu unterscheiden, die durch vom Menschen verursachte CO2-Emissionen verursacht werden…

Trotz langer Trends und Zyklen in diesen Temperaturreihen…deuten die Ergebnisse darauf hin, dass der Effekt der vom Menschen verursachten CO2-Emissionen nicht stark genug zu sein scheint, um systematische Veränderungen im Muster der Temperaturschwankungen zu verursachen. Mit anderen Worten, unsere Analyse zeigt, dass es mit dem derzeitigen Wissensstand unmöglich zu sein scheint, zu bestimmen, wie viel des Temperaturanstiegs auf die CO2-Emissionen zurückzuführen ist.

Haben Sie in den ausgewiesenen Passagen bzw. dem Beitrag von Herrn Rahmstorf etwas darüber gelesen, was Rückschlüsse zulässt, ob er das Papier von Dagsvik und Moen überhaupt gelesen hat? Klar, er verweist immer wieder darauf, aber die essentielle Kritik von Beenstock et al. (2016) und McKitrick und Christy (2020) wird von Rahmstorf nicht aufgegriffen, ebensowenig wie die Kritik der beiden Statistiker an den Globalen Klimamodellen.

Zu den Implikationen der Studie

Verstehen Sie mich nicht falsch, liebe Leserinnen und Leser, als Vater von zwei Grundschülern ist es in meinem ureigenen Interesse, dass wir unseren Nachkommen eine lebenswertes Erde überlassen. Das ist übrigens auch die Kernbotschaft von Dagsvik und Moen, die die obige Studie immerhin im Ruhestand durchgeführt haben und sie vielleicht sogar als öffentlichen Dienst zum Wohle der Menschheit verstanden haben.

Auch aus wissenschaftlicher Sicht weisen sie auf einen wichtigen Punkt hin, nämlich auf die derzeit verwendeten Modelle, ihre möglichen Fehler und Verzerrungen, und rufen diejenigen auf den Plan, die trotz dieser Tatsachen mit vermeintlichen Gewissheiten hausieren gehen.

Alles in allem bringen Dagsvik und Moen eine Reihe stichhaltiger Argumente vor, die im Idealfall nicht zensiert und ins Lächerliche gezogen werden sollten, geschweige denn zu Änderungen in einer öffentlich finanzierten Institution wie dem norwegischen Statens Statistisk Sentralbyrå führen. Und das bedeutet, dass wir auch über den Rest des eingangs zitierten Artikels in Aftenposten sprechen müssen, denn hier ist, was Stine Barstad aus dem Artikel mitgenommen hat (wohlgemerkt erst nach der zoberst ausgeführten Meinungsmache):

[Dagsvik und Moen] stellen fest, dass die Temperaturveränderungen, die hier in den letzten 150-200 Jahren beobachtet wurden, sich nicht statistisch signifikant von den in der Vergangenheit beobachteten Schwankungen unterscheiden.

Daher könne die Hypothese, dass die derzeitige Erwärmung nur auf natürliche Schwankungen zurückzuführen ist, nicht verworfen werden.

In dem Artikel werden einzelne Studien hervorgehoben, die auf Schwachstellen bei den Temperaturmessungen und den verwendeten Klimamodellen hinweisen. Dazu gehören statistische Tests, die zu dem Schluss kommen, dass die Klimamodelle nicht in der Lage sind, natürliche Klimaschwankungen von solchen zu unterscheiden, die durch CO2-Emissionen verursacht werden.

Daraus folgern sie:

Mit anderen Worten: Unsere Analyse zeigt, dass es mit dem derzeitigen Wissensstand unmöglich zu sein scheint, zu bestimmen, wie viel des Temperaturanstiegs auf CO2-Emissionen zurückzuführen ist.

So weit, so richtig, oder? Das Problem – man beachte wieder die redaktionelle Schräglage – liegt im darauf folgenden Absatz:

Sie machen jedoch auch einen kleinen Vorbehalt, dass die Temperaturreihen, die beispielsweise mit Modellen gekoppelt sind, die auf geophysikalischen Prozessen beruhen, ein anderes Bild ergeben können. Sie schließen also nicht aus, dass eine systematische Temperaturverschiebung im Gange sein könnte – auch wenn sie von ihren statistischen Analysen nicht erfasst wird.

Oder die Modelle, die sie analysiert haben; man beachte den Taschenspielertrick von Frau Barstad: Sie bläst einen kleinen Vorbehalt von zwei erfahrenen Autoren auf, um daraus zu schließen, dass die statistische Analyse, die sie durchgeführt haben, etwas Wichtiges übersehen haben könnte. Damit lenkt sie die Leser einfach von den oben genannten wichtigen Erkenntnissen ab, z.B. dass es vor 2016 keine Überprüfung der globalen Klimamodelle gab, worin sich der Aftenposten-Beitrag übrigens nicht von der Wortspende von Herrn Rahmstorf im Spektrum der Wissenschaft unterscheidet.

Hier ist, wie Frau Barstad es darstellt:

Große Schlussfolgerungen, kleine Basis

„Wir glauben, dass es bei 95 sehr langen Zeitreihen seltsam wäre, keinen systematischen Trend feststellen zu können, wenn die CO₂-Emissionen irgendeine Wirkung haben“, so Dagsvik gegenüber Aftenposten.

Das klingt logisch. Warum haben sie es dann so schwer?

„Sie haben sich in ein großes, kompliziertes System eingearbeitet, einen kleinen Teil davon untersucht und auf der Grundlage dieses kleinen Teils eine Schlussfolgerung gezogen. Aber ihre Schlussfolgerungen stehen in keinem Verhältnis zu der durchgeführten Analyse“, sagt der Klimaforscher Helge Drange vom Bjerknes Centre.

Sowohl er als auch Samset weisen darauf hin, dass die Forscher alle anderen Untersuchungen, die die physikalischen, statistischen und wissenschaftlichen Zusammenhänge zwischen den Treibhausgasemissionen und dem Temperaturanstieg belegen, anscheinend völlig außer Acht lassen. Dies ist im jüngsten Klimabericht der UNO zusammengefasst.

Übersehen des wichtigsten Wärmespeichers

Darüber hinaus weisen sie auf einen entscheidenden Mangel in der Analyse hin, der die Autoren buchstäblich überfordert: die Ozeane.

Auch der Aftenposten-Beitrag, wiewohl deutlich ausgewogener als derjenige von Rahmstorf, kommt ohne Untergriffe nicht aus: Diese „Lücke“ wurde auf S. 11-2 des Papiers unter Bezugnahme auf das Henry’sche Gesetz ausdrücklich erwähnt; Dagsvik und Moen dafür anzuprangern – vor allem in einer ziemlich unhöflichen Sprache – ist in Bezug auf Verzerrungen m.E. klar: entlarvend.

Die globale Erwärmung findet statt, weil mehr Energie auf dem Planeten gespeichert wird. Etwa 90 % dieser Energie ist in den Ozeanen gespeichert. Aber die Wissenschaftler haben nur Messungen der Oberflächentemperatur analysiert [was auch Dagsvik und Moen analysiert haben; außerdem: Woher kommt die Energie?]

Ein kürzlich veröffentlichter Artikel zeigt, wie sich die zusätzliche Wärme auf dem Planeten in den letzten 60 Jahren verteilt hat [aus urheberrechtlichen Gründen reproduziere ich diese Abb. hier nicht; klicken Sie hier oder hier, um diese anzusehen; die Grafik zeigt die relative Verteilung der Hitze im Erdsystem]

Die rote Farbe am unteren Rand entspricht der erhöhten Wärme in der Atmosphäre aufgrund der gestiegenen Lufttemperatur. Der SSB-Artikel analysiert Teile davon.

Der graue Bereich zeigt die erhöhte Wärme im Grundgestein und im Boden sowie die Wärme, die zum Schmelzen von Gletschern und Eiskappen wie in Grönland und der Antarktis verwendet wurde.

Das blaue Feld zeigt die erhöhte Wärme im Ozean. [Dies ist der mit Abstand größte Anteil.]

„Sie zeigt, dass es einen sehr starken Anstieg der Wärme im globalen Klimasystem gibt. Allein aufgrund dieser Tatsache würde ich die Studie sofort falsifizieren“, sagt Drange.

Dagsvik bestätigt, dass sie die Temperaturdaten aus dem Ozean nicht analysiert haben, weil die älteren Messungen seiner Meinung nach zu schwach sind. Er sagt, dies sei sicherlich ein „berechtigter Einwand“.

Man könnte natürlich sagen, dass die Analyse eine Schwäche hat und dass der Ozean eine wichtige Funktion hat“, sagt er gegenüber Aftenposten.

Der Zweck der Studie sei es, hervorzuheben, dass die Beziehung zwischen Temperatur und Treibhausgasemissionen mit größerer Unsicherheit behaftet sei, als es den Anschein habe.

Wir sollten vorsichtig sein

Sind Sie der Meinung, dass wir uns nicht um eine Verringerung der Emissionen bemühen sollten, weil der Zusammenhang nicht sicher genug ist?

„Nein, angesichts der großen Unsicherheit würde ich sagen, dass es klug ist, das Vorsorgeprinzip zu berücksichtigen. Viele Klimaskeptiker sind wahrscheinlich anderer Meinung“, sagt [Dagsvik].

Mitautor Moen erklärt gegenüber Dagbladet, dass die beiden hart gearbeitet haben, um gehört zu werden, und dass es ein „Geschenk des Himmels“ war, dass SSB zugestimmt hat, den Artikel zu veröffentlichen. Den beiden war zuvor die Veröffentlichung in der Forschungsreihe vom Statistiks Sentralbyrå verweigert worden, weil sie über Themen außerhalb ihres eigenen Fachgebiets schreiben.

Wir halten also fest: Wer außerhalb seiner Stammdisziplin „wildert“, darf keine Plattform bekommen. Wenn Sie sich nun fragen, wieso z.B. der bei Cicero arbeitende Kernphysiker dies darf, können wir gerne separat darüber befinden…Stefan Rahmstorf hat übrigens auch Physik und Ozeanographie studiert, weswegen zumindest ich mich wundere, warum sein Spektrum-Beitrag just den Kern des Papiers von Dagsvik und Moen in einem Halbsatz abfertigt…Zurück zu Aftenposten:

Und es ist unwahrscheinlich, dass sie noch einmal die Gelegenheit dazu bekommen werden. Das norwegische Statistikamt verschärft nun seine Maßnahmen:

„Wir haben unsere Richtlinien dahingehend überarbeitet, dass wir nur noch Arbeitspapiere zu Forschungsprojekten von SSB veröffentlichen dürfen“, sagt Forschungsdirektorin Linda Nøstbakken.

Sie sagt, dies geschehe, um sicherzustellen, dass SSB über das nötige Fachwissen verfügt, um gute Kommentare und Beiträge zu liefern und die Qualität der Arbeit zu sichern. „Die Leitlinien wurden jedoch geändert, nachdem der Artikel eingereicht worden war. Es ist nicht sicher, dass der Artikel nach den aktuellen Richtlinien angenommen worden wäre“, sagt sie.

Oh, sehen Sie mal: die „Forderung“ von Herrn Rahmstorf entspricht genau dem Vorgehen von SSB, über das Aftenposten Anfang Oktober – wir halten fest, dass Rahmstorfs Verriss am 30. Nov. 2023 erschien – berichtet hat. Der Rest des Aftenposten-Beitrags ist übrigens trotz der Überlänge dieses Artikels Ihre Aufmerksamkeit wert:

Muss präziser sein

[Nøstbakken] sagt, Dagsvik habe gute Kenntnisse in Statistik, aber nicht in der Klimamodellierung. [was ist eigentlich Stefan Rahmstorfs Kompetenzniveau in Statistik? Frage für einen Freund…]

Der Kommunikationsdirektor Hege Tunes sagt, dass das norwegische Statistikamt nun Anstrengungen unternommen hat, um die Forschungsnotizen deutlicher von den Statistiken zu trennen.

Professorale Wut, Amtliche Ausgewogenheit

Abrundend die letzten beiden Absätze aus dem oben verlinkten Aftenposten-Beitrag:

Was sagen Sie den Kritikern, die glauben, dass Sie Ihre Glaubwürdigkeit an Forschungen abgeben, die nicht den Tatsachen entsprechen?

[SSB-Forschungsdirektorin Nøstbakken] „Es wäre völlig falsch, wenn wir ein Arbeitspapier nicht veröffentlichen würden, weil seine Schlussfolgerungen umstritten oder unpopulär sind. Dies ist eine Frage der Meinungsfreiheit, und ich bin froh, dass andere sich in die Diskussion einschalten und auf professioneller Basis darüber debattieren. Es ist wichtig, dass die Forscher auf diese Weise Anregungen erhalten. Aber wir müssen als Absender klar sein und sie kennzeichnen, damit die Nutzer verstehen, worum es sich handelt. Das ist eine Verantwortung, die wir haben“, fügt sie hinzu.

Zur Bedeutung dieses Sturms im Wasserglas (von Prof. Rahmstorf)

Dieser Beitrag ist bereits zu lang geworden, dennoch seien die folgenden Punkte angeführt:

Erstens: Die „wissenschaftliche Revolution“ ist vorbei. Seit etwa der Mitte des 17. Jahrhunderts hatte sie einen guten Lauf, aber gegen Ende des 20. Jh. haben die „Torwächter“ offenbar gewonnen.

Während der „wissenschaftlichen Revolution“ brauchte man nur eine klar beschriebene Methode, die es anderen ermöglichte, die Ergebnisse zu wiederholen – und voilà. So funktionierte die Wissenschaft früher, aber dies beschreibt auch, wie „die Wissenschaft™“ heute funktioniert.

Ähnlich wie im Fall von Skrable et al. (2020), die ähnliche Ergebnisse wie Dagsvik und Moen vorlegten, den ich vor nicht allzu langer Zeit ausführlich erörtert habe, lautet das Argument nun: Wir werden „abtrünnige Wissenschaftler“, die „außerhalb ihres Fachgebiets arbeiten“, nicht länger für ihre Standpunkte schätzen; vielmehr wird kritisches, disziplinübergreifendes Denken nun zensiert.

Die Ergebnisse von Dagsvik und Moen unterstreichen übrigens das Argument von Skrable et al.: Der Einfluss der Menschheit in Form der reinen Emissionsmengen scheint nicht auszureichen, um das Klimasystem der Erde sinnvoll – in den Worten von Dagsvik und Moen: „systematisch“ – zu verändern.

Oh, damit ich nicht vergesse, dass die Frage der „Torwächter“ in der Wissenschaft, in den „Leit- und Qualitätsmedien“ und in internationalen Institutionen wie der UNO und dem IPCC von größter Bedeutung ist.

Vor der „wissenschaftlichen Revolution“ beanspruchten die verschiedenen christlichen Konfessionen das universelle und ausschließliche Recht, „dem Pöbel“ etwas zu erklären. Als dies durch den Empirismus und die Verbreitung der wissenschaftlichen Methode überwunden wurde, änderte sich vieles.

Möglicherweise bewegen wir uns aber in der Zeit zurück, zumindest was die Versuche der „Torwächter“ angeht, abweichende Meinungen in Schach zu halten. Thomas Kuhn schrieb darüber in seinem Klassiker Die Struktur wissenschaftlicher Revolutionen (1961), und was wir hier erleben – wie auch das modRNA-Debakel – ist ein weiteres Beispiel für den nächsten Paradigmenwechsel.

In der Geschichte gibt es viele Beispiele für die endgültige Vergeblichkeit dieser Versuche, daher Hut ab vor Ihnen, Herr Dagsvik und Herr Moen, dass Sie sich getrauen, sich ihres Verstandes zu benutzen.

Bild Eric Fisk, Physical Drivers of climate change, CC BY-SA 4.0

Unsere Arbeit ist spendenfinanziert – wir bitten um Unterstützung.

Folge uns auf Telegram und GETTR


Zwei Drittel wissenschaftlicher Arbeiten lehnen menschengemachten Beitrag zum Klimawandel ab

Bill Gates gibt zu: Angstpropaganda über Klimawandel funktioniert nicht mehr

10 Kommentare

  1. lbrecht torz 8. Dezember 2023 at 11:31Antworten

    „unsere Analyse zeigt, dass es mit dem derzeitigen Wissensstand unmöglich zu sein scheint, zu bestimmen, wie viel des Temperaturanstiegs auf die CO2-Emissionen zurückzuführen ist.“

    Erinnert mich an den Vorgang der „Heiligsprechung“ Einsteins durch Eddington der angeblich durch Messungen von Sternpositionen bei Sonnenfinsternis Einsteins Voraussagen bestätigt hätte – NUR, und das wird bis heute weiträumig unterschlagen – WAREN EDINGTONS MESSUNGNE NACHQWEISLICH NICHTGENAU GENUG, um Einsteins Voraussagen verifizieren oder falsifizierern zu können. Die Messungen auf den Photoplatten waren zu ungenau, es gab viel zu wenig verwertbare Aufnahmen.

    Dennoch tönte die damalige „Weltpresse“ – und auch heute noch wird entsprechend gelogen – dass Einstein durch Eddington fulminant bestätigt worden wäre – und so begann der Weltruhm und der Star-Rummel um Einstein und der Siegeszug seiner Relativitätstheorien.

    ()https://www.mpg.de/9236014/eddington-sonnenfinsternis-1919 (man beachte: keinen Hinweis auf die Anzahl der Photoplatten/Anzahl der „Samples“ und keine Diskussion über andere Möglichkeiten der Lichtablenkung an der Sonne, etwa durch optische Effekte der Sonnen-Corona durch die ja das Licht laufen muss)

    Es wird dem Zeitgeist entsprechend einfach für wahr erklärt, was für wahr gehalten werden soll. Das war damals mit der Lichtablenkung so, die Umwälzung aller Physik durch die Relativitätstheorien entsprach einfach dem Zeitgeist, dem Wunsch aus der Enge und dem Mief der Zeit und der vorigen Jahrhunderte zu entkommen, dem Wunsch nach Futurismus, Umwälzung, Revolution, radikale Neuerung, Erneuerung – und ist heute noch damit so und wird jetzt mit dem „Klima-Einfluss des Menschens“ gemacht, oder mit Virengefahr, …

    … und in hundert Jahren, wenn sich zwischendurch nicht wesentlich die Machtstrukturen ändern, wird auch weiter behauptet werden, dass man doch schon Anfang der 2000er-Jahren eindeutig gezeigt hätte, dass der Mensch das Klima blablabla – obwohl es eben nicht eindeutig gezeigt wird sondern nur irgendwelche Modelle so etwas VIELLEICHT zeigen könnten, und es wird weiter behauptet werden, dass Einstein doch schon um 1920 fulminant bestätigt worden wäre. Und dass 2020 eine grausame Seuche weltweit gewütet hätte, und dass Russland die Ukraine völlig unmotiviert überfallen hätte und die Hamas Israel brutal überwältigt hätte …

    Die Geschichte schreiben die Sieger, und wenn sich nicht etwas einschneidend ändert, bleiben es die selben unwahrhaftigen, ehrlosen, moralbefreiten Leute wie bisher.

    Damit will ich jetzt keine Mutlosigkeit schüren sondern ganz im Gegenteil: wir müssen für unsere Zukunft und für unsere Kinder uns aktiv einsetzen, einmischen, beteiligen, Stellung beziehen, sonst …

  2. lbrecht torz 8. Dezember 2023 at 10:54Antworten

    Hier kann man Parallelen der „Klimatologie“ zur Virologie beobachten:

    man blase eine „Wissenschaft“ auf, die kein scharf definierbares Untersuchungsobjekt hat (die Rolle und Bedeutung der Viren ist entgegen aller Beteuerungen immer noch unklar, die Beobachtungsmöglichkeiten insbesondere derer Interaktionen mit Zellen sind gering und weit auslegbar da E-Mikroskop-Aufnahmen eine unüberschaubare Auswahl an unterschiedlich interpretierbaren „Szenen“ liefern, …, andererseits ist „Klima“ ein Konstrukt, das durch dessen Definition bestimmt wird, nicht durch konkrete, greifbare Ausprägungen, …)

    Unter diesen Grundvoraussetzungen müssen lang akademisch ausgebildete, hochmotivierte, Karriere- und Prestige-bewusste „Wissenschaftler“ „ihrer Wissenschaft“ eine Bedeutung beilegen und vor allem eine scheinbare Wichtigkeit erzeugen, um den Geldfluss in ihren Forschungsbereich zu „optimieren“.

    Wenn man beobachtet hat oder weiß, wie heutzutage „Wissenschaft und Forschung“ sich im Wesentlichen darauf konzentriert, wie, von wo und mit was am besten und am meisten Drittmittel eingeworben werden, und die eigentliche „wissenschaftliche Arbeit“ sich darauf beschränkt, langweilige Routinearbeiten durchzuführen um halbgare „Papers“ auszustoßen, mit dem Fokus, darauf aufbauend die Chancen für zukünftige weiter Drittmitteleinwerbung zu erhöhen, kann man sich Atmosphäre in Beliebigkeitswissenschaften wie Virologie oder Klimatologie vorstellen.

    Nicht nur in der Physik hat es seit Jahrzehnten keine nennenswerten Fortschritte und Entdeckungen mehr gegeben wie zB auch eine Dr. Sabine Hossenfelder (zB in „Lost in Math“) beklagt(e).

  3. solvis 8. Dezember 2023 at 9:22Antworten

    Ein Mann auf seinem Kreuzzug.
    Schon 2007 ging Prof. Rahmsdorf aggressiv gegen Journalisten vor.

    https://www.spiegel.de/wissenschaft/natur/streit-mit-skeptikern-die-rabiaten-methoden-des-klimaforschers-rahmstorf-a-505095.html

  4. Dirk Freyling 7. Dezember 2023 at 23:09Antworten

    Stefan Rahmstorf betreibt neben seiner persönlichen Webseite beim Potsdam-Institut für Klimafolgenerforschung und in Zusammenarbeit mit anderen Klimaforschern die Gemeinschaftswebseite RealClimate auch den Blog Klimalounge auf Scilogs. Scilogs ist sozusagen die Blog-Erweiterung von Spektrum der Wissenschaft online. Rahmstorf veröffentlicht kritische Kommentare zu seinen Artikeln teils gar nicht, oder bedient sich nachträglich der methodischen Informationskontrolle, siehe http://www.kinkynature.com/ektheorie/stefanrahmstorf%20meinungskontrolle.htm

  5. Georg Uttenthaler 7. Dezember 2023 at 20:01Antworten

    Der Weltklimarat IPCC schreibt im Third Assessment Report 2001, folgendes „In der Klimaforschung und -modellierung müssen wir erkennen, daß wir es mit einem chaotischen System zu tun haben, und daß daher eine langfristige Vorhersage zukünftiger Klimazustände nicht möglich ist. Das ist jener politische Verein, der die Grundlage des „menschengemachten Klimawandels“ mit windigen Argumenten erzeugt hat.
    Umweltschutz wäre wichtiger, um den Dreck, den wir Menschen erzeugen, in den Griff zu bekommen..!
    Denn 330 Kreuzfahrtschiffe erzeugen nachweislich mehr Luft- Verschmutzung mit Schweröl als sämtliche Verbrennermotoren weltweit!!! Umwelt-verschmutzung allerdings macht der Mensch selber, hier muss die Politik Rahmen setzen.

    Das Klima braucht keinen Schutz: Denn es ist vom Menschen nicht veränderbar! Seit der Evolution gab es immer schon Warm- und Kaltzeiten. „Der Menschen gemachte Klimawandel“ ist die größte Lüge seit Menschengedenken! und Prof. Rahmsdorf läßt sich an vorderster Front einspannen. WARUM? Dreimal dürfen Sie raten…!

    Man hat aus dem nicht vorhandenen Klimawandel eine Religion „LIZENZ ZUM GELDDRUCKEN“ geschaffen, um dem Bürger zu schaden. Die Finanz- Spekulanten haben sich dieser Pseudo-Wissenschaft namens Klimakatastrophe bemächtigt, um mit dem CO²-Zertifikatenhandel tausende Milliarden Euro in die Taschen unersättlicher Spekulanten und den Staatskassen zu spülen und wir Bürger zahlen die Zeche mit überhöhten Energiepreisen!.

  6. Rumpelstilz 7. Dezember 2023 at 18:00Antworten

    „Das vielleicht wichtigste Gesetz der Physik ist die Erhaltung der Energie, und die beobachtete Erwärmung der Erde erfordert einen enormen Energieaufwand“

    Seit wann kann ein inertes Gas wie CO2 Energie aufwenden? Das kann höchstens die Abgabe an den Weltraum bremsen (oder ggf. andersherum die Einstrahlung auf die Erdoberfläche, wenn es denn so wäre).

    Die Energie ‚aufwenden‘ tut mehr oder wenige die Sonne – ist dem Professor da etwa ein Freud’scher rausgerutscht?

    • Claudio 8. Dezember 2023 at 7:47Antworten

      Vermutlich hat er das Paper nur überflogen, sonst wäre ihm aufgefallen, dass die Autoren sogar darauf eingegangen sind:

      „Dementsprechend ist eine Erklärung…, dass die Schwankungen der Speicherkapazität der Ozeane aufgrund von Temperaturschwankungen der dominierende Effekt sind.

      Zusätzlich zu den jahreszeitlichen Schwankungen und den Gletscherperioden scheinen die beobachteten Temperaturen aus Gründen zu schwanken, die nur teilweise verstanden werden. Einige der Schwankungen sind auf Sonneneinstrahlung , Wolkenbildung und Treibhausgase (Wasserdampf, Argon, CO2, Aerosole, Methan, Distickstoffoxid und Ozon) zurückzuführen.“

  7. palman 7. Dezember 2023 at 17:20Antworten

    . . . und der ganze „CO2“-KLAMAUK hatte sich bereits nach „9/11“ (Sept. „2001“- Vier Tage Flug-Verbote – USA) durch TRAVIS et al. „erledigt“ !?! – > „Contrails reduce daily temperature range“ < war der Titel in NATURE (08/08/2002) und brachte eine DTR von EIN bis fast ZWEI Grad zu Tage !!! – dazu nochmals die Studier-Tipps: – > „Contrails – A Forcing To Be Reckoned With“ < (04/22 m. dt. Post v. Mir) auf „greenhousedefect.com“ sowie auf „YouTube“ > „AGU – Fall Meeting 2015 – Press. Conf. – Accidental Geo-Engineering“ < mit Ch. Long (NOAA) und M. Wild (ETH Zürich) ;-)

  8. Andreas Müller 7. Dezember 2023 at 13:57Antworten

    Rahmstorf ist ein Spezialist für Ad-Hominem-Argumente. Nichts macht er lieber, als aus eine Debatte über Fakten auszubüchsen, indem er einen zitierten Kritiker als ‚Leugner‘, ‚isoliert‘ oder ähnlich tituliert. Am anschaulichsten lässt sich das in der Meeresspiegel-Thematik nachvollziehen, wo die Messungen ja nicht allzu schwer zu verstehen sind. Der eine Kritiker ist gar kein „Meeresspiegelspezialist“, der andere Meeresspiegelspezialist ist dummerweise zuviel, nämlich auch noch „Wünschelrutengänger“.
    Und das alles bespricht er am lässigsten und überlegensten in seiner ‚Klimalounge‘:
    https://scilogs.spektrum.de/klimalounge/von-inseln-stuermen-steigendem-meeresspiegel-und-klimaleugnern/#comment-81615

  9. Hasdrubal 7. Dezember 2023 at 12:04Antworten

    @„Die Ergebnisse deuten darauf hin, dass der Effekt der vom Menschen verursachten CO2-Emissionen nicht stark genug zu sein scheint, um systematische Veränderungen im Muster der Temperaturschwankungen zu verursachen.“

    So ist es – dennoch würden Manche bereits CO2 rationieren und Manche endlose Gerechtigkeitsdebatten zu diesen Rationierungen führen. Wieso nicht auch welche über die Gerechtigkeit bei Abgaben, mit den Voodoo-Sprüche gegen Aliens finanziert werden sollen? Wenn man es intensiv genug breitwälzt, könnte man vergessen, dass es gar keine Aliens gibt – was im Wertewesten kein Grund sein kann, Abzocke zu unterlassen.

    Wir brauchen mehr nichtwestliche Politiker, die wie der VAE-Scheich Tacheles reden.

Regeln für Kommentare: Bitte bleibt respektvoll - keine Diffamierungen oder persönliche Angriffe. Keine Video-Links. Manche Kommentare werden erst nach Prüfung freigegeben, was gelegentlich länger dauern kann.

Aktuelle Beiträge