StartWissenschaftSpezialist für Computermodelle: "Klimamodelle können niemals funktionieren."

Spezialist für Computermodelle: „Klimamodelle können niemals funktionieren.“

Wenn man kein Modell erstellen kann, um das Ergebnis der nächsten Ziehung einer Lottokugel vorherzusagen, kann man auch kein Modell erstellen, um die Zukunft des Klimas vorherzusagen, meint der ehemalige Spezialist für Computermodelle Greg Chapman in einem kürzlich in Quadrant erschienenen Aufsatz.

Von Chris Morrison

Chapman ist promovierter Physiker und stellt fest, dass das Klimasystem chaotisch ist, was bedeutet, dass „jedes Modell die Zukunft schlecht vorhersagen kann“. Eine Lotteriekugelmaschine, so stellt er fest, ist ein vergleichsweise viel einfacheres und kleineres interagierendes System“.

Die meisten Klimamodelle laufen heiß, ein höflicher Ausdruck für endlos fehlgeschlagene Vorhersagen einer galoppierenden globalen Erwärmung. Wäre dies ein „echter wissenschaftlicher Prozess“, so Chapman, würden die heißesten zwei Drittel der Modelle vom Internationalen Ausschuss für Klimaänderungen (IPCC) abgelehnt werden. Wenn das geschähe, so Chapman weiter, gäbe es in der Gemeinschaft der Klimawissenschaftler Empörung, insbesondere bei den abgelehnten Teams, „weil sie dann ihre Finanzierung verlieren würden“.

Noch wichtiger sei, dass sich der so genannte 97 Prozent-Konsens sofort in Luft auflösen würde“. Sobald die heißesten Modelle abgelehnt würden, läge der Temperaturanstieg bis 2100 bei 1,5°C seit der vorindustriellen Zeit, was hauptsächlich auf die natürliche Erwärmung zurückzuführen sei. Es gäbe keine Panik mehr, und der „Gravy Train“ wäre zu Ende“, sagte er.

Während die COP27 in ihre zweite Woche geht, wird die Hysterie auf Roger-Hallam-Niveau – das die Intelligenz beleidigende Narrativ vom „Highway to Hell“ – weiter hochgefahren. Hinter all diesen Behauptungen steht immer ein Klimamodell oder eine korrupte, angepasste Oberflächentemperaturdatenbank. In einem kürzlich ebenfalls in Quadrant veröffentlichten Essay stellt der Geologe Professor Ian Plimer fest, dass die COP27 „die größte politische Katastrophe unseres Lebens“ ist. In einem scharfen Angriff auf den Klima-Extremismus schreibt er:

„Wir ernten die Früchte von 50 Jahren Verdummung im Bildungswesen, politisierter schlechter Wissenschaft, eines grünen öffentlichen Dienstes, der Manipulation der primären Temperaturdaten und der Ablehnung des gesunden Menschenverstands als rechtsextreme Politik. Die Mainstream-Medien haben bewusst versucht, schlecht ausgebildete junge Menschen mit einem hypothetischen Klimanotstand zu verängstigen, indem sie unkritisch als Stenographen für grüne Aktivisten fungierten.“

In seinem ausführlichen Essay erklärt Chapman, dass alle Prognosen zur globalen Erwärmung aus der „Black Box“ der Klimamodelle stammen. Würde man die Erwärmung anhand der „einfachen, wohlbekannten Beziehung zwischen CO2 und der Absorption des Sonnenenergiespektrums“ berechnen, würde sie bei einer Verdoppelung des Gases in der Atmosphäre nur 0,5 °C betragen. Dies ist auf die logarithmische Natur der Beziehung zurückzuführen.

CO2 chart

Diese Hypothese über die „Sättigung“ der Treibhausgase ist umstritten, aber sie bietet eine glaubwürdigere Erklärung für die in der Vergangenheit beobachtete Beziehung zwischen CO2 und Temperaturen. Der CO2-Gehalt war in einigen geologischen Zeiträumen 10-15 Mal höher, und die Erde hat sich nicht in einen Feuerball verwandelt.

Chapman geht ausführlich auf die Funktionsweise von Klimamodellen ein, und eine vollständige Erklärung ist hier verfügbar. Vereinfacht ausgedrückt ist die Erde in ein Netz von Zellen unterteilt, das vom Meeresboden bis zum oberen Rand der Atmosphäre reicht. Das erste Problem, das er feststellt, ist, dass die Zellen mit 100×100 km2 sehr groß sind. Innerhalb eines so großen Gebietes werden die Eigenschaften von Komponenten wie Temperatur, Druck, Feststoffe, Flüssigkeiten und Dampf als einheitlich angenommen, während es über solche Entfernungen erhebliche atmosphärische Schwankungen gibt. Die Auflösung wird durch die Supercomputerleistung begrenzt, aber ein „unvermeidlicher Fehler“, so Chapman, wird eingeführt, bevor sie beginnen.

Die Bestimmung der Komponenteneigenschaften ist das nächste Minenfeld, und das Fehlen von Daten für die meisten Gebiete der Erde und von Daten für die Ozeane „sollte Anlass zu großer Sorge sein“. Einmal in Gang gesetzt, können einige der Veränderungen zwischen den Zellen nach den Gesetzen der Thermodynamik und der Strömungsmechanik berechnet werden, aber viele Prozesse wie die Auswirkungen von Wolken und Aerosolen werden zugewiesen. Klimamodellierer sind dafür bekannt, dass sie diese Tätigkeit als „Kunst“ bezeichnen. Die meisten dieser Prozesse werden nur unzureichend verstanden, was zu weiteren Fehlern führt.

Ein weiteres großes Problem ergibt sich aus der nichtlinearen und chaotischen Natur der Atmosphäre. Das Modell ist vollgestopft mit Annahmen und gemittelten Vermutungen. Computermodelle in anderen Bereichen beginnen in der Regel in einem statischen „stabilen Zustand“, um sich auf den Start vorzubereiten. Chapman merkt jedoch an:
„Es gibt nie einen stabilen Zustand für das Klima, daher ist es unmöglich, Klimamodelle bei der Initialisierung zu validieren.“

Schließlich versuchen die Klimamodellierer trotz aller Mängel, ihre Ergebnisse so zu „tunen“, dass sie mit historischen Trends übereinstimmen. Chapman hält diesen Anpassungsprozess für zu kurz gegriffen. All die Unsicherheiten bedeuten, dass es keine eindeutige Übereinstimmung gibt. Es gibt eine „fast unendliche“ Anzahl von Möglichkeiten, die Geschichte abzugleichen. Der Unbarmherzige mag argumentieren, dass dies Zeitverschwendung ist, aber natürlich sind geeignete erschreckende Zahlen gefragt, um die Net-Zero-Agenda voranzutreiben, die auf Befehl und Kontrolle beruht.

Aus diesen Gründen erklärten die Autoren der Weltklimaerklärung, dass es keinen Klimanotstand gibt, dass Klimamodelle „viele Mängel haben und als globale politische Instrumente nicht im Entferntesten plausibel sind“. Wie Chapman erklärt, nutzen die Modelle Super-Computing-Leistung, um die Wechselbeziehungen zwischen nicht messbaren Kräften zu verstärken, um eine kleine inkrementelle CO2-Erwärmung zu fördern. Die Modellprognosen werden dann als „Hauptbeweis“ für eine Klimakrise präsentiert.

Klimamodelle stehen auch im Mittelpunkt der so genannten „Attributions“-Versuche, die versuchen, einmalige Wetterereignisse mit langfristigen Klimaveränderungen in Verbindung zu bringen. Diese pseudowissenschaftliche Klimaindustrie hat in den letzten Jahren zugenommen, da die globale Erwärmung nicht mehr im Vordergrund steht, und wird weitgehend durch Versuche ersetzt, jedes ungewöhnliche natürliche Wetterereignis oder jede Katastrophe zu katastrophisieren.

Auch hier wird, vereinfacht ausgedrückt, ein imaginäres Klima ohne menschliches Zutun mit einer Reihe von Vermutungen verglichen, die von der Verbrennung fossiler Brennstoffe ausgehen. Heutzutage ist jeder Ökotrottel, der den Verkehr auf der M25 aufhält, bis hin zum größten Panikmacher auf der COP27 überdosiert mit Geschichten über die Zuordnung von Ereignissen.

In seinem jüngsten Bestseller Unsettled hat Steven Koonin, der Staatssekretär für Wissenschaft von Präsident Obama, Studien zur Attribution von Ereignissen von vornherein abgelehnt. Als Naturwissenschaftler schrieb er: „Ich bin entsetzt, dass solchen Studien Glauben geschenkt wird, geschweige denn, dass die Medien darüber berichten“. Ein Markenzeichen der Wissenschaft ist, dass Schlussfolgerungen anhand von Beobachtungen überprüft werden, was bei Studien zur Wetterzuordnung praktisch unmöglich ist. „Das ist wie eine spirituelle Beraterin, die behauptet, dass ihr Einfluss Ihnen geholfen hat, im Lotto zu gewinnen – nachdem Sie es bereits gewonnen haben“, fügte er hinzu.

Bild: Klima am Scheideweg oder ein PR-Gag?
Autor: Enrique
Quelle: pixabay.com
Lizenz: public domain
Textquelle

RELATED ARTICLES
- Advertisment -
Google search engine

Most Popular

Recent Comments