Schwache solare und geomag­netische Felder führen zu Abkühlung…

Bisher folgt das Jahr 2018 allgemein den Wassertemperaturen in den Ozeanen, die jetzt weniger als 0,15°C über dem Mittel der Jahre 1981 bis 2010 liegen. Im Sommer vorigen Jahres hatte die Abweichung noch 0,35°C betragen.

Ein entscheidendes Phänomen, welches im Nordatlantik genau verfolgt werden muss, ist die jetzt solide im Negativen liegende Wassertemperatur mit einer Abweichung von -0,5°C vom Mittel 1981 bis 2010.

Grönland-Eis sehr stabil

Das fortschreitende Abgleiten der Sonne in ein ausgeprägtes solares Minimum geht einher mit insgesamt niedrigeren Temperaturen der Meeresoberfläche und einer etwas höheren Albedo, was wiederum zu einem kälteren Klima führt.

Das sich abschwächende geomagnetische Feld wird diesen Vorgang verstärken.

Ich predige das schon seit Jahren und auch in diesem Jahr 2018, markiert es doch das erste Jahr, in welchem meine beiden solaren Bedingungen so zusammentreffen, dass die Sonne eine noch signifikantere Klima-Auswirkung zeitigt. Jene über 10 Jahre verringerter Sonnenaktivität, welche sich ab 2005 zeigte) und die während dieser Zeit aufgetretenen sehr niedrigen Mittelwerte solarer Parameter (was 2018 begann) bedeuten, wenn sie zu Zeiten typischer solarer Minima auftreten, dass diese Minima viel länger dauern als gewöhnlich.

Das ist in diesem Jahr der Fall, und es ist das erste Mal seit dem Dalton-Minimum, dass meine beiden solaren Bedingungen zusammentreffen. Alle grundlegenden Hypothesen der AGW-Theorie haben sich bisher nicht materialisiert, und das globale Klima ist alles andere als einheitlich.

Die Theorie hätte schon vor 20 Jahren auf dem Müll landen müssen, hat aber aufgrund politischer Agenden bis heute überlebt.

Link: https://www.iceagenow.info/weak-solar-and-geomagnetic-fields-lead-to-cooling/
Übersetzt von Chris Frey EIKE
—————————–
Anmerkung des Übersetzers: Dieser Text ist offensichtlich mit einer Übersetzungsmaschine ins Englische übertragen worden, wahrscheinlich aus dem Spanischen. Es war nicht immer ganz klar, was der Autor meinte, so dass ich vereinzelt etwas eigene Interpretationen habe einfließen lassen.




,Heiß-Haus Erde‘: Extrem fragwürdig

Welche Beobachtungen auch immer gemacht werden, welche Argumente auch immer kolportiert werden oder wie auch immer sich die Temperatur in Zukunft ändert – die Medien lieben einfach die Schlagzeile „die Erde brennt!“. Aber falls man jetzt glaubt, dass sei schlecht, warte man auf die Apokalypse. Eine neue Studie versteigt sich zu der Behauptung, dass wir einem „Heiß-Haus Erde“ entgegen gehen, und das vielleicht schon sehr bald. Man setze das Hitzewelle-Fieber auf Steroide an.

Das Erste, was man hinsichtlich dieser Studie ertragen muss ist, dass es eine Perspektiv-Studie im Journal Proceedings of the National Academy of Science of the USA ist.

Abbildung 1 aus der Studie: Die möglichen Trajektorien der Erde – hin zu einem Heiß-Haus – oder einen Bereich der Stabilität, falls wir drastische Maßnahmen ergreifen.

Aber es ist keine Forschungsstudie und enthält nichts Neues bzgl. Klimawissenschaft. Es ist ein Zukunfts-Szenario, zusammen gestümpert mittels Zitierens von (cherry-picked) Referenzen mit sehr viel schlampiger Argumentation dazwischen. Die Autoren sagen, dass sie nicht beweiskräftig ist und dass sie hoffen, dass das dort Beschriebene nicht eintritt. Sie haben eine Verantwortung, diese Frage zu stellen, behaupten sie, und geben gleichzeitig zu, wie extrem sie ist.

Der Report beginnt so, wie er dann weitergeht. Es heißt darin, dass die Formalisierung des Anthropozäns – also die kontroverse Epoche, in welcher die Menschheit vermeintlich über natürliche Prozesse dominiert – von der stratigraphischen Gemeinschaft in Betracht gezogen wird. Gerade mal ein paar Tage, nachdem diese Studie zur Veröffentlichung akzeptiert worden war, beschloss die International Commission on Stratigraphy, sich gegen die Einführung des Begriffs Anthropozän auszusprechen und dass wir derzeit in der Meghalayan-Epoche [?] leben. Die Autoren fahren dann jedoch fort, dass es tatsächlich irrelevant ist, was die geologische Gemeinschaft entscheidet – und behaupten einfach, dass das Anthropozän in jedem Falle existiert. Menschliche Aktivität, folgern sie, rivalisiert jetzt mit geologischen Kräften.

Also fragen die Autoren: Gibt es einen ,Kipp-Punkt, eine Grenze bzgl. Klimawandel, und wenn ja, wo könnte die liegen? Wie stark wird sich die Erde wie schnell erwärmen? Zu Beginn dieses Jahres revidierte eine Studie in Nature die Berechnung, wie Treibhausgase die Temperatur der Erde nach oben treiben. Darin wurde die Bandbreite möglicher Temperaturentwicklungen bis zum Ende dieses Jahrhunderts um über die Hälfte reduziert, und man kam zu dem Ergebnis, dass irgendwelche Worst-Case-Szenarien unwahrscheinlich sind. In der „Perspektiv-Studie“ wird das aber nicht erwähnt.

Weggabelung

Die Schlussfolgerung der Studie lautet, dass wir bereits aus der Sägezahnkurve zwischen Eiszeiten und Zwischeneiszeiten zum Ende des Quartärs ausgebrochen seien (die letzten 1,2 Millionen Jahre), und das die Erwärmung um 1°C seit vorindustriellen Zeiten sich dem oberen Ende der Bandbreite von Interglazial-Bedingungen nähert. „Das System Erde kann die ,Weggabelung‘ bereits hinter sich gelassen haben“, schreiben sie, und vermitteln dabei den Eindruck, dass die nächste Vereisung ausfallen könnte. Als Nächstes spekulieren sie, dass die „biogeophysikalische Rückkopplung stärker sein könnte als üblicherweise angenommen“.

Dieses ganze Szenario gleitet ab in etwas, das viele als extreme wissenschaftliche Spekulation betrachten. Es gibt in der wissenschaftlichen Literatur keinerlei Beweise, dass eine Erwärmung um 2°C über das vorindustrielle Niveau ein Kipp-Punkt ist. Im jüngsten IPCC-Bericht werden derartige Untergangs-Szenarien als höchst unwahrscheinlich zurückgewiesen. Es gibt keine neue wissenschaftlichen Erkenntnisse dazu, dass dies eine Grenze ist, nach deren Überschreiten die globale Erwärmung unaufhaltbar werden wird. Keine neue Wissenschaft, kein neues Szenario und folglich auch kein Grund für Panik. Aber das bringen die Medien nicht.

Zwar ist es in Ordnung, ein Extrem-Szenario zu präsentieren, um mögliche Entwicklungen aufzuzeigen und die Forschung anzuregen. Aber wenn man dies der Öffentlichkeit vorführt und darüber in den Medien berichtet wird, ist es unabdingbar, dass es in den Zusammenhang gestellt wird mit wissenschaftlichen Fakten und Forschungsergebnissen. Die große Mehrheit der Klimawissenschaftler lehnt die Prophezeiung eines Heiß-Hauses Erde ab. Diese provokante Studie widerspricht dem wissenschaftlichen Stand der Klimaforschung. Falls sie eine Warnung sein soll, sollte man sie nicht als Prophezeiung präsentieren. Sie verdient in keiner Weise all die schreienden Schlagzeilen.

Aber es war ein sehr heißer Sommer, und kühler Verstand sowie rationale Perspektiven sind aus dem Fenster entwichen wie Rauch im Wind. Dr. Phil Williamson von der University of East Anglia wird in dem Medien mit den Worten zitiert: „Im Zusammenhang mit dem Sommer 2018 ist dies definitiv kein Fall, um den Teufel an die Wand zu malen“. Jawohl, genau!

Link: https://www.thegwpf.com/hothouse-earth-its-extremely-dodgy/
Übersetzt von Chris Frey EIKE




Erderwärmung: James Hansen hat sich geirrt

Im Jahre 1988, vor genau 30 Jahren, erschien der NASA-Wissenschaftler James Hansen in einer Anhörung zur globalen Erwärmung vor dem US-Kongress. Die Anhörung wurde von Al Gore organisiert und sollte verschiedene Szenarien vorstellen, nach denen sich der Planet entwickeln könnte. Damals sagte Hansen selbstbewusst eine Erwärmung von 1 °C voraus.

In Wahrheit hatte Hansen drei Szenarios vorgelegt: A: „business as usual“ mit weiter schnell steigenden Karbonemissionen und der Erhöhung um ein Grad. B war das „most plausible“-Modell, bei konstanten Emissionen auf dem Niveau von 1988, die die Welt bis heute um 0,7 Grad erwärmt hätten. Das Modell C ging von steigenden Emissionen von 1988 bis 2000 und einer anschließenden Stabilisierung aus. Das sollte zu einer Erwärmung bis heute von 0,3 Grad führen – ein Ergebnis, dessen Erreichen er damals als höchst unwahrscheinlich („highly unlikely“) bezeichnete.

Hansens Szenarien wurden im Großen und Ganzen vom IPCC der UN übernommen. Was wurde nun aus den Prophezeiungen Hansens, dem Hohepriester der Erderwärmungsangst, und seiner Anhänger?
Heute ist die Welt durchschnittlich 0,3 Grad wärmer als im Jahr von Hansens Szenarios. Das heißt kurz gefaßt, bezüglich der Temperatur ist Szenario C eingetreten, das ihm damals selbst am unwahrscheinlichsten vorkam.

Dazu kam es jedoch nicht, weil die CO2-Emissionen 2000 ab eingefroren wurden. Ganz im Gegenteil stiegen diese immer weiter an. Das heißt, die Bedingung für den von ihm im Szenario C vorhergesagten Temperaturanstieg lag überhaupt nicht vor, sondern mehr oder weniger die für den Temperaturanstieg des Szenario A angegebene Bedingung.
Daraus folgt, daß Hansens Vorstellungen darüber, was die globale Durchschnittstemperatur antreibt, falsch waren und noch immer sind. Denn er glaubt, Kohlendioxid ist der Temperaturregler der Atmosphäre. Schon 1988 sollte diese Idee jedem mit auch nur einen Funken gesunden Menschenverstand als das aufgefallen sein, was es ist: Nonsens.

Kohlendioxid konstituiert vier Hundertstel eines Prozents der Atmosphäre. Das allein schon macht es zu einem wenig wichtigen Einflußfaktor. Doch ist an der ganzen Geschichte wesentlich mehr. Denn die Atmosphäre selbst bildet nur einen kleinen Teil des globalen Klimasystems. Dazu kommen noch Hydrosphäre, Kryosphäre, die obere Lithosphäre und die Biosphäre sowie solare und kosmische Strahlung und der Vulkanismus. Das atmosphärische Kohlendioxid, auf dessen maßgeblicher Rolle Hansen besteht, entspricht nur rund 0,00015 Prozent der kombinierten Atmosphäre und Ozeane (solche Zahlen haben etwas Willkürliches, bilden jedoch die Proportionen recht gut ab).
Zu theoretisieren, daß 15 Zehnmillionstel eines Gesamtsystems die Temperatur dieses Systems oder eines großen Teils davon bestimmen könnten, ist grober Unfug. Was uns überraschen sollte ist nicht, daß sich die Idee als falsch herausstellte, sondern dass sie verinnerlicht wurde und dass es bei vielen zum Teil hochintelligenten Wissenschaftlern so lange dauert, sie angesichts klarer empirischer Fehler aufzugeben.

Inzwischen liegen dazu einige Stellungnahmen aus amerikanischen Medien vor: So berichtet das Western Journal: „Der Ökonom Ross McKitrick und der Klimawissenschaftler John Christie fanden heraus, dass die beobachteten Trends globaler Erwärmung am unteren Ende dessen rangieren, was Hansen dem Kongress bei einer vom damaligen Kongress-Mitglied organisierten Anhörung sagte.“ Sie selbst schrieben: „Klima-Modellierer werden bestreiten, dass diese Erklärung nicht zur Theorie über Klimawandel passt. Aber genau das waren die von Hansen beschriebenen Theorien, und sie passen nicht zu den Daten. Unter dem Strich: in die Modelle eingebettete Klimawissenschaft ist alles andere als ,settled’“.

Im Wall Street Journal kommentierten im Juni Patrick Michaels und Ryan Maue vom Cato Institute: „Die Lufttemperaturen verhalten sich so, als ob wir die Kohlendioxid-Emissionen vor 18 Jahren aufgefangen hätten, welche für den verstärkten Treibhauseffekt verantwortlich sind. Aber das haben wir nicht! Und nicht nur Mr. Hansen liegt hier völlig falsch“. Dieses Op-Ed setzte hinsichtlich der Genauigkeit von Hansens Prophezeiungen eine wilde Debatte in Gang. Erneut wurde in vielen Medienberichten nach Interviews mit Klimawissenschaftlern im Jahre 1988 behauptet, dass sie ziemlich korrekt waren, obwohl der so genannte „Gottvater“ der globalen Erwärmung sogar bei AP erklärt hatte: „Ich will in dieser Sache nicht recht haben“.

Einige Wissenschaftler verschoben die Torpfosten und argumentierten, dass er zumindest hinsichtlich des Strahlungsantriebs durch Treibhausgas-Emissionen richtig lag: „Alles in allem hat Hansens Modell die Relation zwischen zunehmenden Treibhausgasen (und anderen Klima-Antrieben) und der globalen Erwärmung absolut korrekt abgebildet. Was er nicht richtig eingeschätzt hatte (was auch niemand erwarten kann) ist, wie sich die Emissionen in Zukunft ändern werden. – Zeke Hausfather (@hausfath) 22. Juni 2018“.

Allerdings berücksichtigte die Analyse von McKitrick und Christy derartige Widersprüche. Sie wiesen darauf hin, dass Hansens Prophezeiungen der Kohlendioxid-Emissionen tatsächlich ziemlich genau den Beobachtungen entsprachen – allein es gab kaum eine Erwärmung in den Medien: „Es stellte sich heraus, dass Hansens Projektion des worst-case-Szenarios der globalen Erwärmung, bekannt unter der Bezeichnung Scenario B, nur Kohlendioxid-Emissionen berücksichtigt, aber immer noch zu viel Erwärmung zeigt. Was wirklich von Belang ist, ist der Trend über das Vorhersage-Intervall, und hier treten die Probleme offen hervor“. Hansens Schlussfolgerung, schrieben sie, „übertreibt die Erwärmung signifikant“.

 
http://dailycaller.com/2018/06/25/james-hansen-was-wrong-about-global-warming/
 
Übersetzt von Chris Frey EIKE
Anmerkung: Aufgrund von Hinweisen unserer Leser wurde dieser Artikel am 10. August 2018 überarbeitet.
 




Zum Bedarf an Wasser für Pump­speicher­kraftwerke

  1. Zur weiteren Versorgung bei Windstille und PV-Ausfall

  2. Zur Glättung der fluktuierenden Leistung der Wind- und Photovoltaikanlagen.

Zu Punkt 1:

Ich rechne mal ohne Wirkungsgrad. Mit Wirkungsgrad wird die Katastrophe nur größer.

Ich gehe mal von einer maximalen Netzlast von 80 GW aus, die im Notfall aus Pumpspeicherwerken mit 60 GW und 20 GW aus konventionellen Kraftwerken für eine Zeit von 21 Tagen bereitgestellt werden soll. Als Beispiel für ein Pumpspeicherwerk nehme ich mal das Werk Goldisthal in Thüringen. Das hat ein Nutzwasservolumen von 12.000.000 m³ und kann damit für 8 Stunden eine Leistung von 1 GW bereitstellen. Wir brauchen aber 60 dieser Anlagen um Deutschland mit 60 GW zu versorgen. Damit können wir dann 8 Stunden in Ruhe weitermachen. Wenn das Wasser der 60 Oberbecken dann abgearbeitet ist, sind insgesamt 60 * 12.000.000 m³ = 720.000.000 m³ Wasser geflossen. Der Tag hat aber 24 Stunden. Also müssen pro Tag nicht 60 sondern 180 Pumpspeicherwerke zur Verfügung stehen. Dafür benötigen wir dann 2.160.000.000 m³ Wasser. Es sollen aber 21 Tage überstanden werden können, also 21 mal soviel. Das bedeutet den Bau von insgesamt 21 * 180 Pumpspeicherwerken. Das sind dann 3780 Werke mit 45.360.000.000 m³ Wasservorrat im Unterbecken. Diese Wassermenge muss also dauerhaft in den Speichern zur Verfügung stehen, um im Notfall eingesetzt zu werden. Es handelt sich um 3780 Pumpspeicherwerke die Geld kosten aber kein Geld einbringen. Diese Werke stehen für die Vergleichmäßigung der Erzeugung aus volatilen Quellen nicht zur Verfügung. Die müssen noch zusätzlich gebaut werden.

Wer kann sich jetzt vorstellen wie viel Wasser das ist?

Ich habe mal die Wasserführung der großen deutschen Ströme zur Nordsee in Wikipedia nachgelesen :

Rhein 2900 m³/sec , Elbe 870 m³/sec, Weser 327 m³/sec mittlere Wasserführung

Das sind dann zusammen 4097 m³/sec oder 353.980.800 m³/Tag Die Pumpspeicherwerke benötigen also ungefähr die Wasserführung von 128 Tagen der Flüsse, die Deutschland zur Nordsee entwässern, um die Unterbecken zu füllen..

Wie bekommen wir das Wasser aber in die Oberbecken der Pumpspeicherwerke. Dazu müssen wir die gesamte Ökostromproduktion von 21 Tagen aufwenden, wenn denn Wind voll wehen würde. Also 21 Tage kein Strom in Deutschland. Die Sache muss ja fix gehen, denn die nächste Flaute kann ja schon morgen sein.

Jetzt wo scheinbar alles klar ist kommt die entscheidende Frage. Wo kriegen wir das Wasser für die Erstfüllung der Unterbecken her? Wir brauchen für 3780 Unterbecken mit je 12.000.000 m³ Nutzvolumen ja 45.360.000.000 m³ Wasser. Überall da, wo die Unterbecken sind, ist die Wasserführung der Flüsse, es sind Gebirgsbäche, sehr gering und von dem Wasser kann man nur einen Teil abzweigen.

Ich überlasse es dem Leser dieser Arbeit sich vorzustellen, wie das gehen soll ohne die Flüsse und Bäche im Gebirge zu zerstören. Mal abgesehen von der Zerstörung der Mittelgebirge durch 3780 Pumpspeicherwerke. An die Kosten ist ja noch nicht mal gedacht worden.

Ganz schlaue Leute werden jetzt auf die Weiterentwicklung von Batterien hinweisen. Dazu soll ja nur Forschung notwendig sein. Die gibt es schon seit mehr als 100 Jahren ohne den gewünschten Erfolg. Aber vielleicht müssen wir dann ganz Deutschland 10 Meter hoch mit Batterien vollstellen. Auch damit wäre Deutschland endgültig weltweit Vorreiter in Sachen Dummheit und Paranoia.

Zu Punkt 2:

Um die fluktuierende Stromerzeugung aus Windkraft zu glätten, also in eine nahezu konstante Netzeinspeisung zu wandeln sind Speicher notwendig, die bei Überleistung speichern und aus denen bei Unterleistung elektrische Leistung abgegeben wird. Dazu wird ein Speichermanagement gebraucht, das die Speicheranlagen steuert. In der folgenden Grafik ist die Erzeugungsleistung eines Monats aus Wind dargestellt.

Die Basis sind die Viertelstundenwerte der Leistungsmessung, die die Windrauhigkeit (Böen) ausblendet. Die Auswirkungen der Windrauigkeit auf die Netzfrequenz muss von drehzahlregelbaren rotierenden konventionellen Generatoren ausgeglichen werden. Windkraft ist, ebenso wie Photovoltaik, dazu nicht in der Lage. Windanlagen müssen immer die aus dem Wind gewonnene Leistung unmittelbar ins Netz einspeisen. Wenn das nicht geht, folgt die Notabschaltung oder die Windturbine verliert ihre Flügel.

Zum Betrieb einer solchen Anlage ist ein Speichermanager (SM) erforderlich. Hier ist ein Beispiel. Er ermittelt die erforderlichen Betriebswerte für den nächsten Tag, den 1. März. 2012

Der Speichermanager (SM) ermittelt aus den Viertelstundenwerten der Winderzeugerleistung des letzten Monats den Mittelwert, als rote Linie dargestellt. Aus den gelben Flächen ermittelt der SM die maximale Erzeugerleistung der Speicherkraftwerke am 4.Februar. Diesen Wert addiert er auf den Mittelwert und erhält damit den Grenzwert der maximal zulässigen Windleistung (graue Linie), bis zu der eingespeichert wird. Windleistung oberhalb dieses Grenzwertes muss abgeschaltet werden, also WKA abschalten. Dadurch wird erreicht, dass die Auslegung der Leistung für Pump- und Turbinenbetrieb der PSKW ungefähr gleich groß bleibt, was für Pumpturbinen sehr günstig ist. Spitzenleistungen (rote Flächen) zu speichern kostet viel Geld, kommt aber selten vor. Die werden dem Erzeuger aber auch honoriert.

Es ergeben sich drei Bereiche :

  1. Unter der roten Linie ist die direkt ins Netz eingespeiste Windleistung (grün) plus der Leistung der PSKW-Generatoren (gelb)

  2. Zwischen der roten und der grauen Linie ist die Leistung der PSKW-Pumpen (grau)

  3. Über der grauen Linie ist die abgeschaltete Windleistung (rot)

Man braucht jetzt für die Vorausschau auf den 1.März die meteorologische Windvoraussage für diesen Tag. Dann kann man, anhand der Daten des vergangenen Tages, Woche oder Monat, die voraus geschauten Grenzwerte ermitteln und danach die Anlagen fahren.

  1. rote Linie: Beginn der Speicherung von Windarbeit

  2. graue Linie: Beginn der Abschaltung von WKA.

Aus der Grafik, die ja ein Blick in die Vergangenheit ist, kann man weitere Fakten für die Aufgabe der Glättung ableiten :

1. Erzeugung Wind direkt plus Generatoren 4524 GWh

2. Generatorarbeit (geschätzte gelbe Fläche 30%) 1357 GWh

2a. Pumparbeit (geschätzte graue Fläche 30%) 1357 GWh

2b. Abgeschaltete Windarbeit (geschätzte rote Fläche 10% 452 GWh

3.Maximale Generatorleistung am 4.Februar 6,3 GW

Nun wird man einwenden, dass man ja gespeicherten Windstrom nicht in die Vergangenheit verlegen kann. Deshalb mache ich mit der Grafik einen horizontalen Flip und jetzt kann man gespeicherten Windstrom in die Zukunft verlegen. Es ist ja nur zur Veranschaulichung der Funktion eines Speichermanagers. Die grauen Flächen, oberhalb der roten Linie werden mit Turbinen in gelbe Flächen unterhalb der roten Linie gewandelt.

Jetzt kann man grob abschätzen wie viele PSKW vom Typ Goldisthal für den Betrieb des Monats Februar 2012 benötigt werden. Für die maximale Generator/Pumpleistung von

6,3 GW sind rund sechs Werke erforderlich. Es sind aber 1357 GWh elektrischer Arbeit zu speichern. Goldisthal kann 8 GWh speichern. Also braucht man 169 Werke vom Typ Goldisthal um im Februar über die Runden zu kommen. Es ist nur eine grobe Abschätzung, denn zwischen den Speicherungen gibt es ja auch Ausspeicherungen. Das für die Speicheranlagen ein gigantischer Netzausbau erforderlich ist dürfte klar sein. Wie man aber aus Südaustralien zur Kenntnis nehmen musste, ist eine Versorgung aus Erneuerbaren nur bis zu ca. 35% möglich. Die Anpassung an die geforderte Netzlast muss immer mit drehzahlregelbaren Dampf- oder Wasserkraftwerken erfolgen. Von Wasserkraftwerken sollte man lieber Abstand halten wie der Dammbruch in Laos kürzlich gezeigt hat. Stabilität bedeutet die Frequenz von 50 Hz einzuhalten und keine Netzüberlastungen durch regionale Untererzeugung zuzulassen.

Aus den Fakten des Aufsatzes ist klar zu erkennen, dass ein solches Konzept nicht umsetzbar ist, sondern nur dem paranoiden Kopf von ideologisierten Spinnern entfleucht sein kann. Sonst müsste man ja an Kriminalität denken. Das die Mehrheit der Fachleute schweigt ist schon sehr erstaunlich und das eine Bevölkerung so ungebildet ist und das nicht erkennt, ist nicht zu fassen. Solchen Menschen kann man alles einreden. Das kennt man in Deutschland ja bestens und hat nichts dazu gelernt.

Hier ein Zitat aus dem Werk eines deutschen Kanzlers:

„Man ging dabei von dem sehr richtigen Grundsatze aus, daß in der Größe der Lüge immer ein gewisser Faktor des Geglaubtwerdens liegt, da die breite Masse eines Volkes im tiefsten Grunde ihres Herzens leichter verdorben als bewußt und absichtlich schlecht sein wird, mithin bei der primitiven Einfalt ihres Gemütes einer großen Lüge leichter zum Opfer fällt als einer kleinen, da sie selber ja wohl manchmal im kleinen lügt, jedoch vor zu großen Lügen sich doch zu sehr schämen würde. Eine solche Unwahrheit wird ihr gar nicht in den Kopf kommen, und sie wird an die Möglichkeit einer so ungeheuren Frechheit der infamsten Verdrehung auch bei anderen nicht glauben können, ja selbst bei Aufklärung darüber noch lange zweifeln und schwanken und wenigstens irgendeine Ursache doch noch als wahr annehmen; daher denn auch von der frechsten Lüge immer noch etwas übrig- und hängen bleiben wird – eine Tatsache die alle großen Lügenvereine dieser Welt nur zu genau kennen und deshalb auch niederträchtig zur Anwendung bringen.“

Den Namen schreibe ich nicht. Kann sich ja jeder denken wer das war. Es funktioniert aber immer noch prima.

Michael Treml, Bremen

Über den Autor. Er hat sein ganzes Berufsleben in der Stromerzeugung mit Großkraftwerken, der Fernwärmeerzeugung und Verteilung als technischer Angestelter verbracht und ist jetzt im Ruhestand.




Der grobe Fehler der Klimatologie – eine Aktualisierung

[Anmerkung des Übersetzers: Bei der folgenden Übersetzung ist mir bei einigen Begriffen keine sinnvolle Übersetzung ins Deutsche eingefallen. Diese Begriffe sind kursiv gesetzt. Alle anderen Hervorhebungen sind vom Original übernommen. – Ende Anmerkung]

Hier möchte ich unsere Beweiskette für Laien erklären (weil ich auch genau das bin). Falls man einen detaillierteren Einstieg in die dahinter stehende Physik wünscht, dann findet man den in diesem PDF mit dem Titel error-summary.

Nach einer kurzen Darstellung unserer Argumentation möchte ich nur so zum Spaß die prinzipiellen Einwände der Begutachter einflechten, zusammen mit unseren Antworten darauf. Mögen die Leser entscheiden, ob wir oder die Begutachter richtig liegen.

Wie Klimatologen vergessen, dass die Sonne schien

Klimatologen, die globale Erwärmung zu prophezeien versuchen, haben in ihren Ergüssen den Sonnenschein vergessen. Nach der Korrektur dieses groben physikalischen Fehlers ergab sich die globale Erwärmung nicht zu 2 bis 4,5 K pro CO2-Verdoppelung, wie es die Klimamodelle simulieren. Vielmehr ergab sich ein geringer, langsamer, harmloser und insgesamt vorteilhafter Anstieg von 1,17 K.

Das Climate Model Intercomparison Project (CMIP5: Andrews+ 2012) hatte prophezeit, dass eine Verdoppelung des CO2-Gehaltes der Luft die Welt um 1,04 ±1,5 K erwärmen würde (vor Einwirkung von Rückkopplungen) und 3,37 ±1,3 K nach Berücksichtigung von Rückkopplungen. Das IPCC sagt 3,0 ±1,5 K. Einige Studien (z. B. Murphy 2009) prophezeien sogar Schätzungen bis 10 K pro CO2-Verdoppelung.

Klimatologen liegen falsch, wenn sie die Rückkopplungs-Mathematik aus der Regeungsl-Theorie heranziehen, ohne diese überhaupt verstanden zu haben. Sie wendeten eine abgewandelte Rückkopplungs-System-Verstärkungs-Gleichung an, welche sich allein auf geringe Änderungen der Referenztemperatur vor der Rückkopplung stützt und auf die Gleichgewichts-Temperatur nach der Rückkopplung. Aber in die Grundgleichung, welche sie sich aus der Regelungs-Theorie ausgeliehen haben, gehen absolute Temperaturwerte in Kelvin ein und nicht einfach nur Änderungen der Temperatur.

Ihre abgewandelte Gleichung ist eine valide Gleichung, weil sie die Differenz zwischen zwei Fällen der Grundgleichung konstituiert. Allerdings subtrahierten sie effektiv den Term für die 243,3 K Emissionstemperatur heraus, welche auf der Erde ohne nicht kondensierende Treibhausgase herrschen würde, getrieben durch die Tatsache, dass die Sonne scheint. Gleiches gilt für den Term der Erwärmung um 11,5 K durch vorindustrielle Treibhausgase.

Weil sie diese vitale Information verloren haben, kann ihre abgewandelte Gleichung nicht zuverlässig den wahren System-Verstärkungs-Faktor abbilden, also das Verhältnis der Gleichgewichts- zur Referenz-Temperatur. Stattdessen versuchten sie, den Heiligen Gral aus den Studien zur globalen Erwärmung zu finden, indem sie individuellen Rückkopplungen aus den Computermodell-Ergebnissen nachjagten. Sie suchten nach stumpfen Nadeln im falschen Heuhaufen, obwohl sie doch alles, was sie brauchten bereits hatten (wenn sie es denn nur gewusst hätten).

Messungen und Beobachtungen können uns keinen Aufschluss über die Größenordnungen individueller Rückkopplungen geben, und sie können uns nicht dabei helfen zu unterscheiden zwischen individuellen Rückkopplungen der menschengemachten Erwärmung, welche sie hervorrief.

Fügt man den fehlenden Sonnenschein und die vorindustrielle Treibhausgas-Erwärmung wieder ein, kann jeder den wahren System-Verstärkungs-Faktor berechnen. Die Berechnung geht schnell und ist direkt und genau. Man muss nicht einmal die Größenordnung einer jeden individuellen Rückkopplung kennen. Alles, was man braucht, ist die gesamte Referenztemperatur (vor der Rückkopplung) und die Gleichgewichtstemperatur (nach der Rückkopplung) in irgendeinem ausgewählten Jahr.

Im Jahre 1850 betrug die Referenztemperatur – also die Summe der Erwärmung von 243,3 K durch die Sonne und weiteren 11,5 K durch die nicht kondensierenden Treibhausgase vor der industriellen Revolution – 254,8 K. Die gemessene Gleichgewichtstemperatur betrug 287,5 K (HadCRUT4). Daher beträgt der System-Verstärkungs-Faktor für jenes Jahr 287,5/254,8 oder 1,13.

Aus der Anwendung der abgewandelten Gleichung kann man jedoch in keiner Weise den System-Verstärkungs-Faktor des Jahres 1850 ableiten.

Bis zum Jahr 2011 hatten menschengemachte Einflüsse die Referenztemperatur um 0,68 K auf 255,5 K steigen lassen. Die gemessene Temperatur ist um 0,75 K gestiegen, doch müssen noch weitere 0,27 K aufgrund eines imaginären „Strahlungs-Ungleichgewichtes“ zugelassen werden, die sich noch nicht manifestiert haben. Dies würde die Gleichgewichts-Temperatur um 1,02 K auf 288,5 K steigen lassen. Folglich betrug der System-Verstärkungs-Faktor für das Jahr 2011 288,5/255,5 oder 1,13.

Jener Wert für 2011 ist nun genau der Gleiche wie der im Jahre 1850. Der Grund ist einfach zu erkennen. Die 254,8 K Referenztemperatur des Jahres 1850, welche bei den Summen der Klimatologen außen vor gelassen worden ist, beträgt 375 mal die menschengemachte Referenz-Erwärmung um 0,68K von 1850 bis 2011. Das ist der Grund, warum unsere Einwirkung auf den System-Verstärkungs-Faktor minimal ist.

Die Stabilität des Klimas, die sich nach der Korrektur des groben Fehlers der Klimatologen zeigt, sollte keine Überraschung sein. Seit über 800.000 Jahren hat die globale mittlere Temperatur um kaum mehr als 3 K beiderseits der mittleren Temperatur jenes Zeitraumes variiert, wie aus der Analyse von Luftbläschen in historischem Eis hervorgeht.

Zieht man die abgewandelte Gleichung heran, würde der System-Verstärkungs-Faktor 1,02 / 0,68 oder 1,50 betragen, und die Gleichgewichts-Erwärmung bei CO2-Verdoppelung würde folglich 1,50 mal größer sein als die Referenz-Erwärmung von 1,04 K als Reaktion auf eine CO2-Verdoppelung, d. h. 1,55 K. Aber selbst dieser Wert ist nur etwa halb so groß wie Schätzung von 3,37 K in den CMIP5-Modellen.

Wendet man jedoch die Grundgleichung an, wäre die wahre Gleichgewichts-Erwärmung bei CO2-Verdoppelung noch geringer und läge beim 1,13-fachen der Referenz-Erwärmung von 1,04 K, d. h. harmlose 1,17 K. Um auf der sicheren Seite zu sein, wurden zehn separate offizielle Schätzungen des menschengemachten Strahlungsantriebs untersucht. In jedem einzelnen Fall betrug die globale Erwärmung bei CO2-Verdoppelung 1,17 K.

Eine statistische Monte-Carlo-Simulation zeigt die wahre Bandbreite der globalen Erwärmung zwischen 1,08 und 1,25 K. Die diesem Ergebnis zugrunde liegende Regelungs-Theorie wurde mit zwei Testläufen verifiziert, einer davon in einem Laboratorium der Regierung.

Klimatologen hatten sich vorgestellt, dass individuelle Temperatur-Rückkopplungen sich selbst aufheben würden, außer für Wasserdampf, der größten Rückkopplung. Mit jedem zusätzlichen K Erwärmung kann die Atmosphäre 7% mehr Wasserdampf aufnehmen. Kann, muss aber nicht. Die meisten Modelle hatten prophezeit, dass falls die Erwärmung vom Menschen verursacht wäre und nur dann sich die Luft höheren Luftschichten über dem Äquator dreimal so stark erwärmen würden wie an der Oberfläche. Und doch ist der Wasserdampfgehalt dort oben rückläufig. Folglich ist der mitteltroposphärische „Hot Spot“ nicht existent.

Unter dem Strich: Globale Erwärmung ist also überhaupt kein Problem. Man genieße den Sonnenschein, den die Klimatologen vergessen haben!

Kommentare der Begutachter und unsere Antworten darauf

Die einfache Einfügung der Emissionstemperatur in die Gleichungen an die Stelle der anthropogenen Erwärmung an der Oberfläche und dann so weitermachen wie zuvor ist eine massive Verletzung des Energieerhaltungssatzes“.

Mit Verlaub, nein! Einer meiner Mitautoren, nämlich John Whitfield, konstruierte einen Testlauf – im Grunde ein Analog-Computer – um die unserer Argumentation zugrunde liegende Regelungs-Theorie zu verifizieren. Es gab mit Sicherheit keine „massive Verletzung des Energieerhaltungssatzes“. Stattdessen bestätigten die Ergebnisse des Testlaufes bei 23 unterschiedlichen Experimenten unser Ergebnis in jeder Hinsicht.

Um dies hieb- und stichfest zu machen, beauftragten wir ein Laboratorium der Regierung, einen Testlauf nach ihrem eigenen Design zu konstruieren und die gleichen 23 Experimente durchzuführen. Die Ergebnisse stimmten mit dem überein, was wir aufgrund der Theorie vorhergesagt hatten, und zwar jeweils bis auf ein Zehntel Kelvin genau. Falls es wirklich eine „massive Verletzung des Energieerhaltungssatzes“ gegeben hätte, wäre diese in den Experimenten sicher zutage getreten.

Abgesehen davon – die Begutachter haben keinerlei Beweise oder Argumente irgendeiner Art hervorgebracht, welche die unsinnige Vermutung rechtfertigen würde, dass unser Verfahren eine „massive Verletzung des Energieerhaltungssatzes“ war.

Anstatt die Störungs- (perturbation)-Temperatur eingehen zu lassen und zu fragen, was die Durchdringung im Energiehaushalt an der Oberfläche der Atmosphäre ist, schaufeln sie ohne physikalische Rechtfertigung die gesamte Temperaturdifferenz von absolut Null in die Gleichung. Das ist blanker Unsinn“.

Die physikalische Rechtfertigung ist Folgende: Rückkopplungs-Prozesse können nicht unterscheiden zwischen einer vorher herrschenden Temperatur und einer Störung jener Temperatur. Sie haben keine Mittel, sich zu entscheiden, ob sie überhaupt nicht auf Erstere reagieren sollen und doch heftig auf Letzteres reagieren sollen. Auch sind diese unbelebten Prozesse nicht mit der Frage befasst, was hätte sein können, wenn die Sonne nicht scheinen würde. Denn die Sonne – ob sie es nun mögen oder nicht – scheint.

Rückkopplungs-Prozesse reagieren einfach auf die Temperatur, die sie vorfinden. Auf dem folgenden Blockdiagramm einer Rückkopplungsschleife (Feedback loop) ist der Grund dafür zu erkennen:

Die Referenz-Temperatur (d. h. die Temperatur vor Einwirkung von Rückkopplungen) geht von links oben ein und ist Eingangssignal für den summierenden Knoten zwischen Eingangs- und Ausgangssignal. Aus diesem Knoten läuft der Anteil der Ausgangstemperatur, repräsentiert durch die Rückkopplungs-Reaktion, um die Rückkopplungsschleife herum und zurück zum Knoten zwischen Eingangs- und Ausgangssignal. Dort wird sie der ursprünglichen Referenz-Temperatur hinzugefügt und ergibt die Gleichgewichts-Sensitivität.

Jetzt erhöhe man die Referenz-Temperatur durch irgendeinen Zusatzbetrag. Dann ist das Eingangssignal in die Rückkopplungsschleife etwas größer als zuvor. Der Rückkopplungsprozess trägt der höheren Referenz-Temperatur einfach Rechnung. Es gibt selbstverständlich keinen physikalischen Mechanismus, damit jene Prozesse „wissen“ können, dass sie nicht reagieren dürfen auf eine irgendwie höhere Referenztemperatur als vorher.

Die Analogie mit einem Bode-Verstärker, welche die Autoren so stark betonen, ist keine Analogie. Falls es eine Störungsspannung wäre, die isoliert wurde und es diese Störungsspannung wäre, aufgrund derer die Rückkopplungen ablaufen, würde die Analogie enger sein.

Um zu verstehen, warum die Begutachter das alles so sehen, wie sie es sehen, wollen wir uns die offizielle Definition des IPCC einer „Klima-Rückkopplung“ in Erinnerung rufen (IPCC, 2013, glossary, p. 1450):

Man beachte, dass die Begriffe „gestört (perturbed)” oder “Störung (perturbation)” allein in diesem kurzen und aus Berechnung gestrafften Definition fünf mal auftauchen. Zeichnen wir einmal das Blockdiagramm des variierenden Rückkopplungsscheife (feedback loop), wie ihn sich die offizielle Klimatologie vorstellt:

Im gesamten Diagramm ist hier kaum eine absolute Größe zu finden. Was ist also los? Nun, die normale Rückkopplungssystem  Gleichung der offiziellen Klimatologie ergibt, dass die Änderung der Gleichgewichts-Temperatur gleich ist der Summe der Änderung der Referenztemperatur und dem Produkt aus Rückkopplungs-Verstärkungs-Faktor und der Änderung der Gleichgewichts-Temperatur.

Nun ist die abgewandelte Gleichung der Klimatologie eine perfekt valide Gleichung. Im Wesentlichen repräsentiert sie die Differenz zwischen zwei aufeinanderfolgenden Beispielen der Mainstream-Gleichung der Regelungs-Theorie, welche feststellt, dass die Gleichgewichts-Temperatur gleich ist der Summe der Änderung der Referenztemperatur und dem Produkt aus Rückkopplungs-Faktor und der Änderung der Gleichgewichts-Temperatur.

Aber die abgewandelte Gleichung ist unbrauchbar zum Auffinden von Gleichgewichts-Sensitivitäten, weil man sie nicht zuverlässig ableiten kann aus dem Heiligen Gral der Studien bzgl. globaler Erwärmung – nämlich dem Rückkopplung-Verstärkungsfaktor, welcher das Verhältnis ist zwischen Gleichgewichts- und Referenz-Temperatur.

In unserem Falle hier ist jedoch nur erforderlich, das zu beobachten, da die abgewandelte Gleichung der Klimatologie eine valide Gleichung ist ebenso wie die Mainstream Gleichung der Regelungs-Theorie, aus der die abgewandelte Gleichung abgeleitet ist.

Wir wollen die offizielle Definition einer „Klima-Rückkopplung“ wie folgt korrigieren:

Positive Rückkopplung in dynamischen Systemen verstärkt das Ausgangssignal. Negative Rückkopplung schwächt es ab. Bzgl. Klima ist das Eingangssignal die globale mittlere Gleichgewichts-Temperatur Tq nach Einwirkung von Rückkopplung. Die Rückkopplungs-Reaktion fTq konstituiert die gesamte Differenz Tq – Tr zwischen Gleichgewichts- und Referenz-Temperaturen, so dass der Rückkopplungsfaktor f, also der Bruchteil der Gleichgewichts-Temperatur, der die Rückkopplungs-Reaktion konstituiert, gleich ist 1 – Tr/Tq. Der System Verstärkungsfaktor A ist gleich Tq/Tr, d. h. (1 – f)-1“.

Man beachte als Nebeneffekt, dass die Rückkopplungs-Schleifen-Diagramme (a) vereinfachend sind zu den System-Versärkungs-Blockdiagrammen (b) sind. Das bedeutet, dass man alles, was man braucht, das Auffinden des System-Versärkungs-Faktors A für jedes gegebene Jahr ist. Das ist dann die Referenz-Temperatur (vor Rückkopplung) und die gemessene Gleichgewichts-Temperatur (nach Rückkopplung) in jenem Jahr. Man muss nicht den Wert irgendeiner individuellen Rückkopplung kennen.

Test-Läufe sind ja gut und schön, zeigen aber einfach nur, dass man Systeme konstruieren kann, für welche die eindimensionalen Energie-Gleichgewichts-Gleichungen genau wahr sind. Darin ist keine Information enthalten, um zu sagen, ob diese Modelle relevant sind hinsichtlich des realen Klimas“.

Falls die Rückkopplungs-Mathematik, welche sich die offizielle Klimatologie aus der Regelungs-Theorie entliehen hat, so unanwendbar ist wie der Begutachter sagt, dann gibt es keine legitime Grundlage für den derzeitigen irrigen Glauben der Klimatologie, dass Rückkopplungs-Reaktionen verantwortlich sind für mindestens zwei Drittel der Gleichgewichts-Sensitivität. Studie für Studie (z. B. Hansen 1984, Schlesinger 1985, Bony 2006, Roe 2009) wendet Rückkopplungs-Mathematik an mit dem expliziten Hinweis auf Bode. Aber diese und gleichartige Studien verwenden Bode auf eine Art und Weise, welche die genaue Ableitung des System-Versärkungs-Faktors verhindert. Im IPCC-Bericht 2013 taucht das Wort „Rückkopplung“ (feedback) über 1000 mal auf.

Diese und zahlreiche andere Autoren haben akzeptiert, dass die Rückkopplungs-Mathematik relevant ist zur Ableitung der Gleichgewichts-Temperatur. Auch richtig: Weil die Gleichgewichts-Temperatur höher liegt als die Referenz-Temperatur und die Rückkopplungs-Reaktion die gesamte Differenz zwischen beiden konstituiert.

Es ist interessant zu sehen, wie bereitwillig die Begutachter die „settled Science“ verwerfen, welche seit Jahrzehnten durch die Literatur geistert, wann immer sie diese unbequem finden.

Die von der Klimawissenschaft verwendete Energie-Gleichgewichts-Gleichung ist nichts als eine erweiterte Taylor-Reihe der Differenz zwischen dem globalen mittleren Energie-Ungleichgewicht an der Obergrenze der Atmosphäre und dem Strahlungsantrieb. Darum taucht die Emissions-Temperatur in der null-dimensionalen Energie-Gleichgewichts-Gleichung nicht auf. Ich kann kein dem entgegen stehendes Argument erkennen, welche dieser Interpretation der Gleichung widerspricht.

Da die abgewandelte Gleichung der Klimatologie eine valide Gleichung ist, gibt es nichts, was an dieser selbst falsch ist. Sie ist valide abgeleitet aus der Energie-Gleichgewichts-Gleichung, und die Tatsache, dass sie abgeleitet ist via einer leading order-Erweiterung der Taylor-Reihe, widerspricht in keiner Weise unserem Argument: weil eine Erweiterung einer Taylor-Reihe lediglich ein Mechanismus ist, um der Form einer Kurve über einen bestimmten Punkt Ausdruck zu verleihen.

Aber wenn man den Sonnenschein-Term außen vor lässt, ist es unmöglich, den System-Versärkungs-Faktors akkurat aus der abgewandelten Gleichung abzuleiten.

Nichts bei der Ableitung der abgewandelten Gleichung der Energie-Gleichgewichts-Gleichung an der Obergrenze der Atmosphäre sagt uns irgendetwas über die Größenordnung des System-Versärkungs-Faktors. Aus genau diesem Grunde haben die Klimamodellierer Jahrzehnte damit zugebracht, vergeblich zu versuchen, das Intervall von Charney-Sensitivitäten zu begrenzen, welches im IPCC-Bericht (2013) (1,5 bis 4,5) K ausmachte, also genau wie vor vier Jahrzehnten in Charney (1979).

Die Autoren würden besser daran tun, sich hinsichtlich der Literatur zu informieren, welche die Linearität von Rückkopplungen evaluiert.

Jawohl, einige Rückkopplungs-Reaktionen sind nicht linear. Wasserdampf ist ein primäres Beispiel. Wenn sich der Raum, den die Atmosphäre einnimmt, erwärmt, kann sie 7% mehr Wasserdampf pro Kelvin aufnehmen. Und tatsächlich ist genau das nahe der Erdoberfläche im 1000 hPa-Niveau der Fall:

Im 600-hPa-Niveau jedoch gibt es keine Zunahme der spezifischen Feuchtigkeit mit Erwärmung. Und in der entscheidenden mitteltroposphärischen Höhe von 300 hPa geht die spezifische Feuchtigkeit zurück. Warum ist das bedeutsam? Weil die offizielle Klimatologie alle individuellen Rückkopplungen außer Wasserdampf als sich umfassend selbst auslöschend betrachtet. Es ist allein die Wasserdampf-Rückkopplung, welche den Vorwand für die Aussage liefert, dass wegen der Rückkopplungen die Gleichgewichts-Erwärmung drei bis vier, ja bis zu zehn mal größer ist als die Referenz-Erwärmung.

Und doch liegt die einzige Höhe, in der die prophezeite Rate der Zunahme der spezifischen Feuchtigkeit die Realität spiegelt, sehr nahe der Oberfläche, wo Harde (2017) zufolge die Spektrallinien von Wasserdampf nahezu gesättigt sind.

Man betrachte Abbildung 9.1c im IPCC-Bericht 2007. Dort wird der prophezeite mitteltroposphärische „Hot Spot“ – den so zu nennen ich die Ehre hatte – über den Tropen in der Art und Weise dargestellt, die uns inzwischen sattsam bekannt ist: in grellen Farben:

So viel zu den Prophezeiungen. Ich könnte Dutzende weitere ähnliche Abbildungen von verschiedenen Modellen der allgemeinen Zirkulation zeigen. In Wirklichkeit jedoch ist der prophezeite „Hot Spot“ auffällig infolge seines kompletten Fehlens:

Nun erzeugte das Klimawandel-Wissenschaftsprogramm der USA seine Daten der realen Welt, in denen ein Jahr, bevor das IPCC auf seiner falschen Behauptung beharrte, dass der „Hot Spot“ existiert, nicht einmal ansatzweise ein solcher erkennbar war. Und warum sollte er existieren? Weil die spezifische Feuchtigkeit, die hätte zunehmen sollen, um die prophezeite schnellere Erwärmung als an der Oberfläche zu erreichen, in Wirklichkeit abgenommen hat.

Mit unserem Verfahren, den Rückkopplungs-System-Versärkungs-Faktors zu finden, muss man überhaupt nichts wissen über individuelle Rückkopplungen. Alles, was man braucht, ist die Referenz-Temperatur (vor Rückkopplung) und die Gleichgewichts-Temperatur (nach Rückkopplung) in irgendeinem gegebenen Jahr.

Und um herauszufinden, ob Nicht-Linearitäten bei individuellen Rückkopplungen den System-Versärkungs-Faktors mit der Zeit und mit der Temperatur variieren lassen, muss man lediglich diesen System-Versärkungs-Faktors für zwei verschiedene Jahre finden – den einen kurz vor Beginn der industriellen Ära und einen nahe deren Ende. Also haben wir genau das getan. Und wir ließen sogar das (möglicherweise imaginäre) „Strahlungs-Ungleichgewicht“ zu, welche die menschengemachte Erwärmung bis heute um etwa ein Viertel verzögert haben könnte.

Sowohl im Jahre 1850 als auch im Jahre 2011 betrug der System-Versärkungs-Faktors auf drei Dezimalstellen genau 1,129. Selbst in der dritten Dezimalstelle hat er sich nicht verändert. Er hat sich nicht verändert, weil die kombinierte Temperatur von der Sonne und von nicht kondensierenden Treibhausgasen der vorindustriellen Ära 375 mal größer war als die Referenz-Sensitivität von 0,68 K zwischen jenen beiden Jahren. Nichtlinearität? Schmonlinearity.

Die Tatsache, dass Rückkopplungen, ordentlich aus den Modellen berechnet, die richtige Bandbreite der Klimasensitivität in den Modelle angeben, sollte die Autoren nachdenklich gemacht haben hinsichtlich ihrer Überzeugung, dass sie (in ihrer Analyse) fundamental fehlerhaft ist“.

Und dies, verehrter Leser, ist unser alter Freund in dem Zirkelschluss, nämlich dem argumentum ad petitionem principii [d. h. eine Behauptung wird durch Aussagen begründet wird, welche die zu beweisende Behauptung schon als wahr voraussetzen. Mehr. Anm. d. Übers.], einem der paar dutzend am meisten verbreiteten Trugschlüsse. Aus diesem Trugschluss könnte man höchstens als einzige valide Schlussfolgerung ziehen, dass der Eindringling [perpetrator] unzureichend gebildet ist, um es besser zu wissen.

Um die Brauchbarkeit der einfachen System-Verstärkungs-Gleichung zu zeigen bei der Untersuchung von Gleichgewichts-Sensitivitäten haben wir die von der Klimatologie abgewandelte Gleichung herangezogen und gezeigt, dass bei Anwendung der Bandbreite von Rückkopplungs-Faktoren, welche von Vial et al. (2013) aus den Modellen abgeleitet worden waren, das veröffentlichte Intervall der Gleichgewichts-Sensitivitäten herauskommen würde. Aber dieses Vorgehen sagt uns nichts über den korrekten Wert des Rückkopplungs-Faktors oder dessen nahen Verwandten, den System-Versärkungs-Faktors Um die korrekten Werte dieser Variablen abzuleiten, muss man aus dem Fenster schauen und erkennen, dass die Sonne scheint. Und man muss angemessen dieser Tatsache Rechnung tragen, indem man den Normalsystemverstärkung in die Berechnungen eingehen lässt.

Die Sensitivität jedweden Klimamodells ist so, wie sie ist – sie kann sich nicht ändern durch irgendeine Nach-Analyse von deren Rückkopplungen. In einem Modell wird der CO2-Gehalt verdoppelt, die Berechnung das Strahlungs-Transfers verändert, und Temperaturen, Wasserdampf, Zirkulation, Wolken usw. ändern sich. Das simulierte Klimasystem stabilisiert sich eventuell und die daraus resultierende Gesamtänderung der Temperatur ist die Sensitivität jenes Modells.

Und genau das ist der fundamentale relevante Trugschluss, bekannt als das Strohmann-Argument. Und zwar weil wir keinerlei Nach-Analyse durchgeführt haben von irgendwelchen Modell-Rückkopplungen. Anstatt das zum Scheitern verurteilte von-unten-nach-oben-Verfahren der Modelle zu übernehmen, um die Gleichgewichts-Sensitivität abzuleiten mittels Erratens der Werte irgendwelcher Rückkopplungen, haben wir das weitaus einfachere und robustere von-oben-nach-unten-Verfahren angewendet, um Referenz- und Gleichgewichts-Temperatur für zwei unterschiedliche Jahre in der industriellen Ära zu finden. Dabei haben wir entdeckt, dass die aus diesen Werten abgeleiteten System-Versärkungs-Faktors die gleichen waren. Wir haben den System-Versärkungs-Faktorsauf die Referenz-Sensitivität eines verdoppelten CO2-Gehaltes angewendet und über alle Zweifel erhaben gezeigt, dass die Gleichgewichts-Sensitivität bei doppeltem CO2-Gehalt lediglich 1,17 K beträgt, plus/minus einem Zehntel Kelvin.

Im Grunde sagt der Begutachter, dass die Modelle richtig sein müssen. Nun, wie aufwändig diese auch sind, sie haben unrecht. Sie sind schlicht und ergreifend falsch, wie unsere Analyse gezeigt hat.

Es werden keine physikalischen Argumente angeführt, warum die Sensitivität so gering sein soll, und diese einfach Schätzung als plausibel zu akzeptieren würde bedeuten, dass man sämtliche früheren Arbeiten von Wissenschaftlern bzgl. des Verständnisses der Physik des Klimawandels zurückweisen müsse, von denen viele jenseits aller Zweifel bewiesen sind. Die hier vorgelegte Analyse ist sowohl rudimentär als auch fundamental falsch, und ich kann deren Veröffentlichung in einem seriösen Journal nicht empfehlen.

Man betrachte noch einmal die Analyse der Wasserdampf-Rückkopplung oben. Die Größenordnung jener Rückkopplung ist nicht „jenseits aller Zweifel bewiesen“: sie ist jenseits aller Zweifel widerlegt worden. Man betrachte beispielsweise die faszinierende Graphik von Dr. John Christie der prophezeiten mitteltroposphärischen Temperaturänderung über den Tropen in 73 Modellen von 1979 bis 2012. Alle 73 Modelle simulierten eine Erwärmung mit einer mittleren Rate, die etwa vier mal höher war als die beobachtete Erwärmung. Kein einziges Modell zeigt eine geringere als die beobachtete Rate:

Es ist daher sehr wahrscheinlich, dass der Hauptgrund dafür, dass der korrigierte Wert des system-gain-Faktors und damit die Gleichgewichts-Sensitivität so weit unterhalb aller offiziellen Schätzungen liegt, das Überkochen des Wasserdampf-Puddings in den Modellen ist. Aber wir brauchen nicht zu wissen, was die Modelle falsch berechnet haben – es reicht aufzuzeigen, dass sie falsch sind – was unserer Einreichung zufolge unwiderlegbar ist.

In einer Hinsicht hat der Begutachter jedoch recht. Wir weisen in der Tat alle Arbeiten von Wissenschaftlern zur Ableitung der Gleichgewichts-Sensitivität zurück, einfach weil diese Arbeiten – wenngleich ehrlich und gewissenhaft durchgeführt – inkompatibel sind mit den richtigen Ergebnissen, zu welchen wir mit einem weit einfacheren und zuverlässigeren Verfahren gekommen sind.

Man betrachte noch einmal den Rückkopplungs-Faktor oben, und wundere sich über das, was sie gemacht haben. Die perturbation des Klimaantriebs, welchen sie zur Abschätzung der Rückkopplungen heranziehen, ist buchstäblich Anknipsen der Sonne. Man beginne mit der Erde bei Null Kelvin. Nun schalte man die Sonne an, verbiete alle Rückkopplungen, und wir bekommen eine Referenz-Temperatur von 255 K. Jetzt lasse man Rückkopplungen wirken, und unserer jetzigen Welt kommen wir tatsächlich auf eine Gleichgewichts-Temperatur von 287 K.

Vielleicht sind alle Klimatologen Schotten. Es ist nämlich eine große Überraschung für uns, dass immer, wenn wir den Weg nach England einschlagen – oder die Schiffsreise an die Eisküste von Grönland oder einen Flug nach irgendwohin – wir zu unserer Freude feststellen, dass das Land oftmals in die Strahlung eines großen, hellen, warmen gelben Objekts am Himmel getaucht ist. Wir sehen davon nicht so viel im Gaidhealtachd.

Wir müssen die Sonne nicht anknipsen. Weil sie nämlich dank der Großzügigkeit von Divine Providence bereits für uns angeknipst ist (außer in Schottland), und die Engel – in Gestalt der intergalaktischen Mechaniker [grease-monkeys], welche sich das Universum so entfalten lassen, wie es das tut – leisten einen ausgezeichneten Job hinsichtlich Wartung und Fürsorge.

Denn die Sonne scheint nun mal. Liegen wir falsch, wenn wir diese Tatsache berücksichtigen? Wir glauben nicht. Die heute wirksamen Rückkopplungs-Prozesse scheren sich nicht darum, welche Rückkopplungs-Prozesse bei Null Kelvin agierten. Sie reagieren einfach auf die Temperatur, die sie vorfinden. Und das bedeutet, dass es besser ist, die Tatsache zu berücksichtigen, dass die Sonne scheint, als sie zu ignorieren.

Es waren nicht nur die vom begutachtenden Journal nominierten Begutachter, welche unsere Studie begutachtet hatten. Auf irgendwelchen Wegen erreichte eine Kopie unserer Studie den Vizekanzler der University of East Anglia, welcher sofort nach Lektüre der Studie sämtliche 65 Professoren und Doktoren seiner Fakultät Umweltwissenschaften zusammen trommelte und ihnen zurief:

Moncktons Studie ist eine Katastrophe für uns. Falls die allgemeine Öffentlichkeit jemals davon hören würde, dann würde die Hölle losbrechen!“

Er ordnete an, dass die Fakultät alles zurückstellen und sich nur der Widerlegung der Studie widmen sollten – welche zu jener Zeit 2000 Wörter lang war und jetzt in voller Länge 6000 Wörter umfasst. Er leugnete später, dass dieses Treffen stattgefunden hatte, aber wir hörten davon seitens eines Teilnehmers an dem Treffen.

Und schließlich gibt es einen Kommentar von einem notorisch jähzornigen skeptischen Blogger (natürlich nicht unser genialer Gastgeber hier):

Nein, wir werden Moncktons Studie hier nicht besprechen. Wir machen es uns nicht so einfach!“

Was ich in Mathematik und Physik gelernt habe, führte mich zu der Vorstellung – die vielleicht falsch ist – dass es viel besser ist, mit einem einfachen Verfahren ein korrektes Ergebnis abzuleiten als mit der Anwendung eines heillos komplexen Modells ein Ergebnis abzuleiten, welches sich nicht zuletzt aufgrund der Komplexität als falsch herausstellt.

Noch ein paar abschließende Fragen für all jene, die die Geduld hatten, bis hierher zu lesen. Haben die Begutachter recht, oder haben wir recht? Und würden Sie gerne von Entwicklungen wie diesem Beitrag auf dem Laufenden bleiben? Die Studie bleibt immer noch zur Begutachtung draußen, und in angemessener Zeit werden wir sehen, ob sie zur Veröffentlichung genehmigt ist. Wir wurden auch eingeladen, ein Buch zuschreiben, in welchem wir unsere Ergebnisse zusammenfassen und beschreiben, wie wir zu eben diesen Ergebnissen gekommen sind.

Und wir haben dem IPCC eine formelle Notiz zukommen lassen, dass alle seine Zustandsberichte gravierend falsch sind. Obwohl wir minuziös dem eigenen, vom IPCC festgelegten Protokoll der Einreichung von Fehlern gefolgt sind, haben wir bisher vom Sekretariat noch nicht den Erhalt der Notiz bestätigt bekommen, obwohl die IPCC-Regeln genau dies vorschreiben. Daher übergeben wir den Fall dem Bureau de l’Escroquerie, dem Swiss Fraud Office via dem Schweizer Botschafter in England, also in der Nation, wo das IPCC sein Hauptquartier hat.

Eine 45 Minuten lange Youtube-Präsentation, in welcher ich unser Ergebnis erkläre, gibt es hier. Ich bin John Charleston sehr dankbar, dass er diesen meinen Vortrag in seinem eigenen Studio gefilmt und bearbeitet hat.

Und hier ist die Einzelfolie aus meinem Vortrag, den ich nächste Woche am Camp Constitution in Connecticut halte. Sie bringt das gesamte Theater der globalen Erwärmung zu einem Ende, und niemand trauert dem nach:

Link: https://wattsupwiththat.com/2018/07/30/climatologys-startling-error-an-update/
Übersetzt von Chris Frey EIKE