Erderwärmung: James Hansen hat sich geirrt

Im Jahre 1988, vor genau 30 Jahren, erschien der NASA-Wissenschaftler James Hansen in einer Anhörung zur globalen Erwärmung vor dem US-Kongress. Die Anhörung wurde von Al Gore organisiert und sollte verschiedene Szenarien vorstellen, nach denen sich der Planet entwickeln könnte. Damals sagte Hansen selbstbewusst eine Erwärmung von 1 °C voraus.

In Wahrheit hatte Hansen drei Szenarios vorgelegt: A: „business as usual“ mit weiter schnell steigenden Karbonemissionen und der Erhöhung um ein Grad. B war das „most plausible“-Modell, bei konstanten Emissionen auf dem Niveau von 1988, die die Welt bis heute um 0,7 Grad erwärmt hätten. Das Modell C ging von steigenden Emissionen von 1988 bis 2000 und einer anschließenden Stabilisierung aus. Das sollte zu einer Erwärmung bis heute von 0,3 Grad führen – ein Ergebnis, dessen Erreichen er damals als höchst unwahrscheinlich („highly unlikely“) bezeichnete.

Hansens Szenarien wurden im Großen und Ganzen vom IPCC der UN übernommen. Was wurde nun aus den Prophezeiungen Hansens, dem Hohepriester der Erderwärmungsangst, und seiner Anhänger?
Heute ist die Welt durchschnittlich 0,3 Grad wärmer als im Jahr von Hansens Szenarios. Das heißt kurz gefaßt, bezüglich der Temperatur ist Szenario C eingetreten, das ihm damals selbst am unwahrscheinlichsten vorkam.

Dazu kam es jedoch nicht, weil die CO2-Emissionen 2000 ab eingefroren wurden. Ganz im Gegenteil stiegen diese immer weiter an. Das heißt, die Bedingung für den von ihm im Szenario C vorhergesagten Temperaturanstieg lag überhaupt nicht vor, sondern mehr oder weniger die für den Temperaturanstieg des Szenario A angegebene Bedingung.
Daraus folgt, daß Hansens Vorstellungen darüber, was die globale Durchschnittstemperatur antreibt, falsch waren und noch immer sind. Denn er glaubt, Kohlendioxid ist der Temperaturregler der Atmosphäre. Schon 1988 sollte diese Idee jedem mit auch nur einen Funken gesunden Menschenverstand als das aufgefallen sein, was es ist: Nonsens.

Kohlendioxid konstituiert vier Hundertstel eines Prozents der Atmosphäre. Das allein schon macht es zu einem wenig wichtigen Einflußfaktor. Doch ist an der ganzen Geschichte wesentlich mehr. Denn die Atmosphäre selbst bildet nur einen kleinen Teil des globalen Klimasystems. Dazu kommen noch Hydrosphäre, Kryosphäre, die obere Lithosphäre und die Biosphäre sowie solare und kosmische Strahlung und der Vulkanismus. Das atmosphärische Kohlendioxid, auf dessen maßgeblicher Rolle Hansen besteht, entspricht nur rund 0,00015 Prozent der kombinierten Atmosphäre und Ozeane (solche Zahlen haben etwas Willkürliches, bilden jedoch die Proportionen recht gut ab).
Zu theoretisieren, daß 15 Zehnmillionstel eines Gesamtsystems die Temperatur dieses Systems oder eines großen Teils davon bestimmen könnten, ist grober Unfug. Was uns überraschen sollte ist nicht, daß sich die Idee als falsch herausstellte, sondern dass sie verinnerlicht wurde und dass es bei vielen zum Teil hochintelligenten Wissenschaftlern so lange dauert, sie angesichts klarer empirischer Fehler aufzugeben.

Inzwischen liegen dazu einige Stellungnahmen aus amerikanischen Medien vor: So berichtet das Western Journal: „Der Ökonom Ross McKitrick und der Klimawissenschaftler John Christie fanden heraus, dass die beobachteten Trends globaler Erwärmung am unteren Ende dessen rangieren, was Hansen dem Kongress bei einer vom damaligen Kongress-Mitglied organisierten Anhörung sagte.“ Sie selbst schrieben: „Klima-Modellierer werden bestreiten, dass diese Erklärung nicht zur Theorie über Klimawandel passt. Aber genau das waren die von Hansen beschriebenen Theorien, und sie passen nicht zu den Daten. Unter dem Strich: in die Modelle eingebettete Klimawissenschaft ist alles andere als ,settled’“.

Im Wall Street Journal kommentierten im Juni Patrick Michaels und Ryan Maue vom Cato Institute: „Die Lufttemperaturen verhalten sich so, als ob wir die Kohlendioxid-Emissionen vor 18 Jahren aufgefangen hätten, welche für den verstärkten Treibhauseffekt verantwortlich sind. Aber das haben wir nicht! Und nicht nur Mr. Hansen liegt hier völlig falsch“. Dieses Op-Ed setzte hinsichtlich der Genauigkeit von Hansens Prophezeiungen eine wilde Debatte in Gang. Erneut wurde in vielen Medienberichten nach Interviews mit Klimawissenschaftlern im Jahre 1988 behauptet, dass sie ziemlich korrekt waren, obwohl der so genannte „Gottvater“ der globalen Erwärmung sogar bei AP erklärt hatte: „Ich will in dieser Sache nicht recht haben“.

Einige Wissenschaftler verschoben die Torpfosten und argumentierten, dass er zumindest hinsichtlich des Strahlungsantriebs durch Treibhausgas-Emissionen richtig lag: „Alles in allem hat Hansens Modell die Relation zwischen zunehmenden Treibhausgasen (und anderen Klima-Antrieben) und der globalen Erwärmung absolut korrekt abgebildet. Was er nicht richtig eingeschätzt hatte (was auch niemand erwarten kann) ist, wie sich die Emissionen in Zukunft ändern werden. – Zeke Hausfather (@hausfath) 22. Juni 2018“.

Allerdings berücksichtigte die Analyse von McKitrick und Christy derartige Widersprüche. Sie wiesen darauf hin, dass Hansens Prophezeiungen der Kohlendioxid-Emissionen tatsächlich ziemlich genau den Beobachtungen entsprachen – allein es gab kaum eine Erwärmung in den Medien: „Es stellte sich heraus, dass Hansens Projektion des worst-case-Szenarios der globalen Erwärmung, bekannt unter der Bezeichnung Scenario B, nur Kohlendioxid-Emissionen berücksichtigt, aber immer noch zu viel Erwärmung zeigt. Was wirklich von Belang ist, ist der Trend über das Vorhersage-Intervall, und hier treten die Probleme offen hervor“. Hansens Schlussfolgerung, schrieben sie, „übertreibt die Erwärmung signifikant“.

 
http://dailycaller.com/2018/06/25/james-hansen-was-wrong-about-global-warming/
 
Übersetzt von Chris Frey EIKE
Anmerkung: Aufgrund von Hinweisen unserer Leser wurde dieser Artikel am 10. August 2018 überarbeitet.
 




Zum Bedarf an Wasser für Pump­speicher­kraftwerke

  1. Zur weiteren Versorgung bei Windstille und PV-Ausfall

  2. Zur Glättung der fluktuierenden Leistung der Wind- und Photovoltaikanlagen.

Zu Punkt 1:

Ich rechne mal ohne Wirkungsgrad. Mit Wirkungsgrad wird die Katastrophe nur größer.

Ich gehe mal von einer maximalen Netzlast von 80 GW aus, die im Notfall aus Pumpspeicherwerken mit 60 GW und 20 GW aus konventionellen Kraftwerken für eine Zeit von 21 Tagen bereitgestellt werden soll. Als Beispiel für ein Pumpspeicherwerk nehme ich mal das Werk Goldisthal in Thüringen. Das hat ein Nutzwasservolumen von 12.000.000 m³ und kann damit für 8 Stunden eine Leistung von 1 GW bereitstellen. Wir brauchen aber 60 dieser Anlagen um Deutschland mit 60 GW zu versorgen. Damit können wir dann 8 Stunden in Ruhe weitermachen. Wenn das Wasser der 60 Oberbecken dann abgearbeitet ist, sind insgesamt 60 * 12.000.000 m³ = 720.000.000 m³ Wasser geflossen. Der Tag hat aber 24 Stunden. Also müssen pro Tag nicht 60 sondern 180 Pumpspeicherwerke zur Verfügung stehen. Dafür benötigen wir dann 2.160.000.000 m³ Wasser. Es sollen aber 21 Tage überstanden werden können, also 21 mal soviel. Das bedeutet den Bau von insgesamt 21 * 180 Pumpspeicherwerken. Das sind dann 3780 Werke mit 45.360.000.000 m³ Wasservorrat im Unterbecken. Diese Wassermenge muss also dauerhaft in den Speichern zur Verfügung stehen, um im Notfall eingesetzt zu werden. Es handelt sich um 3780 Pumpspeicherwerke die Geld kosten aber kein Geld einbringen. Diese Werke stehen für die Vergleichmäßigung der Erzeugung aus volatilen Quellen nicht zur Verfügung. Die müssen noch zusätzlich gebaut werden.

Wer kann sich jetzt vorstellen wie viel Wasser das ist?

Ich habe mal die Wasserführung der großen deutschen Ströme zur Nordsee in Wikipedia nachgelesen :

Rhein 2900 m³/sec , Elbe 870 m³/sec, Weser 327 m³/sec mittlere Wasserführung

Das sind dann zusammen 4097 m³/sec oder 353.980.800 m³/Tag Die Pumpspeicherwerke benötigen also ungefähr die Wasserführung von 128 Tagen der Flüsse, die Deutschland zur Nordsee entwässern, um die Unterbecken zu füllen..

Wie bekommen wir das Wasser aber in die Oberbecken der Pumpspeicherwerke. Dazu müssen wir die gesamte Ökostromproduktion von 21 Tagen aufwenden, wenn denn Wind voll wehen würde. Also 21 Tage kein Strom in Deutschland. Die Sache muss ja fix gehen, denn die nächste Flaute kann ja schon morgen sein.

Jetzt wo scheinbar alles klar ist kommt die entscheidende Frage. Wo kriegen wir das Wasser für die Erstfüllung der Unterbecken her? Wir brauchen für 3780 Unterbecken mit je 12.000.000 m³ Nutzvolumen ja 45.360.000.000 m³ Wasser. Überall da, wo die Unterbecken sind, ist die Wasserführung der Flüsse, es sind Gebirgsbäche, sehr gering und von dem Wasser kann man nur einen Teil abzweigen.

Ich überlasse es dem Leser dieser Arbeit sich vorzustellen, wie das gehen soll ohne die Flüsse und Bäche im Gebirge zu zerstören. Mal abgesehen von der Zerstörung der Mittelgebirge durch 3780 Pumpspeicherwerke. An die Kosten ist ja noch nicht mal gedacht worden.

Ganz schlaue Leute werden jetzt auf die Weiterentwicklung von Batterien hinweisen. Dazu soll ja nur Forschung notwendig sein. Die gibt es schon seit mehr als 100 Jahren ohne den gewünschten Erfolg. Aber vielleicht müssen wir dann ganz Deutschland 10 Meter hoch mit Batterien vollstellen. Auch damit wäre Deutschland endgültig weltweit Vorreiter in Sachen Dummheit und Paranoia.

Zu Punkt 2:

Um die fluktuierende Stromerzeugung aus Windkraft zu glätten, also in eine nahezu konstante Netzeinspeisung zu wandeln sind Speicher notwendig, die bei Überleistung speichern und aus denen bei Unterleistung elektrische Leistung abgegeben wird. Dazu wird ein Speichermanagement gebraucht, das die Speicheranlagen steuert. In der folgenden Grafik ist die Erzeugungsleistung eines Monats aus Wind dargestellt.

Die Basis sind die Viertelstundenwerte der Leistungsmessung, die die Windrauhigkeit (Böen) ausblendet. Die Auswirkungen der Windrauigkeit auf die Netzfrequenz muss von drehzahlregelbaren rotierenden konventionellen Generatoren ausgeglichen werden. Windkraft ist, ebenso wie Photovoltaik, dazu nicht in der Lage. Windanlagen müssen immer die aus dem Wind gewonnene Leistung unmittelbar ins Netz einspeisen. Wenn das nicht geht, folgt die Notabschaltung oder die Windturbine verliert ihre Flügel.

Zum Betrieb einer solchen Anlage ist ein Speichermanager (SM) erforderlich. Hier ist ein Beispiel. Er ermittelt die erforderlichen Betriebswerte für den nächsten Tag, den 1. März. 2012

Der Speichermanager (SM) ermittelt aus den Viertelstundenwerten der Winderzeugerleistung des letzten Monats den Mittelwert, als rote Linie dargestellt. Aus den gelben Flächen ermittelt der SM die maximale Erzeugerleistung der Speicherkraftwerke am 4.Februar. Diesen Wert addiert er auf den Mittelwert und erhält damit den Grenzwert der maximal zulässigen Windleistung (graue Linie), bis zu der eingespeichert wird. Windleistung oberhalb dieses Grenzwertes muss abgeschaltet werden, also WKA abschalten. Dadurch wird erreicht, dass die Auslegung der Leistung für Pump- und Turbinenbetrieb der PSKW ungefähr gleich groß bleibt, was für Pumpturbinen sehr günstig ist. Spitzenleistungen (rote Flächen) zu speichern kostet viel Geld, kommt aber selten vor. Die werden dem Erzeuger aber auch honoriert.

Es ergeben sich drei Bereiche :

  1. Unter der roten Linie ist die direkt ins Netz eingespeiste Windleistung (grün) plus der Leistung der PSKW-Generatoren (gelb)

  2. Zwischen der roten und der grauen Linie ist die Leistung der PSKW-Pumpen (grau)

  3. Über der grauen Linie ist die abgeschaltete Windleistung (rot)

Man braucht jetzt für die Vorausschau auf den 1.März die meteorologische Windvoraussage für diesen Tag. Dann kann man, anhand der Daten des vergangenen Tages, Woche oder Monat, die voraus geschauten Grenzwerte ermitteln und danach die Anlagen fahren.

  1. rote Linie: Beginn der Speicherung von Windarbeit

  2. graue Linie: Beginn der Abschaltung von WKA.

Aus der Grafik, die ja ein Blick in die Vergangenheit ist, kann man weitere Fakten für die Aufgabe der Glättung ableiten :

1. Erzeugung Wind direkt plus Generatoren 4524 GWh

2. Generatorarbeit (geschätzte gelbe Fläche 30%) 1357 GWh

2a. Pumparbeit (geschätzte graue Fläche 30%) 1357 GWh

2b. Abgeschaltete Windarbeit (geschätzte rote Fläche 10% 452 GWh

3.Maximale Generatorleistung am 4.Februar 6,3 GW

Nun wird man einwenden, dass man ja gespeicherten Windstrom nicht in die Vergangenheit verlegen kann. Deshalb mache ich mit der Grafik einen horizontalen Flip und jetzt kann man gespeicherten Windstrom in die Zukunft verlegen. Es ist ja nur zur Veranschaulichung der Funktion eines Speichermanagers. Die grauen Flächen, oberhalb der roten Linie werden mit Turbinen in gelbe Flächen unterhalb der roten Linie gewandelt.

Jetzt kann man grob abschätzen wie viele PSKW vom Typ Goldisthal für den Betrieb des Monats Februar 2012 benötigt werden. Für die maximale Generator/Pumpleistung von

6,3 GW sind rund sechs Werke erforderlich. Es sind aber 1357 GWh elektrischer Arbeit zu speichern. Goldisthal kann 8 GWh speichern. Also braucht man 169 Werke vom Typ Goldisthal um im Februar über die Runden zu kommen. Es ist nur eine grobe Abschätzung, denn zwischen den Speicherungen gibt es ja auch Ausspeicherungen. Das für die Speicheranlagen ein gigantischer Netzausbau erforderlich ist dürfte klar sein. Wie man aber aus Südaustralien zur Kenntnis nehmen musste, ist eine Versorgung aus Erneuerbaren nur bis zu ca. 35% möglich. Die Anpassung an die geforderte Netzlast muss immer mit drehzahlregelbaren Dampf- oder Wasserkraftwerken erfolgen. Von Wasserkraftwerken sollte man lieber Abstand halten wie der Dammbruch in Laos kürzlich gezeigt hat. Stabilität bedeutet die Frequenz von 50 Hz einzuhalten und keine Netzüberlastungen durch regionale Untererzeugung zuzulassen.

Aus den Fakten des Aufsatzes ist klar zu erkennen, dass ein solches Konzept nicht umsetzbar ist, sondern nur dem paranoiden Kopf von ideologisierten Spinnern entfleucht sein kann. Sonst müsste man ja an Kriminalität denken. Das die Mehrheit der Fachleute schweigt ist schon sehr erstaunlich und das eine Bevölkerung so ungebildet ist und das nicht erkennt, ist nicht zu fassen. Solchen Menschen kann man alles einreden. Das kennt man in Deutschland ja bestens und hat nichts dazu gelernt.

Hier ein Zitat aus dem Werk eines deutschen Kanzlers:

„Man ging dabei von dem sehr richtigen Grundsatze aus, daß in der Größe der Lüge immer ein gewisser Faktor des Geglaubtwerdens liegt, da die breite Masse eines Volkes im tiefsten Grunde ihres Herzens leichter verdorben als bewußt und absichtlich schlecht sein wird, mithin bei der primitiven Einfalt ihres Gemütes einer großen Lüge leichter zum Opfer fällt als einer kleinen, da sie selber ja wohl manchmal im kleinen lügt, jedoch vor zu großen Lügen sich doch zu sehr schämen würde. Eine solche Unwahrheit wird ihr gar nicht in den Kopf kommen, und sie wird an die Möglichkeit einer so ungeheuren Frechheit der infamsten Verdrehung auch bei anderen nicht glauben können, ja selbst bei Aufklärung darüber noch lange zweifeln und schwanken und wenigstens irgendeine Ursache doch noch als wahr annehmen; daher denn auch von der frechsten Lüge immer noch etwas übrig- und hängen bleiben wird – eine Tatsache die alle großen Lügenvereine dieser Welt nur zu genau kennen und deshalb auch niederträchtig zur Anwendung bringen.“

Den Namen schreibe ich nicht. Kann sich ja jeder denken wer das war. Es funktioniert aber immer noch prima.

Michael Treml, Bremen

Über den Autor. Er hat sein ganzes Berufsleben in der Stromerzeugung mit Großkraftwerken, der Fernwärmeerzeugung und Verteilung als technischer Angestelter verbracht und ist jetzt im Ruhestand.




Der grobe Fehler der Klimatologie – eine Aktualisierung

[Anmerkung des Übersetzers: Bei der folgenden Übersetzung ist mir bei einigen Begriffen keine sinnvolle Übersetzung ins Deutsche eingefallen. Diese Begriffe sind kursiv gesetzt. Alle anderen Hervorhebungen sind vom Original übernommen. – Ende Anmerkung]

Hier möchte ich unsere Beweiskette für Laien erklären (weil ich auch genau das bin). Falls man einen detaillierteren Einstieg in die dahinter stehende Physik wünscht, dann findet man den in diesem PDF mit dem Titel error-summary.

Nach einer kurzen Darstellung unserer Argumentation möchte ich nur so zum Spaß die prinzipiellen Einwände der Begutachter einflechten, zusammen mit unseren Antworten darauf. Mögen die Leser entscheiden, ob wir oder die Begutachter richtig liegen.

Wie Klimatologen vergessen, dass die Sonne schien

Klimatologen, die globale Erwärmung zu prophezeien versuchen, haben in ihren Ergüssen den Sonnenschein vergessen. Nach der Korrektur dieses groben physikalischen Fehlers ergab sich die globale Erwärmung nicht zu 2 bis 4,5 K pro CO2-Verdoppelung, wie es die Klimamodelle simulieren. Vielmehr ergab sich ein geringer, langsamer, harmloser und insgesamt vorteilhafter Anstieg von 1,17 K.

Das Climate Model Intercomparison Project (CMIP5: Andrews+ 2012) hatte prophezeit, dass eine Verdoppelung des CO2-Gehaltes der Luft die Welt um 1,04 ±1,5 K erwärmen würde (vor Einwirkung von Rückkopplungen) und 3,37 ±1,3 K nach Berücksichtigung von Rückkopplungen. Das IPCC sagt 3,0 ±1,5 K. Einige Studien (z. B. Murphy 2009) prophezeien sogar Schätzungen bis 10 K pro CO2-Verdoppelung.

Klimatologen liegen falsch, wenn sie die Rückkopplungs-Mathematik aus der Regeungsl-Theorie heranziehen, ohne diese überhaupt verstanden zu haben. Sie wendeten eine abgewandelte Rückkopplungs-System-Verstärkungs-Gleichung an, welche sich allein auf geringe Änderungen der Referenztemperatur vor der Rückkopplung stützt und auf die Gleichgewichts-Temperatur nach der Rückkopplung. Aber in die Grundgleichung, welche sie sich aus der Regelungs-Theorie ausgeliehen haben, gehen absolute Temperaturwerte in Kelvin ein und nicht einfach nur Änderungen der Temperatur.

Ihre abgewandelte Gleichung ist eine valide Gleichung, weil sie die Differenz zwischen zwei Fällen der Grundgleichung konstituiert. Allerdings subtrahierten sie effektiv den Term für die 243,3 K Emissionstemperatur heraus, welche auf der Erde ohne nicht kondensierende Treibhausgase herrschen würde, getrieben durch die Tatsache, dass die Sonne scheint. Gleiches gilt für den Term der Erwärmung um 11,5 K durch vorindustrielle Treibhausgase.

Weil sie diese vitale Information verloren haben, kann ihre abgewandelte Gleichung nicht zuverlässig den wahren System-Verstärkungs-Faktor abbilden, also das Verhältnis der Gleichgewichts- zur Referenz-Temperatur. Stattdessen versuchten sie, den Heiligen Gral aus den Studien zur globalen Erwärmung zu finden, indem sie individuellen Rückkopplungen aus den Computermodell-Ergebnissen nachjagten. Sie suchten nach stumpfen Nadeln im falschen Heuhaufen, obwohl sie doch alles, was sie brauchten bereits hatten (wenn sie es denn nur gewusst hätten).

Messungen und Beobachtungen können uns keinen Aufschluss über die Größenordnungen individueller Rückkopplungen geben, und sie können uns nicht dabei helfen zu unterscheiden zwischen individuellen Rückkopplungen der menschengemachten Erwärmung, welche sie hervorrief.

Fügt man den fehlenden Sonnenschein und die vorindustrielle Treibhausgas-Erwärmung wieder ein, kann jeder den wahren System-Verstärkungs-Faktor berechnen. Die Berechnung geht schnell und ist direkt und genau. Man muss nicht einmal die Größenordnung einer jeden individuellen Rückkopplung kennen. Alles, was man braucht, ist die gesamte Referenztemperatur (vor der Rückkopplung) und die Gleichgewichtstemperatur (nach der Rückkopplung) in irgendeinem ausgewählten Jahr.

Im Jahre 1850 betrug die Referenztemperatur – also die Summe der Erwärmung von 243,3 K durch die Sonne und weiteren 11,5 K durch die nicht kondensierenden Treibhausgase vor der industriellen Revolution – 254,8 K. Die gemessene Gleichgewichtstemperatur betrug 287,5 K (HadCRUT4). Daher beträgt der System-Verstärkungs-Faktor für jenes Jahr 287,5/254,8 oder 1,13.

Aus der Anwendung der abgewandelten Gleichung kann man jedoch in keiner Weise den System-Verstärkungs-Faktor des Jahres 1850 ableiten.

Bis zum Jahr 2011 hatten menschengemachte Einflüsse die Referenztemperatur um 0,68 K auf 255,5 K steigen lassen. Die gemessene Temperatur ist um 0,75 K gestiegen, doch müssen noch weitere 0,27 K aufgrund eines imaginären „Strahlungs-Ungleichgewichtes“ zugelassen werden, die sich noch nicht manifestiert haben. Dies würde die Gleichgewichts-Temperatur um 1,02 K auf 288,5 K steigen lassen. Folglich betrug der System-Verstärkungs-Faktor für das Jahr 2011 288,5/255,5 oder 1,13.

Jener Wert für 2011 ist nun genau der Gleiche wie der im Jahre 1850. Der Grund ist einfach zu erkennen. Die 254,8 K Referenztemperatur des Jahres 1850, welche bei den Summen der Klimatologen außen vor gelassen worden ist, beträgt 375 mal die menschengemachte Referenz-Erwärmung um 0,68K von 1850 bis 2011. Das ist der Grund, warum unsere Einwirkung auf den System-Verstärkungs-Faktor minimal ist.

Die Stabilität des Klimas, die sich nach der Korrektur des groben Fehlers der Klimatologen zeigt, sollte keine Überraschung sein. Seit über 800.000 Jahren hat die globale mittlere Temperatur um kaum mehr als 3 K beiderseits der mittleren Temperatur jenes Zeitraumes variiert, wie aus der Analyse von Luftbläschen in historischem Eis hervorgeht.

Obwohl der Begriff „Rückkopplung“ im jüngsten IPCC-Bericht (2013) über 1000 mal auftaucht, kann die Rückkopplung getrost ignoriert werden; man würde nur einen sehr geringen Fehler erhalten. Der System-Verstärkungs-Faktor kann konstant mit 1,13 angenommen werden. Die von den Klimatologen angenommene Nicht-Linearität in den Rückkopplungen macht da kaum einen Unterschied.

Zieht man die abgewandelte Gleichung heran, würde der System-Verstärkungs-Faktor 1,02 / 0,68 oder 1,50 betragen, und die Gleichgewichts-Erwärmung bei CO2-Verdoppelung würde folglich 1,50 mal größer sein als die Referenz-Erwärmung von 1,04 K als Reaktion auf eine CO2-Verdoppelung, d. h. 1,55 K. Aber selbst dieser Wert ist nur etwa halb so groß wie Schätzung von 3,37 K in den CMIP5-Modellen.

Wendet man jedoch die Grundgleichung an, wäre die wahre Gleichgewichts-Erwärmung bei CO2-Verdoppelung noch geringer und läge beim 1,13-fachen der Referenz-Erwärmung von 1,04 K, d. h. harmlose 1,17 K. Um auf der sicheren Seite zu sein, wurden zehn separate offizielle Schätzungen des menschengemachten Strahlungsantriebs untersucht. In jedem einzelnen Fall betrug die globale Erwärmung bei CO2-Verdoppelung 1,17 K.

Eine statistische Monte-Carlo-Simulation zeigt die wahre Bandbreite der globalen Erwärmung zwischen 1,08 und 1,25 K. Die diesem Ergebnis zugrunde liegende Regelungs-Theorie wurde mit zwei Testläufen verifiziert, einer davon in einem Laboratorium der Regierung.

Klimatologen hatten sich vorgestellt, dass individuelle Temperatur-Rückkopplungen sich selbst aufheben würden, außer für Wasserdampf, der größten Rückkopplung. Mit jedem zusätzlichen K Erwärmung kann die Atmosphäre 7% mehr Wasserdampf aufnehmen. Kann, muss aber nicht. Die meisten Modelle hatten prophezeit, dass falls die Erwärmung vom Menschen verursacht wäre und nur dann sich die Luft höheren Luftschichten über dem Äquator dreimal so stark erwärmen würden wie an der Oberfläche. Und doch ist der Wasserdampfgehalt dort oben rückläufig. Folglich ist der mitteltroposphärische „Hot Spot“ nicht existent.

Unter dem Strich: Globale Erwärmung ist also überhaupt kein Problem. Man genieße den Sonnenschein, den die Klimatologen vergessen haben!

Kommentare der Begutachter und unsere Antworten darauf

Die einfache Einfügung der Emissionstemperatur in die Gleichungen an die Stelle der anthropogenen Erwärmung an der Oberfläche und dann so weitermachen wie zuvor ist eine massive Verletzung des Energieerhaltungssatzes“.

Mit Verlaub, nein! Einer meiner Mitautoren, nämlich John Whitfield, konstruierte einen Testlauf – im Grunde ein Analog-Computer – um die unserer Argumentation zugrunde liegende Regelungs-Theorie zu verifizieren. Es gab mit Sicherheit keine „massive Verletzung des Energieerhaltungssatzes“. Stattdessen bestätigten die Ergebnisse des Testlaufes bei 23 unterschiedlichen Experimenten unser Ergebnis in jeder Hinsicht.

Um dies hieb- und stichfest zu machen, beauftragten wir ein Laboratorium der Regierung, einen Testlauf nach ihrem eigenen Design zu konstruieren und die gleichen 23 Experimente durchzuführen. Die Ergebnisse stimmten mit dem überein, was wir aufgrund der Theorie vorhergesagt hatten, und zwar jeweils bis auf ein Zehntel Kelvin genau. Falls es wirklich eine „massive Verletzung des Energieerhaltungssatzes“ gegeben hätte, wäre diese in den Experimenten sicher zutage getreten.

Abgesehen davon – die Begutachter haben keinerlei Beweise oder Argumente irgendeiner Art hervorgebracht, welche die unsinnige Vermutung rechtfertigen würde, dass unser Verfahren eine „massive Verletzung des Energieerhaltungssatzes“ war.

Anstatt die Störungs- (perturbation)-Temperatur eingehen zu lassen und zu fragen, was die Durchdringung im Energiehaushalt an der Oberfläche der Atmosphäre ist, schaufeln sie ohne physikalische Rechtfertigung die gesamte Temperaturdifferenz von absolut Null in die Gleichung. Das ist blanker Unsinn“.

Die physikalische Rechtfertigung ist Folgende: Rückkopplungs-Prozesse können nicht unterscheiden zwischen einer vorher herrschenden Temperatur und einer Störung jener Temperatur. Sie haben keine Mittel, sich zu entscheiden, ob sie überhaupt nicht auf Erstere reagieren sollen und doch heftig auf Letzteres reagieren sollen. Auch sind diese unbelebten Prozesse nicht mit der Frage befasst, was hätte sein können, wenn die Sonne nicht scheinen würde. Denn die Sonne – ob sie es nun mögen oder nicht – scheint.

Rückkopplungs-Prozesse reagieren einfach auf die Temperatur, die sie vorfinden. Auf dem folgenden Blockdiagramm einer Rückkopplungsschleife (Feedback loop) ist der Grund dafür zu erkennen:

Die Referenz-Temperatur (d. h. die Temperatur vor Einwirkung von Rückkopplungen) geht von links oben ein und ist Eingangssignal für den summierenden Knoten zwischen Eingangs- und Ausgangssignal. Aus diesem Knoten läuft der Anteil der Ausgangstemperatur, repräsentiert durch die Rückkopplungs-Reaktion, um die Rückkopplungsschleife herum und zurück zum Knoten zwischen Eingangs- und Ausgangssignal. Dort wird sie der ursprünglichen Referenz-Temperatur hinzugefügt und ergibt die Gleichgewichts-Sensitivität.

Jetzt erhöhe man die Referenz-Temperatur durch irgendeinen Zusatzbetrag. Dann ist das Eingangssignal in die Rückkopplungsschleife etwas größer als zuvor. Der Rückkopplungsprozess trägt der höheren Referenz-Temperatur einfach Rechnung. Es gibt selbstverständlich keinen physikalischen Mechanismus, damit jene Prozesse „wissen“ können, dass sie nicht reagieren dürfen auf eine irgendwie höhere Referenztemperatur als vorher.

Die Analogie mit einem Bode-Verstärker, welche die Autoren so stark betonen, ist keine Analogie. Falls es eine Störungsspannung wäre, die isoliert wurde und es diese Störungsspannung wäre, aufgrund derer die Rückkopplungen ablaufen, würde die Analogie enger sein.

Um zu verstehen, warum die Begutachter das alles so sehen, wie sie es sehen, wollen wir uns die offizielle Definition des IPCC einer „Klima-Rückkopplung“ in Erinnerung rufen (IPCC, 2013, glossary, p. 1450):

Klima-Rückkopplung“: Eine Wechselwirkung, bei der eine Störung einer Klimagröße eine Änderung einer zweiten Klimagröße verursacht und die Änderung der zweiten Klimagröße wiederum ultimativ zu einer Änderung der ersten Größe führt. Bei einer negativen Rückkopplung wird die initiale Störung geschwächt durch die verursachten Änderungen; bei einer positiven Rückkopplung wird die Störung verstärkt. In diesem Zustandsbericht wird oft eine enger gefasste Definition herangezogen, in welcher die Klimagröße, die durchdrungen wird, die globale mittlere Temperatur ist, welche wiederum zu Änderungen des globalen Strahlungshaushaltes führt. In jedem Falle kann die initiale Störung entweder extern getrieben sein oder sich in der Folge der internen Variabilität erheben“.

Man beachte, dass die Begriffe „gestört (perturbed)” oder “Störung (perturbation)” allein in diesem kurzen und aus Berechnung gestrafften Definition fünf mal auftauchen. Zeichnen wir einmal das Blockdiagramm des variierenden Rückkopplungsscheife (feedback loop), wie ihn sich die offizielle Klimatologie vorstellt:

Im gesamten Diagramm ist hier kaum eine absolute Größe zu finden. Was ist also los? Nun, die normale Rückkopplungssystem  Gleichung der offiziellen Klimatologie ergibt, dass die Änderung der Gleichgewichts-Temperatur gleich ist der Summe der Änderung der Referenztemperatur und dem Produkt aus Rückkopplungs-Verstärkungs-Faktor und der Änderung der Gleichgewichts-Temperatur.

Nun ist die abgewandelte Gleichung der Klimatologie eine perfekt valide Gleichung. Im Wesentlichen repräsentiert sie die Differenz zwischen zwei aufeinanderfolgenden Beispielen der Mainstream-Gleichung der Regelungs-Theorie, welche feststellt, dass die Gleichgewichts-Temperatur gleich ist der Summe der Änderung der Referenztemperatur und dem Produkt aus Rückkopplungs-Faktor und der Änderung der Gleichgewichts-Temperatur.

Aber die abgewandelte Gleichung ist unbrauchbar zum Auffinden von Gleichgewichts-Sensitivitäten, weil man sie nicht zuverlässig ableiten kann aus dem Heiligen Gral der Studien bzgl. globaler Erwärmung – nämlich dem Rückkopplung-Verstärkungsfaktor, welcher das Verhältnis ist zwischen Gleichgewichts- und Referenz-Temperatur.

In unserem Falle hier ist jedoch nur erforderlich, das zu beobachten, da die abgewandelte Gleichung der Klimatologie eine valide Gleichung ist ebenso wie die Mainstream Gleichung der Regelungs-Theorie, aus der die abgewandelte Gleichung abgeleitet ist.

Wir wollen die offizielle Definition einer „Klima-Rückkopplung“ wie folgt korrigieren:

Positive Rückkopplung in dynamischen Systemen verstärkt das Ausgangssignal. Negative Rückkopplung schwächt es ab. Bzgl. Klima ist das Eingangssignal die globale mittlere Gleichgewichts-Temperatur Tq nach Einwirkung von Rückkopplung. Die Rückkopplungs-Reaktion fTq konstituiert die gesamte Differenz Tq – Tr zwischen Gleichgewichts- und Referenz-Temperaturen, so dass der Rückkopplungsfaktor f, also der Bruchteil der Gleichgewichts-Temperatur, der die Rückkopplungs-Reaktion konstituiert, gleich ist 1 – Tr/Tq. Der System Verstärkungsfaktor A ist gleich Tq/Tr, d. h. (1 – f)-1“.

Man beachte als Nebeneffekt, dass die Rückkopplungs-Schleifen-Diagramme (a) vereinfachend sind zu den System-Versärkungs-Blockdiagrammen (b) sind. Das bedeutet, dass man alles, was man braucht, das Auffinden des System-Versärkungs-Faktors A für jedes gegebene Jahr ist. Das ist dann die Referenz-Temperatur (vor Rückkopplung) und die gemessene Gleichgewichts-Temperatur (nach Rückkopplung) in jenem Jahr. Man muss nicht den Wert irgendeiner individuellen Rückkopplung kennen.

Test-Läufe sind ja gut und schön, zeigen aber einfach nur, dass man Systeme konstruieren kann, für welche die eindimensionalen Energie-Gleichgewichts-Gleichungen genau wahr sind. Darin ist keine Information enthalten, um zu sagen, ob diese Modelle relevant sind hinsichtlich des realen Klimas“.

Falls die Rückkopplungs-Mathematik, welche sich die offizielle Klimatologie aus der Regelungs-Theorie entliehen hat, so unanwendbar ist wie der Begutachter sagt, dann gibt es keine legitime Grundlage für den derzeitigen irrigen Glauben der Klimatologie, dass Rückkopplungs-Reaktionen verantwortlich sind für mindestens zwei Drittel der Gleichgewichts-Sensitivität. Studie für Studie (z. B. Hansen 1984, Schlesinger 1985, Bony 2006, Roe 2009) wendet Rückkopplungs-Mathematik an mit dem expliziten Hinweis auf Bode. Aber diese und gleichartige Studien verwenden Bode auf eine Art und Weise, welche die genaue Ableitung des System-Versärkungs-Faktors verhindert. Im IPCC-Bericht 2013 taucht das Wort „Rückkopplung“ (feedback) über 1000 mal auf.

Diese und zahlreiche andere Autoren haben akzeptiert, dass die Rückkopplungs-Mathematik relevant ist zur Ableitung der Gleichgewichts-Temperatur. Auch richtig: Weil die Gleichgewichts-Temperatur höher liegt als die Referenz-Temperatur und die Rückkopplungs-Reaktion die gesamte Differenz zwischen beiden konstituiert.

Es ist interessant zu sehen, wie bereitwillig die Begutachter die „settled Science“ verwerfen, welche seit Jahrzehnten durch die Literatur geistert, wann immer sie diese unbequem finden.

Die von der Klimawissenschaft verwendete Energie-Gleichgewichts-Gleichung ist nichts als eine erweiterte Taylor-Reihe der Differenz zwischen dem globalen mittleren Energie-Ungleichgewicht an der Obergrenze der Atmosphäre und dem Strahlungsantrieb. Darum taucht die Emissions-Temperatur in der null-dimensionalen Energie-Gleichgewichts-Gleichung nicht auf. Ich kann kein dem entgegen stehendes Argument erkennen, welche dieser Interpretation der Gleichung widerspricht.

Da die abgewandelte Gleichung der Klimatologie eine valide Gleichung ist, gibt es nichts, was an dieser selbst falsch ist. Sie ist valide abgeleitet aus der Energie-Gleichgewichts-Gleichung, und die Tatsache, dass sie abgeleitet ist via einer leading order-Erweiterung der Taylor-Reihe, widerspricht in keiner Weise unserem Argument: weil eine Erweiterung einer Taylor-Reihe lediglich ein Mechanismus ist, um der Form einer Kurve über einen bestimmten Punkt Ausdruck zu verleihen.

Aber wenn man den Sonnenschein-Term außen vor lässt, ist es unmöglich, den System-Versärkungs-Faktors akkurat aus der abgewandelten Gleichung abzuleiten.

Nichts bei der Ableitung der abgewandelten Gleichung der Energie-Gleichgewichts-Gleichung an der Obergrenze der Atmosphäre sagt uns irgendetwas über die Größenordnung des System-Versärkungs-Faktors. Aus genau diesem Grunde haben die Klimamodellierer Jahrzehnte damit zugebracht, vergeblich zu versuchen, das Intervall von Charney-Sensitivitäten zu begrenzen, welches im IPCC-Bericht (2013) (1,5 bis 4,5) K ausmachte, also genau wie vor vier Jahrzehnten in Charney (1979).

Die Autoren würden besser daran tun, sich hinsichtlich der Literatur zu informieren, welche die Linearität von Rückkopplungen evaluiert.

Jawohl, einige Rückkopplungs-Reaktionen sind nicht linear. Wasserdampf ist ein primäres Beispiel. Wenn sich der Raum, den die Atmosphäre einnimmt, erwärmt, kann sie 7% mehr Wasserdampf pro Kelvin aufnehmen. Und tatsächlich ist genau das nahe der Erdoberfläche im 1000 hPa-Niveau der Fall:

Im 600-hPa-Niveau jedoch gibt es keine Zunahme der spezifischen Feuchtigkeit mit Erwärmung. Und in der entscheidenden mitteltroposphärischen Höhe von 300 hPa geht die spezifische Feuchtigkeit zurück. Warum ist das bedeutsam? Weil die offizielle Klimatologie alle individuellen Rückkopplungen außer Wasserdampf als sich umfassend selbst auslöschend betrachtet. Es ist allein die Wasserdampf-Rückkopplung, welche den Vorwand für die Aussage liefert, dass wegen der Rückkopplungen die Gleichgewichts-Erwärmung drei bis vier, ja bis zu zehn mal größer ist als die Referenz-Erwärmung.

Und doch liegt die einzige Höhe, in der die prophezeite Rate der Zunahme der spezifischen Feuchtigkeit die Realität spiegelt, sehr nahe der Oberfläche, wo Harde (2017) zufolge die Spektrallinien von Wasserdampf nahezu gesättigt sind.

Man betrachte Abbildung 9.1c im IPCC-Bericht 2007. Dort wird der prophezeite mitteltroposphärische „Hot Spot“ – den so zu nennen ich die Ehre hatte – über den Tropen in der Art und Weise dargestellt, die uns inzwischen sattsam bekannt ist: in grellen Farben:

So viel zu den Prophezeiungen. Ich könnte Dutzende weitere ähnliche Abbildungen von verschiedenen Modellen der allgemeinen Zirkulation zeigen. In Wirklichkeit jedoch ist der prophezeite „Hot Spot“ auffällig infolge seines kompletten Fehlens:

Nun erzeugte das Klimawandel-Wissenschaftsprogramm der USA seine Daten der realen Welt, in denen ein Jahr, bevor das IPCC auf seiner falschen Behauptung beharrte, dass der „Hot Spot“ existiert, nicht einmal ansatzweise ein solcher erkennbar war. Und warum sollte er existieren? Weil die spezifische Feuchtigkeit, die hätte zunehmen sollen, um die prophezeite schnellere Erwärmung als an der Oberfläche zu erreichen, in Wirklichkeit abgenommen hat.

Mit unserem Verfahren, den Rückkopplungs-System-Versärkungs-Faktors zu finden, muss man überhaupt nichts wissen über individuelle Rückkopplungen. Alles, was man braucht, ist die Referenz-Temperatur (vor Rückkopplung) und die Gleichgewichts-Temperatur (nach Rückkopplung) in irgendeinem gegebenen Jahr.

Und um herauszufinden, ob Nicht-Linearitäten bei individuellen Rückkopplungen den System-Versärkungs-Faktors mit der Zeit und mit der Temperatur variieren lassen, muss man lediglich diesen System-Versärkungs-Faktors für zwei verschiedene Jahre finden – den einen kurz vor Beginn der industriellen Ära und einen nahe deren Ende. Also haben wir genau das getan. Und wir ließen sogar das (möglicherweise imaginäre) „Strahlungs-Ungleichgewicht“ zu, welche die menschengemachte Erwärmung bis heute um etwa ein Viertel verzögert haben könnte.

Sowohl im Jahre 1850 als auch im Jahre 2011 betrug der System-Versärkungs-Faktors auf drei Dezimalstellen genau 1,129. Selbst in der dritten Dezimalstelle hat er sich nicht verändert. Er hat sich nicht verändert, weil die kombinierte Temperatur von der Sonne und von nicht kondensierenden Treibhausgasen der vorindustriellen Ära 375 mal größer war als die Referenz-Sensitivität von 0,68 K zwischen jenen beiden Jahren. Nichtlinearität? Schmonlinearity.

Die Tatsache, dass Rückkopplungen, ordentlich aus den Modellen berechnet, die richtige Bandbreite der Klimasensitivität in den Modelle angeben, sollte die Autoren nachdenklich gemacht haben hinsichtlich ihrer Überzeugung, dass sie (in ihrer Analyse) fundamental fehlerhaft ist“.

Und dies, verehrter Leser, ist unser alter Freund in dem Zirkelschluss, nämlich dem argumentum ad petitionem principii [d. h. eine Behauptung wird durch Aussagen begründet wird, welche die zu beweisende Behauptung schon als wahr voraussetzen. Mehr. Anm. d. Übers.], einem der paar dutzend am meisten verbreiteten Trugschlüsse. Aus diesem Trugschluss könnte man höchstens als einzige valide Schlussfolgerung ziehen, dass der Eindringling [perpetrator] unzureichend gebildet ist, um es besser zu wissen.

Um die Brauchbarkeit der einfachen System-Verstärkungs-Gleichung zu zeigen bei der Untersuchung von Gleichgewichts-Sensitivitäten haben wir die von der Klimatologie abgewandelte Gleichung herangezogen und gezeigt, dass bei Anwendung der Bandbreite von Rückkopplungs-Faktoren, welche von Vial et al. (2013) aus den Modellen abgeleitet worden waren, das veröffentlichte Intervall der Gleichgewichts-Sensitivitäten herauskommen würde. Aber dieses Vorgehen sagt uns nichts über den korrekten Wert des Rückkopplungs-Faktors oder dessen nahen Verwandten, den System-Versärkungs-Faktors Um die korrekten Werte dieser Variablen abzuleiten, muss man aus dem Fenster schauen und erkennen, dass die Sonne scheint. Und man muss angemessen dieser Tatsache Rechnung tragen, indem man den Normalsystemverstärkung in die Berechnungen eingehen lässt.

Die Sensitivität jedweden Klimamodells ist so, wie sie ist – sie kann sich nicht ändern durch irgendeine Nach-Analyse von deren Rückkopplungen. In einem Modell wird der CO2-Gehalt verdoppelt, die Berechnung das Strahlungs-Transfers verändert, und Temperaturen, Wasserdampf, Zirkulation, Wolken usw. ändern sich. Das simulierte Klimasystem stabilisiert sich eventuell und die daraus resultierende Gesamtänderung der Temperatur ist die Sensitivität jenes Modells.

Und genau das ist der fundamentale relevante Trugschluss, bekannt als das Strohmann-Argument. Und zwar weil wir keinerlei Nach-Analyse durchgeführt haben von irgendwelchen Modell-Rückkopplungen. Anstatt das zum Scheitern verurteilte von-unten-nach-oben-Verfahren der Modelle zu übernehmen, um die Gleichgewichts-Sensitivität abzuleiten mittels Erratens der Werte irgendwelcher Rückkopplungen, haben wir das weitaus einfachere und robustere von-oben-nach-unten-Verfahren angewendet, um Referenz- und Gleichgewichts-Temperatur für zwei unterschiedliche Jahre in der industriellen Ära zu finden. Dabei haben wir entdeckt, dass die aus diesen Werten abgeleiteten System-Versärkungs-Faktors die gleichen waren. Wir haben den System-Versärkungs-Faktorsauf die Referenz-Sensitivität eines verdoppelten CO2-Gehaltes angewendet und über alle Zweifel erhaben gezeigt, dass die Gleichgewichts-Sensitivität bei doppeltem CO2-Gehalt lediglich 1,17 K beträgt, plus/minus einem Zehntel Kelvin.

Im Grunde sagt der Begutachter, dass die Modelle richtig sein müssen. Nun, wie aufwändig diese auch sind, sie haben unrecht. Sie sind schlicht und ergreifend falsch, wie unsere Analyse gezeigt hat.

Es werden keine physikalischen Argumente angeführt, warum die Sensitivität so gering sein soll, und diese einfach Schätzung als plausibel zu akzeptieren würde bedeuten, dass man sämtliche früheren Arbeiten von Wissenschaftlern bzgl. des Verständnisses der Physik des Klimawandels zurückweisen müsse, von denen viele jenseits aller Zweifel bewiesen sind. Die hier vorgelegte Analyse ist sowohl rudimentär als auch fundamental falsch, und ich kann deren Veröffentlichung in einem seriösen Journal nicht empfehlen.

Man betrachte noch einmal die Analyse der Wasserdampf-Rückkopplung oben. Die Größenordnung jener Rückkopplung ist nicht „jenseits aller Zweifel bewiesen“: sie ist jenseits aller Zweifel widerlegt worden. Man betrachte beispielsweise die faszinierende Graphik von Dr. John Christie der prophezeiten mitteltroposphärischen Temperaturänderung über den Tropen in 73 Modellen von 1979 bis 2012. Alle 73 Modelle simulierten eine Erwärmung mit einer mittleren Rate, die etwa vier mal höher war als die beobachtete Erwärmung. Kein einziges Modell zeigt eine geringere als die beobachtete Rate:

Es ist daher sehr wahrscheinlich, dass der Hauptgrund dafür, dass der korrigierte Wert des system-gain-Faktors und damit die Gleichgewichts-Sensitivität so weit unterhalb aller offiziellen Schätzungen liegt, das Überkochen des Wasserdampf-Puddings in den Modellen ist. Aber wir brauchen nicht zu wissen, was die Modelle falsch berechnet haben – es reicht aufzuzeigen, dass sie falsch sind – was unserer Einreichung zufolge unwiderlegbar ist.

In einer Hinsicht hat der Begutachter jedoch recht. Wir weisen in der Tat alle Arbeiten von Wissenschaftlern zur Ableitung der Gleichgewichts-Sensitivität zurück, einfach weil diese Arbeiten – wenngleich ehrlich und gewissenhaft durchgeführt – inkompatibel sind mit den richtigen Ergebnissen, zu welchen wir mit einem weit einfacheren und zuverlässigeren Verfahren gekommen sind.

Man betrachte noch einmal den Rückkopplungs-Faktor oben, und wundere sich über das, was sie gemacht haben. Die perturbation des Klimaantriebs, welchen sie zur Abschätzung der Rückkopplungen heranziehen, ist buchstäblich Anknipsen der Sonne. Man beginne mit der Erde bei Null Kelvin. Nun schalte man die Sonne an, verbiete alle Rückkopplungen, und wir bekommen eine Referenz-Temperatur von 255 K. Jetzt lasse man Rückkopplungen wirken, und unserer jetzigen Welt kommen wir tatsächlich auf eine Gleichgewichts-Temperatur von 287 K.

Vielleicht sind alle Klimatologen Schotten. Es ist nämlich eine große Überraschung für uns, dass immer, wenn wir den Weg nach England einschlagen – oder die Schiffsreise an die Eisküste von Grönland oder einen Flug nach irgendwohin – wir zu unserer Freude feststellen, dass das Land oftmals in die Strahlung eines großen, hellen, warmen gelben Objekts am Himmel getaucht ist. Wir sehen davon nicht so viel im Gaidhealtachd.

Wir müssen die Sonne nicht anknipsen. Weil sie nämlich dank der Großzügigkeit von Divine Providence bereits für uns angeknipst ist (außer in Schottland), und die Engel – in Gestalt der intergalaktischen Mechaniker [grease-monkeys], welche sich das Universum so entfalten lassen, wie es das tut – leisten einen ausgezeichneten Job hinsichtlich Wartung und Fürsorge.

Denn die Sonne scheint nun mal. Liegen wir falsch, wenn wir diese Tatsache berücksichtigen? Wir glauben nicht. Die heute wirksamen Rückkopplungs-Prozesse scheren sich nicht darum, welche Rückkopplungs-Prozesse bei Null Kelvin agierten. Sie reagieren einfach auf die Temperatur, die sie vorfinden. Und das bedeutet, dass es besser ist, die Tatsache zu berücksichtigen, dass die Sonne scheint, als sie zu ignorieren.

Es waren nicht nur die vom begutachtenden Journal nominierten Begutachter, welche unsere Studie begutachtet hatten. Auf irgendwelchen Wegen erreichte eine Kopie unserer Studie den Vizekanzler der University of East Anglia, welcher sofort nach Lektüre der Studie sämtliche 65 Professoren und Doktoren seiner Fakultät Umweltwissenschaften zusammen trommelte und ihnen zurief:

Moncktons Studie ist eine Katastrophe für uns. Falls die allgemeine Öffentlichkeit jemals davon hören würde, dann würde die Hölle losbrechen!“

Er ordnete an, dass die Fakultät alles zurückstellen und sich nur der Widerlegung der Studie widmen sollten – welche zu jener Zeit 2000 Wörter lang war und jetzt in voller Länge 6000 Wörter umfasst. Er leugnete später, dass dieses Treffen stattgefunden hatte, aber wir hörten davon seitens eines Teilnehmers an dem Treffen.

Und schließlich gibt es einen Kommentar von einem notorisch jähzornigen skeptischen Blogger (natürlich nicht unser genialer Gastgeber hier):

Nein, wir werden Moncktons Studie hier nicht besprechen. Wir machen es uns nicht so einfach!“

Was ich in Mathematik und Physik gelernt habe, führte mich zu der Vorstellung – die vielleicht falsch ist – dass es viel besser ist, mit einem einfachen Verfahren ein korrektes Ergebnis abzuleiten als mit der Anwendung eines heillos komplexen Modells ein Ergebnis abzuleiten, welches sich nicht zuletzt aufgrund der Komplexität als falsch herausstellt.

Noch ein paar abschließende Fragen für all jene, die die Geduld hatten, bis hierher zu lesen. Haben die Begutachter recht, oder haben wir recht? Und würden Sie gerne von Entwicklungen wie diesem Beitrag auf dem Laufenden bleiben? Die Studie bleibt immer noch zur Begutachtung draußen, und in angemessener Zeit werden wir sehen, ob sie zur Veröffentlichung genehmigt ist. Wir wurden auch eingeladen, ein Buch zuschreiben, in welchem wir unsere Ergebnisse zusammenfassen und beschreiben, wie wir zu eben diesen Ergebnissen gekommen sind.

Und wir haben dem IPCC eine formelle Notiz zukommen lassen, dass alle seine Zustandsberichte gravierend falsch sind. Obwohl wir minuziös dem eigenen, vom IPCC festgelegten Protokoll der Einreichung von Fehlern gefolgt sind, haben wir bisher vom Sekretariat noch nicht den Erhalt der Notiz bestätigt bekommen, obwohl die IPCC-Regeln genau dies vorschreiben. Daher übergeben wir den Fall dem Bureau de l’Escroquerie, dem Swiss Fraud Office via dem Schweizer Botschafter in England, also in der Nation, wo das IPCC sein Hauptquartier hat.

Eine 45 Minuten lange Youtube-Präsentation, in welcher ich unser Ergebnis erkläre, gibt es hier. Ich bin John Charleston sehr dankbar, dass er diesen meinen Vortrag in seinem eigenen Studio gefilmt und bearbeitet hat.

Und hier ist die Einzelfolie aus meinem Vortrag, den ich nächste Woche am Camp Constitution in Connecticut halte. Sie bringt das gesamte Theater der globalen Erwärmung zu einem Ende, und niemand trauert dem nach:

Link: https://wattsupwiththat.com/2018/07/30/climatologys-startling-error-an-update/
Übersetzt von Chris Frey EIKE




Die jahrelange beispiellose Hitze- und Dürreperiode in Europa um 1540 – ein Worst Case

Auf der Grundlage von über 300 Quellen mit Wetterberichten aus erster Hand aus einem Gebiet mit einer Größe von 2 bis 3 Millionen km² zeigen wir, dass Europa von einer beispiellosen, 11 Monate dauernden Mega-Dürre betroffen war. Die geschätzte Anzahl der Tage mit Niederschlag und die Niederschlagsmenge in Mittel- und Westeuropa im Jahre 1540 ist signifikant niedriger als die 100-Jahre-Minima der Periode mit instrumentellen Messungen für Frühjahr, Sommer und Herbst. Dieses Ergebnis wird gestützt durch unabhängige dokumentarische Beweise über extrem niedrige Pegelstände in Flüssen und weit verbreiteten Wald- und Feldbrände in ganz Europa. Wir haben gefunden, dass ein Ereignis dieser Größenordnung nicht von hypermodernen Klimamodellen simuliert werden kann.

Link: https://link.springer.com/article/10.1007/s10584-014-1184-2
Übersetzt von Chris Frey EIKE
———————————-
Dazu hier ein Bericht aus anderer Quelle:
… Über mehrere Wochen hinweg regnete es kaum noch., nach Quellenaussagen soll es in 26 Wochen an nur 5 Tagen ‚Tropflesregen‘ gegeben haben. Die Hitze des Sommers von 1540 ist das am besten belegte Ereignis im 16. Jahrhundert und kann als eines der Jahrtausendereignisse angesehen werden. Die kaum zu beschreibende Wasserverknappung führte zu einem Schreckensszenario und dokumentiert sich auch in markanten Negativsignaturen der verschiedensten Baumringe. Aus ihnen konnte die Niederschlagssumme zwischen November und Juni rekonstruiert werden: Das Niederschlagsdefizit betrug nach diesen Werten im Juni bereits 25%. Nachdem auch der Herbst zu trocken ausfiel, wurde der Wein durch den extrem hohen Zuckergehalt zu einem Jahrtausendwein, für den man, wie in der Würzburger Hofkellerei heute noch zu sehen ist, eigene Prunkfässer baute. Durch den hohen Zuckergehalt muss der Wein noch sehr lange genießbar gewesen sein, denn man kredenzte ihn zu besonders festlichen Anlässen noch in späteren Jahrhunderten… . Fortan wurde die Qualität dieses Weines zum unerreichten Standard, der noch zwei Jahrhunderte später als Bezugsmaßstab zitiert wurde. Als die Schweden 1631 Würzburg einnahmen, fahndeten sie nach diesem Wein, konnten ihn aber, da das Fass eingemauert war, nicht finden. Im 19. Jahrhundert ersteigerte ein englischer Weinhändler diesen Wein, füllte ihn in Flaschen und verkaufte diese. Letzte Flaschen dieser Kollektion sind heute noch – mit Inhalt – im speyerischen Weinmuseum und und weitere im Bürgerspital in Würzburg zu sehen… . Es gibt aber noch weitere Belege für die extreme Trockenheit: In Regensburg nutzte man den niedrigen Wasserstand, um für den Kranen neue Fundamente zu errichten: Rekordtrockenheit im Frühling sowie Rekordhitze und Rekordtrockenheit im Sommer lautet die nüchterne Klassifizierung… .
Quelle:Rüdiger Glaser, Die Klimageschichte Mitteleuropas, Seite 108, erschienen 2008 im primusverlag.
———————————-
Hinweis des Übersetzers: Das Jahr 1540 lag mitten in der „Kleinen Eiszeit“. Aber Kämpfe (2017) hat ja in mehreren Arbeiten nachgewiesen, dass Wetterextreme umso ausgeprägter sind, je kälter das Erdklima ist.
Das macht durchaus Sinn, denn je kälter das Klima auf der Erde, umso größer ist ja auch der Temperaturgegensatz zwischen niedrigen und hohen Breiten – mit der Folge stärkerer Extreme nach jeweils beiden Seiten.




ZDF-Heute: Ist der Ruf erst ruiniert…..Die Sende­anstalt der Grünen und deren Helfer

Panikmache
Suggestion
Manipulation
Aufzeigen der Retter in Form der Grünen
Was es mit der diesmal vorgenommenen Manipulation der Zuschauer und der dahinter verborgenen Story auf sich hat, will der Autor in den folgenden Zeilen darlegen.
Was ist im Sommer, bekanntlich die warme und damit schöne Jahreszeit, in der wir unseren Haupturlaub verbringen, naheliegender und in Anbetracht der warmen Witterungsverhältnisse, die bereits seit Mai vorliegen, als den Zuschauern die vermeintlich vielen Nachteile des warmen Sommers in Form von Panikmache heranzutragen. Ist doch unterschwellig bereits der vermeintliche Wahrheitsgehalt dadurch gesichert, dass der Zuschauer der Ausgangsbasis – warmer und schöner Sommer – uneingeschränkt zustimmt. Also wird auch das andere schon stimmen. Der Zug ist sozusagen auf die Gleise gesetzt.
So hatte ZDF-Heute wieder einmal die vermeintlich vorherrschende Dürre in Deutschland, als Basisobjekt zur Wahlkampfhilfe der Grünen entdeckt.
Dabei will der Autor nicht in Abrede stellen, dass regional, insbesondere in Teilen Ostdeutschlands, seit April zu wenig Niederschlag fiel und es daher zu trocken ist und selbstverständlich ist es die Pflicht einer Solidargemeinschaft, die jedes demokratische Staatswesen darstellt, den Betroffenen zu helfen. Hier insbesondere den betroffenen Landwirten, die unbestreitbar eine der Säulen unserer Gesellschaft verkörpern. Aber dem ZDF geht es offensichtlich gar nicht darum, sondern um Wahlhilfe für die Partei der Scharlatane, nein, das ist doch die Partei der Gutmenschen!
Da war von einer Dürre in ganz Deutschland die Rede. Als Cherry-Picking wurden zufälligerweise in dem Gebiet die Filmaufnahmen gemacht, welches regional am stärksten betroffen ist. Weiter war von Ertragseinbußen durch die vermeintliche Dürre in Deutschland von 1 Milliarde Euro für die Landwirtschaft die Rede, die ausgeglichen werden sollen. Worüber, das darf der Autor den ZDF-Machern versichern, nicht der geringste Disput besteht. Weiter war von Ernteertragsrückgängen nahe oder gar über 50% die Rede. Die Manipulation von ZDF-Heute vom 30.07.18 um 19:00 Uhr nimmt Fahrt auf.
1 Milliarde Euro Ernteertragsrückgänge. Nach Angaben des statistischen Bundesamtes beträgt der Produktionswert in der Landwirtschaft (das stat. Bundesamt zählt hier Forst- und Fischereiwirtschaft mit) bei 52 Milliarden Euro. 1 Milliarde wären demnach gerade einmal 1,9%.
Nun haben Statistiken bekanntlich so ihre Tücken – je nachdem, was damit einbezogen wird. Deshalb wollen wir die Brutto- sowie Nettowertschöpfung der Landwirtschaft betrachten:

Abb.2, Quelle, zeigt die Wertschöpfung der deutschen Landwirtschaft von 2011 bis 2017. Ein Rückgang von 1 Milliarde Euro in 2018 zu 2017 wäre demnach ein Rückgang um nicht einmal 5%. Sicherlich nichts Dramatisches in der Gesamtheit für Deutschland.


Die Bruttowertschöpfung lag alson 2017 bei etwas mehr als 20 Milliarden Euro. In Abb.3 hat der Autor dargelegt, was ein Rückgang von 1 Milliarde € in 2018, aufgrund der vermeintlichen Dürre, bedeutet:

Abb.3 zeigt, von Panikmache keine Spur. 1 Milliarde Ertragsrückgang, so schmerzlich dies für die regional betroffenen Landwirte auch ist und so berechtigt ihnen geholfen werden muss, im Vergleich zu Deutschland 2017 kaum wahrnehmbar. Ähnlich dem Rückgang von 2014 zu 2013: Kaum zu sehen. Da sind die Einbußen in 2015 weit größer.


Aber dieser Tage macht das ZDF aus der bekannten Mücke für Deutschland, einen Elefanten. Warum, erfahren unsere Leser gleich. Vorher möchte der Autor noch einen Blick auf die regionale Landwirtschaft in Ostdeutschland werfen. Am Beispiel Sachsen, Abb.4:

Abb.4, Quelle, zeigt die Bruttowertschöpfung der Landwirtschaft in Sachsen von 2000 bis 2017. Auch hier hat der Autor für 2018 dargelegt, was ein Ertragsrückgang von knapp 5% bedeutet. Deutlich zu sehen: In den Vorjahren lagen deutlich größere Schwankungen vor, ohne dass der Sender der Grünen Kassandrarufe in die Welt sendete, um den Menschen in unserem Land offensichtlich Angst zu machen.


Zur Untermalung seiner Wahlkampfhilfe für die Grünen betreibt das ZDF einmal mehr Manipulation durch Cherry-Picking. Darunter wird das aus einem Ganzen herausgeschnittene Einzelteil verstanden, welches dazu benutzt wird, die eigenen Thesen zu untermauern, wohl wissend, dass es sich dabei einzig um Manipulation handelt, indem dem Betrachter das ganze Bild vorenthalten wird, Abb.5.

Abb.5, Quelle: Screenshot aus ZDF-Heute vom 30.07.2018, 19:00 Uhr mit Nachrichtensprecher Herrn Christian Sievers wie er gleich doppelt die Zuschauer manipuliert. Unten im Bild ist die Quelle vermerkt: Helmholtz Zentrum für Umweltforschung.


Ein ähnliches Bild hatte der Autor in seinem Artikel „Wetter, Klima und Medien“ hier gezeigt, Abb.6:

Abb.6, Dürresituation in Deutschland 2018, Quelle: Helmholtz Zentrum für Umweltforschung zeigt für Juni (und die Monate davor) das Bild von Abb.5. Doch bei genauerer Betrachtung, sind beim ZDF wesentlich mehr rot und orange-Töne, also vermeintlich kritische Töne zu sehen. Leider hat das ZDF in seiner Quelle versäumt anzugeben, was dort gezeigt wird! Während der Autor das Chart für die vergangenen Monate zeigte, hat das ZDF offensichtlich den sog. Dürremonitor beim Helmholtz Zentrum abgegriffen. Aber nicht angegeben, was gezeigt wird. Offensichtlich eine bewusste Irreführung des Zuschauers.


So unterscheidet das Helmholtz Zentrum für Umweltforschung wie folgt und gibt exakt an, was zu sehen ist, Abb.7:

Abb.7, Quelle, zeigt die aktuelle Situation für Deutschland an einem speziellen Tag (dem 29.07.2018, nicht Monat) in zwei verschiedenen Bodentiefen. Von alledem beim ZDF nichts zu sehen, sondern nur eine Grafik, mit vielen Orange- und Rottönen. Natürlich auch nicht, die Monats- sowie Jahresübersicht. Manipulation pur, was die ZDF-Heute-Macher betreiben und deren Sprecher von sich gibt.


Dass in 2018 eine deutlich geringere Trockenheit als in den Jahren davor vorliegt, hatte der Autor in seinem Artikel „Wetter, Klima und Medien“ (hier) dargelegt. In Abb.8 nochmals als Zusammenfassung:

Abb.8, Quelle wie Abb.6, zeigt die Trockenmonate in Deutschland von 2014 bis 2017. Deutlich zu sehen, dass in den Vorjahren deutlich mehr Trockenheit in Deutschland vorlag. Für 2018 geht der Autor für die Monate Juli und August von weiter wenig Niederschlag aus. Warum, wird er in Teil 2 darlegen.


Worum es dem ZDF, dem Zentralen Desinformations Fernsehen aktuell in Wirklichkeit geht, wird im Bericht in den Heute-Nachrichten vom 30.07.18 19:00 Uhr deutlich. Denn nach der „Pflicht“, steigt das ZDF in die „Kür“ ein. (Abb.9)
Nachdem der Zuschauer mit Panik und Angst vor gewaltigen Ernteausfällen sozusagen „sturmreif geschossen“ wurde, werden die vermeintlichen Retter präsentiert (Abb.9 und 10).

Abb.9, Quelle wie Abb.5. Diesmal nicht Herr Resch, sondern Herr Dr. Peter Hoffmann vom sog. Potsdam Institut für Klimafolgenforschung. Da Klima nichts anderes ist, als der statistische Mittelwert des Wetters, per Definition der Mittelwert von 30 Jahren, forscht man dort in Potsdam wohl über die Folgen von Statistikänderungen. Muss es ja auch geben.


Von Herrn Dr. Hoffmann waren dann weitere Kassandra-Rufe zu vernehmen, dass wir uns auf weitere Temperaturerhöhungen einstellen müssen, weitere Extreme zunehmen… Dies alles jedoch im Konjunktiv gehalten. Also von Wissenschaft, die sich üblicherweise in der realen Welt abspielt und in der der Konjunktiv keine Rolle spielt, nichts zu vernehmen. Sozusagen als Höhepunkt kam dann die Politik zu Wort, aber nicht die Ministerin in Person oder regierungsverantwortliche Parteien, sondern nur eine einzige Person wurde befragt und bekam Redezeit zur Wahlwerbung eingeräumt. Nun raten Sie mal wer? Richtig geraten, die grüne Laiendarstellerin (sie werden gleich sehen, warum!) und Parteivorsitzende Frau Annalena Baerbock.

Abb.10, Quelle wie Abb.5 zeigt das eigentliche Instrument der Panikmache in ZDF-Heute, die grüne Parteivorsitzende Frau Annalena Baerbock, geboren in Hannover. Die Tochter eines strammen Marxisten*?


Das ZDF räumte ihr das Schlusswort und gar das Schlussplädoyer ein, was Sie für die ihre abstrusen Vorstellungen über Demokratie und einer freien Gesellschaft wahrlich breit nutzte. Ihr Schlussplädoyer: „Wir müssen an die Ursachen rann und die Ursachen für diese Hitzewellen, die Ursachen für die Dürren auf den Feldern, das ist die Klimakrise (Anmerkung: Siehe hier), und deswegen brauchen wir eine ambitionierte Klimaschutzpolitik…. Der Screenshot fängt ihren Blick ein, als sie gerade „ambitionierte Klimapolitik“ ausgesprochen hatte. Man sieht förmlich, die Selbstzufriedenheit die in ihr aufsteigt, nach dem Gelingen dieses Satzes. Dann geht’s weiter, Abb.11.
* Das Wort ‚Annalena‘ klinkt zwar sowjetisch, ist es aber nicht und kommt aus dem Griechischen. Der Tagesspiegel schreibt „Ihre Eltern nahmen sie in den 80ern mit zu Anti-Atomkraft-Demos“. Die 1980-Jahre. Dies waren die Jahre der Menschenketten, so auch im britischen Sellafield. Damals war im Spiegel zu lesen, dass die sowjetische Botschaft in London nach Moskau ‚kurbelte‘ „Wir haben 500.000 Leute auf die Straße gebracht.“ Passt doch!

Abb.11, Quelle wie Abb.5


„…Eine andere Form der Landwirtschaft.“ Und jetzt, nach dem aussprechen „andere Form der Landwirtschaft“ die Schärfe in ihren Mundwinkeln und der Hass in ihren Augen auf die (jetzige) Landwirtschaft. Der Screenshot gibt genau diesen Moment wieder. Jeder Psychologe hätte daran seine wahre Freude, was sich hinter einer solchen Person verbirgt!
Donnerwetter: „Eine andere Form der Landwirtschaft“. Das ZDF hatte vorher, anhand eines Wissenschaftlers, der sich mit resistenteren Pflanzen gegen Trockenheit beschäftigt, sozusagen den Boden dazu bereitet, dass das Schlusswort vermeintlich wissenschaftlich untermauert wird. Doch der Wissenschaftler ist kein „Systemveränderer“, sondern ein praktisch orientierter Mensch, der vom ZDF für ihr perfides Manipulationsspiel missbraucht wurde. Denn in der Wissenschaft beschäftigt man sich seit langem mit resistenten Pflanzen gegen Trockenheit. Siehe hierzu z.B. den Bericht in Spektrum der Wissenschaft 11/07, “Erde & Umwelt“, S. 92. Der Autor hat darüber auf EIKE geschrieben, hier und hier.
Marxist. „Eine andere Form der Landwirtschaft.“ Dies gab’s schon mal in der Weltgeschichte, bei einem anderen, strammen Marxisten, gemeint ist Josef Stalin. Diesem Landwirtschafts- Gulag fielen nach Schätzungen 30 bis 50 Millionen Menschen zum Opfer. Ist es etwa das, was Frau Annalena Baerbock vorschwebt und was mit Hilfe dümmlicher Journalisten und verantwortungslosen Medienmachern durchgesetzt und der Boden dazu bereitet werden soll?

Abb.12. „Die andere Form der Landwirtschaft“ unter Josef Stalin in der „Zwangskollektivierung“, der 30 – 50 Millionen Menschen zum Opfer fielen. Ist es das, was Frau Annalena Baerbock vorschwebt? Quelle.


Wo wir gerade dabei sind, unser Land mittels Zwangsmaßnahmen zu konvertieren/kollektivieren, sprich zu ruinieren, Annalena Baerbock: „…müssen an die Ursachen ran“. Sind dies nicht im Weltbild grüner Ideologen, der Diesel und der Benziner? Also ist nach deren Lesart der Diesel an allem schuld und muss schnellstmöglich abgeschafft werden, wie der Autobesitz grundsätzlich nur ein paar wenigen vorbehalten bleiben soll? Wie in der Stalinzeit! Soll dahin die Reise gehen? Die Grünen haben dies doch in ihrem (abstrusen) Parteiprogramm gefordert und verankert.
Im Autoland Baden-Württemberg ist ein stramm grün-marxistischer Fundamentalideologe zum Ministerpräsidenten aufgestiegen und regiert dort. Für diejenigen, die mit der Formulierung des Autors nicht einverstanden sind, er wird dem Ministerpräsidenten und dessen wirklichen Gesinnung, einen eigenen Bericht widmen. Im zweiten großen Autoland Bayern, sind bald Landtagswahlen. Soll dort etwa mit medialer Manipulationshilfe ein weiterer politischer Wechsel, wenn auch nicht als größte Partei, so doch als eine, ohne die nicht regiert werden kann, vorgenommen werden, damit man der Autoproduktion in Deutschland ihr Ende bescheren kann, wie das Parteiprogramm der Grünen dies fordert?
Deren „Spiel“ muss offen gelegt werden. Nur vor dem Wissen, was diese Ideologen, die immer noch glauben, der Marxismus-Leninismus sei die Lösung für die Probleme der Moderne, vorhaben, siehe auch hier und hier, kann der Wähler sich ein rundes und objektives Bild von denen Parteien verschaffen, die wirklich für das Wohl unseres Landes und dessen 80 Millionen Menschen eintreten und bei welchen Parteien es sich um „falsche Prediger“ handelt.
———————————
Teil 2: Die Ursachen der vermeintlichen Extremdürre in Deutschland, in Kürze.
Raimund Leistenschneider – EIKE