The Gestalt of Heat Waves

Einführung

In der Presse war während des Sommers in diesem Jahr viel zu lesen über ,globale‘ Hitzewellen, besonders in Frankreich und Grönland. Beispiele für derartige Fanfarenstöße finden sich hier. Den Prophezeiungen zufolge sollten wir erwarten, dass Hitzewellen häufiger und intensiver werden infolge der anthropogenen globalen Erwärmung AGW, jetzt allgemein ,Klimawandel‘ genannt. Die Grundlage dieser Behauptung sind ausschließlich nicht validierte Globale Klima-Modelle, von denen allgemein eingeräumt wird, dass sie viel zu warme Ergebnisse zeigen. Die vereinfachende Begründung lautet, dass es nachts weniger abkühlt und es daher weniger Aufheizen bedarf, um ungewöhnlich hohe Temperaturen zu erreichen. Unglücklicherweise jedoch – wenn das stimmen würde, dürften Hitzewellen niemals mehr aufhören.

Eine Agentur, welche die Hitzewellen der 1930er Jahre [in den USA] nicht eliminiert hat, ist die US Environmental Protection Agency EPA. In den Daten zeigt sich eindeutig, dass während dieser Zeit die höchsten Werte des Hitzewellen-Index‘ aufgetreten waren.

Abbildung 1: Jährlicher Hitzewellen-Index in den USA. (Quelle)

Falls die Prophezeiungen einer schlimmeren Zukunft valide wären, müsste man erwarten, in der Lage zu sein, schon jetzt eine Änderung festzustellen, wird doch davon ausgegangen, dass sich die Erde mindestens seit Beginn der industriellen Revolution erwärmt hat. Das heißt, falls sommerliche Hitzewellen häufiger auftreten und heißer werden, müsste man erwarten, dass die täglichen Maximum-Temperaturen eine größere statistische Varianz zeigen.

Weil die Menschen auf dem Land leben und wir uns um die Auswirkungen auf die Menschen Sorgen machen wie etwa Komfort und Hitzetote bis zum Exzess scheint es am besten zu sein, sich einfach die Lufttemperaturen auf dem Land vorzunehmen. Es gibt in der Klimatologen-Gemeinschaft eine unglückliche Tendenz, Wassertemperaturen mit Lufttemperaturen auf dem Land zu verschmelzen. Dies neigt dazu, Änderungen abzuschwächen, weil man viel mehr Energie braucht, um die Wassertemperatur zu ändern als für eine Änderung der Landtemperatur. Da nun über 70% der Erdoberfläche mit Wasser bedeckt sind, werden kleine Änderungen oder Trends bzgl. Energie in den gewichteten Mittelwerten der Wasser- und Landtemperatur schwieriger auszumachen sein.

Analyse

Um die Lage zu klären, zog ich die Daten des Berkeley Earth Surface Temperature (BEST)-Projektes heran. Ich wollte so dicht wie nur irgend möglich an die Rohdaten herankommen und die Mittelbildung minimieren, welche normalerweise bei solchen Daten durchgeführt wird, und was Bedenken weckt hinsichtlich nachfolgender statistischer Analysen. Zu diesem Zweck lud ich einen experimentellen Datensatz herunter, welcher die täglichen Maximum– und Mnimum-Temperaturen nur über Landflächen enthielt. Abbildung 2 zeigt den Koeffizienten der Variation (CoV) der täglichen Höchsttemperatur (Tmax) als Zeitreihe von 1880 bis Mitte 2019. Es werden zwei Verläufe gezeigt: 1) ein 30-jähriges gleitendes Mittel der Standardabweichung (SD) dividiert durch das 30-jährige arithmetische Mittel in täglichen Stufen, und 2) ein einjähriges gleitendes Mittel der SD dividiert durch das jährliche arithmetische Mittel in täglichen Schritten. Die Division durch das Mittel normalisiert die SD und erzeugt den CoV.

Ich übertrug die BEST-Temperaturanomalien in geschätzte Grad Celsius, indem ich die mittlere berechnete Tmax von 1951 bis 1980 addierte. Um dann eine Division durch Null zu vermeiden, konvertierte ich die Temperaturen zu Grad Kelvin, damit die CoVs von Tmax und Tmin vergleichbar sind. Die die Tmax-Temperaturen begleitenden Metadaten [?] zeigen die geschätzte Unsicherheit des zugrunde liegenden Mittels (14,41°C) mit ±0.11° C. Die Präzision der berechneten Anomalien sollten dann nicht größer als jener Wert sein und möglicherweise darunter liegen, wobei die Unsicherheit der individuellen Messungen berücksichtigt werden, aus welchen die Anomalien errechnet worden sind. Nichtsdestotrotz gibt BEST die Anomalien bis zu drei Stellen nach dem Komma an anstatt des einen gerechtfertigten Wertes. Ignorieren wir das erst einmal und fahren fort…

Das jährliche gleitende Mittel des CoV von Tmax ist nicht besonders informativ, zeigt es doch lediglich große jährliche Änderungen in dem, was im Wesentlichen die Standardabweichung ist. Allerdings glätten die über 30 Jahre gleitenden Mittelwerte die Daten deutlich, wenngleich die ersten und letzten 15 Jahre der Daten dabei abgeschnitten werden. Von 1895 bis 1950 gibt es keinen erkennbaren Trend. Danach jedoch zeigt der CoV einen eindeutigen Aufwärtstrend, was man auch erwarten kann, falls sommerliche Hitzewellen an Häufigkeit, Dauer und bzgl. der Temperatur zunehmen. Allerdings zeigt sich dann ab etwa dem Jahr 1996 etwas Unerwartetes – der CoV beginnt zu sinken! Die jährlichen CoV-Werte zeigen außerdem, dass es auch um das Jahr 2000 eine Abnahme gibt. Überraschenderweise kommt die US-Hitzewelle während der 1930er Jahre nur schwach beim CoV der jährlichen Tmax zum Ausdruck.

Abbildung 2: Tmax-Variations-Koeffizient der Zeitreihe (Quelle)

Abbildung 3: Tmin-Variations-Koeffizient der Zeitreihe (Quelle)

Interessanterweise sieht der CoV der gleitend gemittelten Zeitreihe von Tmin ganz anders aus, wie aus Abbildung 3 hervorgeht. Wie bei der Tmax-Zeitreihe handelt es sich um ein über 30 Jahre gleitendes Mittel mit täglichen Schritten. Im Wesentlichen zeigt sich eine Abnahme der Varianz von mindestens Mitte der 1890er-Jahre bis etwa zum Jahr 1952, gefolgt von einer Zunahme bis etwa 1990 und dann wieder eine Abnahme mit der ursprünglichen Rate. Die Abnahme kann jeweils erklärt werden im Zusammenhang mit der Strahlungs-Abkühlung der Erde [radiative cooling], erschwert durch zunehmende ,Treibhausgase‘. Das heißt, es wird nachts nicht mehr so kalt, was den täglichen Temperaturgang verringert und damit auch die Varianz von Tmin. Die fast 40-jährige Unterbrechung der Abnahme ist etwas schwerer zu erklären, weil es keine gleichlaufende Änderung von CO2 in der Atmosphäre gegeben hatte! (Siehe Abbildung 6 unten). Das ist ein Hinweis darauf, dass irgendwelche Auswirkungen von langlebigem CO2 leicht zu kompensieren sind – vielleicht durch Aerosole, kurzlebige Bewölkung und Wasserdampf, selbst wenn diese tatsächlich nicht die entscheidenden Treiber sein sollten.

Was geht hier vor? Um das noch tiefer zu erkunden, studierte ich die jüngsten Tmax– und Tmin-Daten aus BEST. Weil die täglichen Daten so viel Rauschen aufweisen, verwendete ich die monatlichen Zeitreihen, um das Verhalten der Temperaturen zu ergründen.

Abbildung 4: Monatliche Mittelwerte der Zeitreihen der Höchst- und Tiefsttemperatur (Quelle)

(Das Thema Temperaturänderungen habe ich zuvor schon einmal behandelt, und zwar hier)

Auch Abbildung 4 ist nicht sehr informativ. Es sieht so aus, als wäre eine leichte Zunahme der Steigung von Tmax nach etwa dem Jahr 1975 aufgetreten, was nur schwer den Auswirkungen von CO2 zuzuordnen ist. Der Anstieg der Tmin könnte nach 1998 leicht gesunken sein mit Ausnahme des El Nino 2016. Zeichnet man die Anomalien anstatt die tatsächlichen Temperaturen (hier nicht gezeigt), wird die Zunahme der Steigung von Tmax nach 1975 betont; jedoch erscheint Tmin gleichförmiger. Man beachte, dass der Theorie der ,Treibhausgas‘-Erwärmung zufolge die Auswirkungen bei Tmin am stärksten sind. Allerdings gibt nichts davon Aufschluss darüber, was mit den CoVs um das Jahr 1990 geschehen war.

Allerdings ist ein Plot der Zeitreihe der monatlichen Daten der Differenzen zwischen Tmax und Tmin wesentlich interessanter! Wie früher schon einmal beschrieben sind diese Differenzen etwa seit Beginn des 20. Jahrhunderts kleiner geworden. Allerdings zeigt sich auch hier genau wie bei den CoVs eine ausgeprägte Änderung um das Jahr 1900! Nach einer Abnahme der Differenzen über ein Jahrhundert begannen diese wieder zuzunehmen. Die polynome Regression 3. Ordnung – dargestellt in violett – ist von keiner besonderen Bedeutung außer der Betonung der Änderungen der Differenz zwischen Höchst- und Tiefsttemperaturen. Jedoch deutet sich darin ein möglicher 200-Jahre-Zyklus an.

Es sieht so aus, als sei vor etwa 30 Jahren irgendetwas Subtiles passiert, was sich nicht in Temperatur- (oder Temperaturanomalie-)Daten allein zeigt. Abbildung 4 zeigt, dass Tmax und Tmin beide steigen. Da Tmax viel größer ist als Tmin, wird jene dazu neigen, die daraus resultierende Änderung zu dominieren, mit gleicher Prozentzahl für beide. Es scheint, als ob sowohl Tmax als auch Tmin gleichlaufend durch den El Nino 2016 beeinflusst worden wären. Die Steigung von Tmax ist zwischen 1985 und 2005 größer als von Tmin. Falls Tmax stärker steigt als Tmin, wäre dies ein Argument gegen CO2 als primärer Treiber der globalen Erwärmung.

Abbildung 5: Zeitreihen der Differenz von Höchst- und Tiefsttemperatur

Die Frage lautet: „Was war die Ursache der Änderungen um das Jahr 1990, und hat es irgendeine klimatologische Bedeutung?“ Eine mögliche Erklärung ist, dass die offensichtliche Änderung der Temperatur-Relationen irgendwie ein Artefakt der Aufbereitung [processing] ist; allerdings sind mir die Details des Aufbereitungs-Verfahrens von BEST nicht bekannt genug, um darüber zu spekulieren, wie diese Änderung zustande kommt. Unwillkürlich kommt einem aber der Gedanke, dass hier die Regeln von Präzision und Fehlerfortpflanzung ignoriert worden sind.

Abbildung 6: CO2-Konzentration von 1958 bis 2019 (Quelle)

Abbildung 6 ist eine Graphik der CO2-Messungen am Mauna Loa seitens des Scripps Oceanographic Institute. Betrachtet man die Graphik, scheint es leicht zu sein, das oben beschriebene Verhalten mit einem geringen Rückgang der Zunahme-Rate von CO2 nach dem Jahr 1990 zu erklären, für etwa zwei oder drei Jahre. Das heißt, falls CO2 der Haupttreiber von Temperaturänderungen wäre, scheint es nichts im Verhalten der CO2-Konzentrationen zu geben, was augenscheinlich die jüngste langzeitliche Abnahme der CoVs oder der Differenzen von Tmax und Tmin erklären würde.

Summary

Extrapolationen sind immer mit Risiken behaftet. Auf der Grundlage des Verhaltens von CoV von Tmax jedoch, welcher abzunehmen scheint, scheint es keine starke empirische Stützung für die Prophezeiung zu geben, dass zukünftige Hitzewellen schlimmer und häufiger auftreten als während der jüngeren Vergangenheit.

Eindeutig ist Tmax während der letzten 40 Jahre oder so gestiegen. Allerdings erreichte der CoV vor 30 Jahren seinen Spitzenwert und scheint derzeit immer noch abzunehmen, jedenfalls auf der Grundlage der jährlichen CoV-Werte. Weil Tmax typischerweise die Folge direkter solarer Erwärmung ist, könnte eine Abnahme der Varianz der so genannten ,Solarkonstante‘ zu einer Abnahme des CoV von Tmax führen.

Während Tmin eindeutig steigt, fast monoton, zeigt der CoV, dass die Zunahme zustande kommt, indem man das Grundniveau der Minimum-Temperaturen anhebt [?].

Man könnte versucht sein, die Effekte beiseite zu schieben, die ich als so gering beschrieben habe, dass sie keine Konsequenzen nach sich ziehen. Allerdings sind die Temperaturdifferenzen und die Standardabweichungen des über 30 Jahre geglätteten Mittels, auf welchem die CoVs basieren, hinsichtlich Dauer und Größenordnung vergleichbar mit vielen Jahrzehnten der Änderung der mittleren globalen Temperatur. Hierfür bedarf es dringend einer Erklärung. Tragen die globalen Klimamodelle diesen Sekundäreffekten in irgendeiner Weise Rechnung?

Ich möchte über das Verhalten der CoV und der Differenzen der Höchst- und Tiefsttemperaturen mit Bezug zu globalen Temperaturänderungen nachzudenken anregen.

References

C. D. Keeling, S. C. Piper, R. B. Bacastow, M. Wahlen, T. P. Whorf, M. Heimann, and H. A. Meijer, Exchanges of atmospheric CO2 and 13CO2 with the terrestrial biosphere and oceans from 1978 to 2000. I. Global aspects, SIO Reference Series, No. 01-06, Scripps Institution of Oceanography, San Diego, 88 pages, 2001.

*It is more accurate to refer to the CoVs as a “sliding sample” because only the denominator is actually a moving average.

Link: https://wattsupwiththat.com/2019/09/06/the-gestalt-of-heat-waves/

Übersetzt von Chris Frey EIKE




Greta und die Klima­hysterie: „Die Wissen­schaft“ schlägt zurück (und um sich)

Petteri Taalas warnte nämlich in seinem Interview eindringlich vor der aktuellen „Untergangs-Hysterie“ und vor Behauptungen über ein bevorstehendes „Ende der Welt“ aufgrund des Klimas. Mit Blick auf die finnischen Medien stellte er fest, dass diese eine „Atmosphäre der Angst“ erzeugten. Er sorge sich um junge Mütter, denen eingeredet werde, dass sie keine Kinder haben sollten. Zudem glaube er, im Gegensatz zu vielem, was in den Medien zu hören sei, nicht daran, dass die Menschen jetzt Askese treiben müssten. In einer englischen Besprechung des Artikels wird er wie folgt zitiert: „Wenn Sie jetzt anfangen, wie ein orthodoxer Mönch zu leben, wird das die Welt nicht retten“. Der Lebensstandard sollte nicht abgesenkt werden.

Radikale Umweltschützer als „wesentliches Problem“

Inzwischen, so Petteri Taalas, hätten sich neben den „Klimaskeptikern“ sogenannte radikale Umweltschützer zu einem wesentlichen Problem entwickelt. Selbst Klimaexperten würden von diesen Leuten, die „mehr Radikalität“ forderten, attackiert. Diese Kräfte bezeichnete er als Untergangspropheten und Extremisten, die mit Drohungen agierten. Namentlich genannt wurde in diesem Zusammenhang die „Extinction Rebellion“-Bewegung mit ihren Forderungen nach „Nullemissionen bis 2025” sowie nach „ehrlichen Klimainformationen durch die Regierung.“ Taalas warnt vor diesen sogenannten „deep greens“, welche die Berichte des International Panel on Climate Change (IPCC) missbrauchten, indem sie sich daraus solche Aspekte herauspickten, die ihnen als Begründung für ihre radikalen Aktionen geeignet erschienen.

Zwar hat es Hr. Taalas bei seiner Stellungnahme sorgfältig vermieden, eine gewisse Person aus dem Nachbarland Schweden ins Spiel zu bringen, doch trifft seine Beschreibung vollinhaltlich auch auf eine gewisse Greta mit ihrem Spruch „Ich will, dass ihr in Panik verfallt“ zu.

Alles andere als ein „Klimaskeptiker“

Nun könnte man dieses in der international kaum verbreiteten finnischen Sprache und zudem in einer weltweit kaum bekannten finnischen Zeitschrift veröffentlichte Interview schulterzuckend mit dem berühmten Spruch vom Sack Reis in China abtun. Jedoch ist Petteri Taalas alles andere als ein namenloser „Klimaskeptiker“, ganz im Gegenteil. Der PhD in Meteorologie der Universität Helsinki mit mehr als 50 peer-reviewten Veröffentlichungen über Themen wie Atmosphärenchemie, Klimawandel oder Satellitentechnologie ist als Generalsekretär der Weltorganisation für Meteorologie (WMO) einer der obersten Vertreter der Lehre vom menschengemachten Klimawandel. Damit repräsentiert er genau die „Science“, zu deren Unterstützung Greta mit einem riesigen Spruch auf dem Hauptsegel ihres High-Society-Seglers aufgerufen hatte. Doch im Unterschied zu Greta T. und der Bundeskanzlerin M. ist er offensichtlich intelligent genug zu erkennen, dass die Geister, die seine Organisation im Verein mit dem IPCC seit Jahren beschworen hat, jetzt außer Kontrolle geraten sind und damit auch ein weiteres sicheres Dasein beider Gremien in Gefahr geraten ist. Die Klimakampagne hat grotesk überreizt und wird kippen. Herr Taalas sieht das Unheil offensichtlich kommen und versucht, Gegensteuer zu geben. Er hat begriffen, dass derjenige, der in der jetzigen Lage noch aggressiv Klimawandel-Hysterie verbreitet, sich Gedanken darüber machen sollte, wie er in einigen Jahren beruflich dastehen könnte. Wenn das Lügengebäude des „vom Menschen durch CO2-Emissionen herbeigeführten Klimawandels“ zusammengekracht ist, will er nicht einen Karriereknick erleiden oder gar wie ein Fisch auf dem Trockenen zappeln müssen.

Wer Angst vor einem „Klimawandel“ predigt, ruft Geister herbei

Petteri Taalas muss derzeit die Erfahrung machen, dass die von ihm und seinesgleichen über Jahre gepredigte Angst nun Geister herbeigerufen hat, die ihn zu überrollen drohen. Eine solche Eigendynamik ist unvermeidlich, denn die hierdurch angestoßene „Energiewende“ ist inzwischen sehr, sehr groß geworden. Obwohl das gesamte Projekt sowohl technisch als auch wirtschaftlich vollkommener Irrsinn ist, wurden mittlerweile zu viele Gelder und zu viele Karrieren darin investiert, als dass man die Entwicklung noch einfach so stoppen könnte. Die von Merkel, IPCC und auch WMO gerufenen Geister werden deshalb gleich zweifach kommen: Zuerst, um möglichst großen Druck zu machen, weil man dem Volk Angst um die Zukunft seiner Kinder und Enkel gemacht hat. Und nach dem Fiasko mit verdoppelter Wucht, wenn den Menschen klargeworden ist, in welchem Ausmaß sie betrogen wurden. Dann wird man sich an Goethes Gedicht vom Zauberlehrling erinnern:

Die ich rief, die Geister, werd ich nun nicht los“




Fehler-Fort­pflanzung und die Zuver­lässigkeit von Projek­tionen der globalen Lufttem­peratur

Bevor ich in die Materie einsteige, möchte ich meinen tief empfundenen Dank an Anthony Watts aussprechen, weil er unabhängigen Gedanken Stimme verleiht. So viele haben versucht, sie zu unterdrücken (Freiheits-Leugner?). Sein Geschenk an uns ist gar nicht hoch genug zu bewerten.

Die Studie ist frei zugänglich, und zwar hier. Die Supporting Information SI steht hier.

Ich möchte auch dem Herausgeber meines Manuskriptes Dr. Jing-Jia Luo meine Verehrung ausdrücken, welcher den Mut eines Wissenschaftlers bewiesen hatte – ein Niveau professioneller Integrität, die ich so oft schon vermisst habe während meines 6 Jahre langen Trips.

Dr. Luo benannte vier Begutachter, von denen drei keine Interessenkonflikte hatten durch Involvierung im Status Quo von AGW. Sie schrieben kritisch konstruktive Begutachtungen, welche das Manuskript zu verbessern halfen. Diesen Begutachtern bin ich sehr dankbar. Sie legten die leidenschaftliche Professionalität und Integrität an den Tag, was ich bei meinen Einreichungen zuvor kaum einmal erlebt hatte.

Ein kleiner Exkurs in den Stand der Praxis:

Jeder, der einen tiefen Tauchgang machen möchte, kann hier den gesamten Korpus an Bewertungen und Antworten für alle 13 vorherigen Einreichungen herunterladen (60 MB zip-Datei, Webroot virenfrei gescannt). Wählen Sie „kostenloser Download“, um Werbeeinbußen zu vermeiden.

Etwa 25 der vorigen 30 Begutachtungen wurden von Klima-Modellierern geschrieben. Man findet wiederholt Zurückweisungen des Manuskriptes seitens der Herausgeber auf der Grundlage objektiv inkompetenter negativer Begutachtungen. Über diese außerordentliche Realität habe ich bei WUWT hier und hier berichtet. Während meiner 30 Jahre von Veröffentlichungen im Bereich Chemie habe ich niemals eine so schändliche Verfahrensweise erlebt.

Nach meinen früheren Erfahrungen stellte ich hinsichtlich von Klima-Modellierern fest:

Sie unterscheiden nicht zwischen Genauigkeit und Präzision.

Sie verstehen nicht, dass beispielsweise eine ±15°C-Unsicherheit keine physische  Temperatur ist.

Sie verstanden nicht, dass die Ableitung einer ±15°C-Unsicherheit zur Aufbereitung einer projizierten Temperatur NICHT bedeutet, dass das Modell selbst rapide zwischen Eishaus- und Treibhaus-Bedingungen hin und her schwingt (das war wirklich ein tatsächlicher Einwand der Begutachter).

Für sie ist die „Standardfehlerfortpflanzung“ ein unbekannter Begriff

Sie verstanden nicht die Bedeutung oder die Auswirkung eines Kalibrierungs-Experimentes

Sie verstanden nicht das Konzept der instrumentellen oder Modell-Auflösung oder, dass dies empirische Grenzen hat

Sie verstanden überhaupt nicht, was eine physikalische Fehler-Analyse ist.

Sie verstanden nicht, dass ,±n‘ etwas anderes ist als ,+n‘.

Einige dieser Merkmale zeigen sich in ihren Studien. Ich habe nicht einen gesehen, der angemessen mit physikalischem Fehler, Modell-Kalibrierung oder den Auswirkungen eines physikalischen Fehlers in den Modellen umgeht hinsichtlich der Zuverlässigkeit eines projizierten Klimas.

Weitere sorgfältige Analysen sind bei WUWT hier, hier und hier erschienen.

In den Studien zu Klimamodellen geht es in den typischen Unsicherheits-Analysen um Präzision, nicht um Genauigkeit. Sie sind geeignet für Ingenieur-Modelle, welche Messgrößen reproduzieren können innerhalb ihrer Kalibrierungs-Grenzen. Sie sind nicht geeignet für physikalische Modelle, welche die Zukunft prophezeien oder für unbekannte Messgrößen.

Klimamodellierer haben nachweislich keine Erfahrung bzgl. des wissenschaftlichen Verfahrens. Sie sind nicht als Wissenschaftler ausgebildet worden. Sie sind keine Wissenschaftler. Sie sind nicht darin ausgebildet, die physikalische oder prognostische Zuverlässigkeit ihrer eigenen Modelle zu evaluieren. Sie legen nicht die Aufmerksamkeit für physikalische Argumentationen an den Tag, wie es die gute wissenschaftliche Praxis fordert. Sie stehen aktiv jedweder Demonstration dieser Diagnose feindlich gegenüber.

In ihren Händen ist die Klima-Modellierung zu einer Art eines subjektiven Narrativs geworden, und zwar ähnlich der kritischen Theorie der Pseudo-Wissenschaft, welche die akademischen Bereiche der Geisteswissenschaften und der Soziologie verzerrt und aktiv so viele soziale Konflikte gefördert hat. Nennen wir es die Critical Global Warming Theory. Subjektive Narrative nehmen an, was bewiesen werden soll (CO2-Emissionen gleichen direkt fühlbarer Wärme), deren Hypothesen haben das Gewicht von Beweisen (CO2 und Temperatur, sehen Sie?), und jede Studie singt das gleiche Lied (es ist schlimmer als wir dachten).

Subjektive Narrative und akademische kritische Theorien sind nachteilige Konstrukte. Sie stehen im Gegensatz zu Wissenschaft und Ratio. Während der letzten 31 Jahre hat die Klima-Modellierung diesen Status erreicht mit dessen Abstieg in nicht hinterfragte Hypothesen und Zirkelschlüssen.

Eine Zusammenfassung der Ergebnisse:

Die Studie zeigt, dass fortgeschrittene Klimamodelle die Lufttemperatur lediglich als eine bloße lineare Extrapolation vom Treibhausgas-Antrieb projizieren. Diese Tatsache ist inzwischen vielfach belegt, deren Hauptmasse sich in den SI findet. Eine einfache Gleichung, linear bzgl. des Antriebs, bildet erfolgreich die Temperatur-Projektionen von nahezu jedem Klimamodell nach. Willis Eschenbach hat das unabhängig hiervon schon früher entdeckt (hier).

Nachdem ihre Wirksamkeit bei der Nachbildung von Temperatur-Projektionen der GCMs gezeigt wurde, wird die lineare Gleichung herangezogen, um den systematischen Fehler der Klimamodelle mittels ihrer Temperatur-Projektionen fortzupflanzen.

[Original: … the linear equation is used to propagate the root-mean-square annual average long-wave cloud forcing systematic error …]

Die Unsicherheit der projizierten Temperatur beträgt ±1,8°C nach einem Jahr für eine Projektions-Anomalie von 0,6°C sowie ±18°C nach 100 Jahren für eine Projektions-Anomalie von 3,7°C. Der prognostische Gehalt der Projektionen beträgt Null.

Kurz gesagt, Klimamodelle können nicht zukünftige globale Lufttemperaturen prognostizieren – nicht für ein Jahr und nicht für 100 Jahre. Die Temperatur-Projektionen der Klimamodelle sind physikalisch bedeutungslos. Sie sagen überhaupt nichts aus über die Auswirkungen von CO2-Emissionen auf die globalen Temperaturen (falls es überhaupt irgendwelche Auswirkungen gibt).

Hier ein Beispiel, wie man sich das vorstellen muss:

Abbildung: Graphik a links: Blaue Punkte = vom GISS-Modell E2-H-p1 RCP8.5 projizierte Anomalien der Lufttemperatur. Rote Linie = lineare Nachbildung. Graphik b rechts: Wie a, jedoch mit einer grünen Einhüllenden, welche die physikalischen Unsicherheitsgrenzen in der GISS-Projektion zeigt infolge des modellierten langwelligen Wolkenantriebs-Faktors mit einem jährlichen Mittel von ±4 W/m2. Die Unsicherheitsgrenzen wurden ab dem Jahr 2006 berechnet.

Wäre die Unsicherheit ab dem ersten Projektions-Jahr berechnet worden, 1850, (nicht in der Abbildung gezeigt), wären die Unsicherheitsgrenzen viel breiter, obwohl die bekannten Temperaturen des 20. Jahrhunderts gut reproduziert werden. Der Grund hierfür ist, dass die dem Modell zugrunde liegende Physik nicht korrekt ist. Daher gibt es darin keinerlei physikalische Informationen über das Klima in den projizierten Temperaturen des 20. Jahrhunderts, obwohl diese statistisch nahe den Beobachtungen liegen (weil die Modelle entsprechend frisiert worden waren).

Physikalische Unsicherheitsgrenzen repräsentieren den Zustand physikalischen Wissens, nicht der statistischen Übereinstimmung. Die Projektion ist physikalisch bedeutungslos.

Die Unsicherheit infolge des jährlichen mittleren modellierten langwelligen Wolkenantriebs-Faktors allein (±4 W/m²) ist etwa ±114 mal größer als die jährliche mittlere Zunahme des CO2-Antriebs (etwa 0,035 W/m²). Eine vollständige Inventur der Modellfehler würde eine enorm viel größere Unsicherheit erzeugen. Klimamodelle sind daher absolut unfähig, die Auswirkungen des geringen Antriebs durch Treibhausgas-Emissionen aufzulösen.

Die unausweichliche Schlussfolgerung lautet, dass welche Auswirkungen CO2-Emissionen auch immer auf das Klima haben – sie können weder in der Vergangenheit noch heute erkannt werden.

Es scheint, dass Exxon das nicht wusste – nicht wisse konnte – genauso wenig wie jedermann sonst.

Jede einzelne modellierte Lufttemperatur-Projektion seit 1988 (und davor) ist physikalisch bedeutungslos. Auch ist jede Erkennungs- und Zuordnungs-Studie seitdem physikalisch bedeutungslos. Wenn es um CO2-Emissionen und Klima geht, weiß niemand, wovon sie geredet haben: nicht das IPCC, nicht Al Gore (das wussten wir schon) und nicht einmal die prominentesten Klima-Modellierer – und mit Sicherheit kein politischer Angeber.

Es gibt keine valide physikalische Theorie des Klimas, mittels welcher man prognostizieren kann, was CO2-Emissionen mit dem Klima machen, wenn überhaupt etwas. Diese Theorie existiert noch nicht.

Die Stefan-Boltzmann-Gleichung ist keine valide Theorie des Klimas, obwohl Leute, die es besser wissen müssten, dies glauben, einschließlich der NAS und jeder wissenschaftlichen Gesellschaft in den USA. Deren Verhalten diesbezüglich ist das atemberaubendste Aufgeben kritischen Denkens in der Wissenschaftshistorie.

Angesichts des Fehlens jedweder physikalisch validen kausalen Ableitung und des Umstands, dass das Klima multipel und rasch auf Änderungen des Energieflusses reagieren kann sowie des weiteren Umstands, dass sich derzeit nichts Ungewöhnliches im Klima zeigt, bleibt man ohne jede Ahnung zurück, wie viel Erwärmung, falls überhaupt eine, zusätzliches CO2 erzeugt hat oder erzeugen wird.

Aus der Perspektive physikalischer Wissenschaft ist es sehr vernünftig zu folgern, dass jedwede Auswirkung von CO2-Emissionen jenseits der gegenwärtigen Auflösung liegt, und es ist sogar vernünftig anzunehmen, dass jedwede mögliche Auswirkung so klein sein kann, dass sie innerhalb der natürlichen Variation gar nicht auffindbar ist. Nichts, was bzgl. des derzeitigen Klimas beobachtet wird, ist in irgendeiner Weise ungewöhnlich.

Die Analyse erbost das gesamte IPCC-Establishment. Sie macht das Endangerment Finding der US-Umweltbehörde (EPA) bedeutungslos und entfernt den Klima-Alarm aus dem US-Wahlkampf 2020. Es gibt keinerlei Beweis irgendeiner Art, dass CO2-Emissionen die globale mittlere Temperatur hat steigen lassen oder steigen lassen werden – falls diese Emissionen dazu überhaupt in der Lage sind.

Die Analyse hat keine Ecken und Kanten. Sie hätte bereits vor 30 Jahren durchgeführt werden sollen – wurde sie aber nicht.

All die düstere Bedeutung bzgl. der Eisschmelze in Grönland oder sich zurückziehender Gletscher von ihrer Höchstausdehnung während der Kleinen Eiszeit oder Änderungen des winterlichen Eises in der Arktis oder der Überflutungen in Bangladesh oder Kiribati oder der Eisbären ist verschwunden. Nichts davon kann vernünftigerweise oder physikalisch den Menschen oder deren CO2-Emissionen in die Schuhe geschoben werden.

Obwohl ich mir ziemlich sicher bin, dass die Studie definitiv ist, werden die in den herrschenden Alarm-Konsens Involvierten fast mit Sicherheit nicht zurückstecken. Es ist unwahrscheinlich, dass die Debatte hier zu Ende ist.

Schauen wir zum Schluss auf den in breiter Front angerichteten Schaden: Ich möchte schließen mit der Hinwendung zu der ethischen Konsequenz der Raserei um die globale Erwärmung. Bei näherem Hinsehen entdeckt man, dass Klimamodelle das Klima nicht modellieren können. Diese Tatsache wurde schon im Jahre 2001 klargestellt, und zwar in der Veröffentlichung von W. Soon, S. Baliunas, S. B. Idso, K. Y. Kondratyev, and E. S. Posmentier Modeling climatic effects of anthropogenic carbon dioxide emissions: unknowns and uncertainties. Climate Res. 18(3), 259-275. Sie steht hier.

In einer normal funktionierenden wissenschaftlichen Umgebung hätte jene Studie den Alarm bzgl. CO2-Emissionen beenden müssen. Dies war jedoch nicht der Fall.

Stattdessen wurde diese Studie verunglimpft und dann universal ignoriert. (Die Lektüre derselben im Jahre 2003 war es, die mich so aufregte. Es war sofort offensichtlich, dass Klimamodellierer unmöglich wissen konnten, was sie zu wissen behaupteten). Wahrscheinlich wird meiner Studie Ähnliches widerfahren: Verhöhnung gefolgt von deren Beerdigung.

Eines aber wissen wir mit Sicherheit: all der Wahn um CO2 und Klima war umsonst.

All die gequälten Erwachsenen; all die verzweifelnden jungen Menschen; all die sich zu Tränen ängstigenden Kinder an Schulen und die Tadel mittels Lektionen über den bevorstehenden Untergang und Tod und Zerstörung; der ganze soziale Streit und die sozialen Verrenkungen. All die Beschuldigungen, der charakterliche Rufmord, all die zerstörten Karrieren, all die winterlichen Todesfälle durch Energie-Armut, all die Männer, Frauen und Kinder, die weiterhin mit Rauch in Innenräumen leben müssen; all die verschwendeten Geldsummen, die verschandelten Landschaften, die zerschmetterten und verbrannten Vögel und Fledermäuse; all die von der Mittelklasse hin zu den reichen Subventions-Landwirten verschobenen Reichtümer – alles für nichts!

Man kann vieles verantwortlich machen, aber der Verrat an der Wissenschaft steht an oberster Stelle. Zu all dem wäre es nicht gekommen, wenn nicht jede einzelne wissenschaftliche Gesellschaft ihre Pflicht zur Gewissenhaftigkeit aufgegeben hätte.

Von der American Physical Society bis zur American Meteorological Association – sie alle haben ihre professionelle Integrität aufgegeben und damit auch ihre Verantwortung, echte Wissenschaft zu verteidigen und zu praktizieren. Absichtliche Missachtung? Wer weiß. Verrat an der Wissenschaft? Mit absoluter Sicherheit.

Wäre die American Physical Society bzgl. der Behauptungen über CO2 und Klima genauso kritisch gewesen wie bzgl. Palladium, Deuterium oder die kalte Fusion, wäre nichts dergleichen passiert. Aber das war sie nicht.

Der institutionelle Betrug hätte schlimmer nicht sein können; er war schlimmer als der Lyssenkoismus, weil es jetzt keinen Stalin gibt, der einem die Pistole unter die Nase hält. Alle waren freiwillig dabei.

Die Toten und Verletzten, die Ängste, die Streitereien, die fehlgeleiteten Ressourcen, die Angriffe auf die Ökologie – all das zu verhindern lag in ihren Händen. Sie haben es nicht getan und stehen daher jetzt in der Verantwortung für all das.

Meiner Ansicht nach sollte das Management jeder einzelnen wissenschaftlichen Gesellschaft in den USA in Schande zurücktreten. Jedes einzelne! Anfangen sollte man mit Marcia McNutt an der National Academy.

Dem IPCC sollten sämtliche Mittel gestrichen und es danach aufgelöst werden.

Und die US-Umweltbehörde (EPA)? Wer genau ist sie, die sie sich rigoros hätte engagieren müssen, es aber nicht getan hat? Im Licht der offensichtlich einstudierten Inkompetenz im Zentrum – sollte nicht die gesamten Befugnisse den Staaten zurückgegeben werden, wo sie hingehören?

Und in einer kleineren, aber nichtsdestotrotz realen Tragödie – wer sagt es der so zynisch missbrauchten Greta? Meine Vorstellung weigert sich, mir dieses Bild vor Augen zu führen.

Zusatz zur Vervollständigung der Diagnose: Es sind nicht nur die Klimamodelle.

Diejenigen, welche die globalen Temperaturaufzeichnungen durchführen, wissen noch nicht einmal um die Grenzen der Auflösung der historischen Instrumente, siehe hier oder hier.

Sie haben vollkommen die systematischen Messfehler ignoriert, welche die Temperaturaufzeichnung durchziehen und diese ungeeignet macht, um irgendetwas über das historische Klima daraus abzulesen, siehe hier, hier und hier.

Diese Probleme addieren sich noch zu denjenigen durch falsche Aufstell-Orte und durch die (Wärmeinsel) -UHI-Effekte.

Die Rekonstruktionen der Paläo-Temperatur aus Proxys, das dritte Standbein des Alarmismus‘, weist keinerlei Relation zur physikalischen Temperatur auf, siehe hier und hier.

Die gesamte AGW-Behauptung fußt auf Klimamodellen, welche nicht das Klima modellieren; auf klimatologisch nutzlosen Messungen der Lufttemperatur und auf Rekonstruktionen der Paläo-Temperatur, von denen nicht bekannt ist, dass sie die Temperatur rekonstruieren.

Das alles beruht auf falscher Präzision; eine Sachlage, die vollständig hier beschrieben wird – begutachtet und alles.

Klima-Alarmismus ist künstliche Pseudo-Wissenschaft und zwar von Anfang an; so gestaltet, dass es wie Wissenschaft aussieht, es aber nicht ist.

Keine einzige wissenschaftliche Organisation hat dies Pseudo-Wissenschaft genannt, obwohl ihre einzige Grundlage die Erhaltung der Integrität der Wissenschaft sein sollte.

Link: https://wattsupwiththat.com/2019/09/07/propagation-of-error-and-the-reliability-of-global-air-temperature-projections-mark-ii/

Übersetzt von Chris Frey EIKE

————————————–

Bemerkung des Übersetzers: Autor Pat Frank spricht hier nur die wissenschaftlichen Institutionen an. Aber sind nicht auch diese wie eine Hammelherde getrieben – durch grünlinke Politiker in allen Parteien und vor allem durch die Medien? Sind es nicht die Politiker, welche Geld für Wissenschaft bewilligen müssen – und den Hebel ansetzen? Sagte nicht jemand in den Anfängen des ganzen Schwindels „jeder von uns Wissenschaftlern muss für sich selbst entscheiden, ob er lieber ehrlich oder lieber effektiv sein will“. Gilt das nicht auch für wissenschaftliche Gesellschaften?

Auch Wissenschaftler sind Menschen, und zwar vielfach solche, die auf diese Gelder angewiesen sind. Kann man ihnen anlasten, dass sie eben lieber effektiv sein wollen, wenn man ihnen das Geld so freigebig hinterherwirft?




Solarenergie schädigt die Umwelt schwer. Sie muss besteuert und nicht subven­tioniert werden!

Unsere Partei ist gegen dieses Verfahren. Erstens, weil wir gegen Subventionen allgemein sind, egal für welche Industrie. Aber zweitens, wir glauben außerdem, dass es völlig fehl am Platze ist, Pigovian-Steuern* einzuführen angesichts der schweren ökonomischen und umweltlichen Schäden, die diese Steuern mit sich bringen.

[*Pigovian-Steuern: Eine Pigou-Steuer ist ein bestimmter Fall von Lenkungsabgaben, also von Steuern, die weniger einen Fiskalzweck haben als vielmehr hauptsächlich der gezielten Lenkung des Verhaltens dienen. Sie ist nach Arthur Cecil Pigou benannt. Quelle: Wikipedia]

Solarenergie mag für einige Zwecke geeignet sein. Man kann damit ein Radio anstellen an Orten, die weit entfernt von jeder Netzanbindung liegen. Aber sie kann nicht unser tägliches Leben unterstützen.

Die von der Sonne einfallende Strahlung weist eine extrem geringe Energiedichte auf. Daher müssen riesige Landflächen zu deren Absorption mit Solarpaneelen überzogen werden – auf Kosten von Wäldern und der Biodiversität. Das Solarkraftwerk Kamuthi (648 MW) in Tamil Nadu überzieht zehn Quadratkilometer Landfläche. Ein Zehntel dieser Fläche würde ausreichen, um darauf ein Kernkraftwerk mit viel größerer Kapazität zu errichten.

Ein noch viel größeres Problem ist, dass Solarenergie nur dann zur Verfügung steht, wenn die Sonne scheint. Ich habe im vorigen Jahr eine Solaranlage auf meinem Dach installiert. Wie erwartet fährt das System nachts auf Null herunter. Aber es ist ein einziger Witz, wenn weniger als 10% der Kapazität bis zum Ende des Tages erzeugt werden. Sie ist einfach unbrauchbar.

Während die Vorteile von Solarenergie für die Gesellschaft praktisch nicht existent sind, sind die Kosten gewaltig. Nur aufgrund der Nachrichten-Schlagzeilen würde man das aber nie erfahren. „Netz-Parität“ [?] und „die Sonne schickt keine Rechnung“ wurden zentrale Bestandteile der Propaganda, welche von Solar-Lobbyisten und „Forschern“ raffiniert lanciert worden sind, um die Steuerzahler zu prellen. Das nächste Mal, wenn man etwas von billiger Solarenergie hört, sollte man darauf bestehen, dass die vollen Kosten benannt werden.

Solarpaneele auf Dächern sind massive Geldvernichtungs-Maschinen. Mein Dachsystem ist dafür ein gutes Beispiel. Selbst mit Subventionen seitens der Steuerzahler in Höhe von 3888 Dollar kam es mich mit 10.370 Dollar zu stehen. Und nach einem Jahr hat sie viel weniger Energie erzeugt als mir versprochen worden war. Anstatt der versprochenen Amortisation nach 6 Jahren wird das nun 11 Jahre dauern – aber nur, wenn ich niemals Geld für die Wartung ausgebe, der Umwandler immer funktioniert, das System irgendwie 11 Jahre durchhält und die Einspeisetarife nicht gesenkt werden. Ich kann mir keinen effektiveren Weg vorstellen, Geld zu verbrennen.

Aber was ist mit Solarenergie-Großprojekten, welche angeblich tagsüber Strom zu Kosten erzeugen, die mit fossilen Treibstoffen vergleichbar sind? Derartige Behauptungen sind nichts als Halbwahrheiten, die mehr verschleiern als sie offenbaren.

Der einzige Weg, die Kosten von Solarenergie mit denjenigen konventioneller Energiequellen zu vergleichen ist es, die Gesamtkosten der Solarenergie einschließlich der Kosten der Batteriespeicherung heranzuziehen. Und wenn man das macht, stellt sich heraus, dass Solarenergie einen tödlichen Angriff auf die Ökonomie darstellt.

Batterien speichern fast keine Energie im Vergleich zu normalen Treibstoffen, und daran wird sich vorerst auch nichts ändern. Fortschritte der Batterie-Technologie kommen von Natur aus nicht an physikalischen Gesetzen vorbei. In einem Report vom März 2019 wies Mark P. Mills vom Manhattan Institute nach, dass „man Tesla-Batterien im Wert von 200.000 Dollar brauchen würde, die zusammen über 20.000 Pfund wiegen würden, um Energie äquivalent zu einem Barrel Öl zu speichern“. Und dass „das Energie-Äquivalent von Flugzeugtreibstoff für einen Flug nach Asien Batterien des Tesla-Typs im Wert von 60 Millionen Dollar erfordern würde, die fünf mal so viel wiegen wie das ganze Flugzeug“. Man stelle sich mal die Preise für einen solchen Flug vor, falls das Flugzeug überhaupt in der Lage ist abzuheben.

Die Herstellung der Batterien verbraucht große Mengen Energie, wobei „das Energie-Äquivalent von etwa 100 Barrel Öl“ erforderlich ist, um „eine Anzahl von Batterien herzustellen, welche das Energie-Äquivalent von einem einzigen Barrel Öl speichern können“. Und die zur Herstellung der Batterien erforderlichen Rohstoffe sind extrem knapp. Eine dramatische Zunahme des Bergbaus würde nötig sein, um ein Solar-Netz mit seinen eigenen Batterien zu installieren.

Aber selbst dann würde es noch 1000 Jahre dauern. „Der jährliche Ausstoß der Giga-Fabrik von Tesla, die größte Batterie-Fabrik der Welt, speichert nur für drei Minuten die jährliche Stromnachfrage der USA. Man bräuchte 1000 Jahre der Herstellung, um genug Batterien zu bauen, die zwei Tage lang die Stromnachfrage der USA decken können“.

Der Gedanke an massenhafte Elektro-Fahrzeuge ist eine Halluzination. EV-Batterien können kaum Energie speichern und brauchen sehr lange für das Wiederaufladen. Und Zeit gibt es niemals umsonst. Diese Fahrzeuge sind völlig ungeeignet.

Aber hat Solar nicht gewaltige Vorteile für die Umwelt? Überhaupt nicht! Stattdessen ist Solarenergie einer der schlimmsten Feinde der Umwelt, selbst wenn man dabei die extremen Habitat-Verluste nicht berücksichtigt. Solar-Abfall ist extrem giftig. Michael Shellenberger hat errechnet, dass „Solarpaneele 300 mal so viel giftigen Abfall pro Einheit Energie hinterlassen als Kernkraftwerke“.

National Geographic berichtete im Jahre 2014, das fast alle Solar-PV-Module mindestens ein seltenes oder wertvolles Metall benötigen wie Silber, Tellur oder Iridium. Die meisten dieser Stoffe können die Wildnis schwer schädigen und sogar Menschen töten, wenn sie in das Grundwasser gelangen. Und Elon Musk ist frustriert ob seiner Unfähigkeit, Batterien ohne giftigen Kobalt zu bauen. Man erschauert bei dem Gedanken sich vorzustellen, wie ein Land wie Indien, ohne Kapazität, selbst normalen Müll zu entsorgen, mit Kilometer hohen Bergen tödlichen Solar-Abfalls umgehen kann/soll.

Unsere Partei glaubt, dass man wegen dieser gewaltigen ökonomischen und umweltlichen Kosten die Solarenergie erheblich besteuern sollte.

Und es gibt noch etwas, über das sich unsere Partei große Sorgen macht: Die Umverteilung von Wohlstand von den Armen zu den Reichen mittels der gegenwärtigen Subventionen. Man vergesse die Kosten für ein Solarsystem auf dem Dach – die Armen Indiens – welche immer noch in Lehmhütten leben – können nicht einmal physisch ein Solarsystem auf dem Dach installieren. Genauso kann sich kein einziger armer Inder ein Elektroauto leisten. Nur die Reichen in Indien profitieren von Modis Subventionen. Warum sollten die Armen Indiens, die den Hauptteil der Steuern zahlen, dazu verpflichtet werden, die Reichen zu bezahlen?

Und dann ist da noch der unheilvollste Aspekt von allen: Die Solar-Verrücktheit ist eng verbunden mit der Klima-Hysterie, welche – wie ich separat nachgewiesen habe – von Eugenikern, Rassisten und Malthusianern eingeführt worden war, um die Armen Indiens auszulöschen. Die einzigen Profiteure von Solarenergie sind heute große Unternehmen, welche korrupte Politiker aushalten, um Solar-Subventionen einzusacken. Am 20. August 2019 tönte Goldman Sachs, dass „die Begrenzung der globalen Erwärmung Investitionen in saubere Energie bis zum Jahr 2040 in Höhe von 30 Billionen Dollar erfordert“. Man erwarte niemals von derartigen Unternehmen, dass sie die Wahrheit sagen über die furchtbaren Schäden, welche Solarenergie den Armen zufügt.

————————————-

Der ganze Beitrag steht hier.

Link: https://wattsupwiththat.com/2019/09/02/solar-energy-badly-harms-the-environment-it-must-be-taxed-not-subsidised/

Übersetzt von Chris Frey EIKE




Hopfenertrag 2019

Nun ist wieder ein Jahr vergangen, Zeit, die schlimmen Auswirkungen dieses vorhergesagten Untergangs des deutschen Hopfens anhand der aktuellen Daten zu überprüfen.

Hopfen-Ernteschätzung 2019

Anmerkung: Detaillierte Information zum Hopfen findet sich in der letztjährigen „Ernterezension“: [5] EIKE 11. September 2018: Hopfenertrag 2018. Diesmal erfolgt nur eine Weiterführung der wichtigsten Verlaufsgrafiken.

Zuerst die Ertragsmenge, Quelle: Verband deutscher Hopfenpflanzer e.V., Pressemitteilung „Schätzung Hallertau 2019“, darin die Tabelle „Gesamtschätzung BRD 2019“:
Daten 2018: Anbau-Gesamtfläche: 20.144 ha, Gesamternte: 835.885 Ztr., Ertrag: 41,5 Ztr./ha
Daten 2019 (Schätzung): Gesamtfläche20.417 ha, Ernte: 916.974 Ztr., Ertrag: 44,91 Ztr./ha

Obwohl sich der Deutsche Wetterdienst gefühlt schon fast monatlich mit irgendwelchen Wetterextremen in Deutschland meldet, nimmt der Hopfen anscheinend wenig Notiz davon. Was aber beileibe nicht bedeutet, dass die „üblichen Fachpersonen“ deshalb nicht bei jeder Meldung zu unserem Klima von den Medien weiterhin über ihre Expertise dazu abgefragt werden.

Bild 1 Hopfenernte Deutschland, Ertragsverlauf 1955 – 2019 und 10jähriger, gleitender Mittelwert. Zeitachse bis 1955 verkürzt. Daten bis 1946, Quelle [12]: Grafik vom Autor erstellt

Wie es die Überschrift der Pressemitteilung schon aussagt, wird auch die Qualität der Ernte 2019 gut:
[6] … Die gute Qualität lasse nichts zu wünschen übrig.

Dabei hätte es noch besser werden können, wenn nicht ein Sturm ganz zuletzt ca. 10 % der Hopfenpflanzungen in Spalt umgerissen hätte. Ein für die Betroffenen schlimmes Ereignis, wie es allerdings auch früher schon vorkam:
[6] (zum Sturm)… Vergleichbares habe es nur einmal in den 1950er Jahren gegeben, als zur Hilfe sogar die Bundeswehr anrückte. Man dürfe aber nicht vergessen, dass es auf 90 % der Fläche im Anbaugebiet recht gut aussehe.

Hopfen Probleme

Der Autor fragt sich, wie jemand beim Bild 1 auf die Idee kommen kann, der Hopfen hätte unter dem seit ca. 1880 deutlich wärmer werdendem Klima und der zunehmenden CO2-Konzentration in der Atmosphäre gelitten und würde nun kurz vor dem Aussterben stehen. aber das muss wohl am höheren Alter liegen, in dem man noch Daten und nicht Simulationen glaubt. Die Freitagshüpfer und neuerdings deren Elternvereinigung Parents for Future glauben mit Sicherheit fest daran.
Leider orientiert sich die Politik ausschließlich danach.

Selbstverständlich haben die Hopfenbauern auch Probleme, mit dem wechselhaften Wetter, Schädlingen, Arbeitskosten und Trockenheit.
Die jährlichen Änderungen im Ertrag können beachtlich sein, doch eine Verschlimmerung in jüngerer Zeit ist nicht wirklich erkennbar, eine Tendenz dazu ebenfalls nicht. Die wohl schlimmste Problemzeit fand von ca. 1925 bis 1950 statt, als Schädlinge den deutschen Hopfenanbau enorm beeinträchtigten [13], fast zum Erliegen brachten und die Lösung vorwiegend durch einen Austausch mit Sorten aus dem Ausland möglich wurde.

Bild 2 Hopfen Deutschland Ertrag: Differenz (%) zum gleitenden, 10jahres-Mittelwert. Grafik vom Autor erstellt

Bild 3 Hopfen Deutschland Ertrag: Differenz (%) zum Vorjahr (Absolutwerte). Grafik vom Autor erstellt

Das Wetter können die Hopfenbauern nicht ändern (gut, Deutschland will das durch eine vorbeugende, vor allem teure CO2-Reduzierung schaffen), gegen die Schädlinge werden zunehmend und konsequent die bisher wirksamen Bekämpfungsmöglichkeiten verboten, gegen die Trockenheit (Hopfen ist eine wasserhungrige Pflanze) beginnen sie mit Bewässerungsanlagen gegenzusteuern, gegen die Arbeitskosten bauen sie Niedergerüste (mit allerdings weniger Ertrag, den man sich zwischenzeitlich aber leisten kann).
Darunter sind also sinnvolle Maßnahmen. Dem Autor ist nicht bekannt, dass die Hopfenbauern ebenfalls bereits für verstärkte CO2-Minderung gegen unsere Regierung klagen, wie es andere Landwirte trotz auch ihrer Rekordernten [7] machen:
[10] Bauernfamilien und Greenpeace verklagen Bundesregierung wegen Klimapolitik

Hopfen-Vorhersagen von „Fachpersonen“

Man muss immer wieder nachlesen, wie viel Unsinn selbsternannte „Fachpersonen“ öffentlich und mit voller Überzeugung von sich geben. Und niemand bemerkt deren Unsinn, weil niemand dazu die wirklichen Daten betrachtet:
[3] EIKE 01.07.2017: K. G. Eckardt versucht sich auf dem GRÜNEN Parteitag mit „Klimawandel“ und zeigt dabei:…
Video ab 13:28: Katrin Göring-Eckardt … Dass entlang von Rhein und Ruhr und Elbe die Unwettergefahr steigt und Köln und Dresden immer wieder überflutet werden, oder dass selbst der deutsche Hopfen krank wird, weil es zu warm wird – ich meine, das Bier ist sogar in Gefahr – das ist relevant, liebe Freundinnen und Freunde …

Wenn es um Klimakassandra geht, will besagter Professor aus München nicht hintenanstehen. Also schlug auch er in diese Kerbe und übersah dabei, dass er eine Studie falsch interpretiert hatte:
[2] EIKE 24.08.2016: Wenn der Hopfen nicht stirbt, stirbt dann der Klimawandel?
Lesch-Video ab 7:44: youtube-Video Filmtext: … ein schönes Beispiel dafür ist der Hopfen. Am Anfang bei einer bestimmten Konzentration von Kohlendioxyd da freut er sich noch, da wächst er mehr. Wenn es allerdings mehr wird, dann wird der Hopfen weniger. Dann wird der Hopfenanbau … wird langfristig in Deutschland verschwinden. Das gehört zu den Folgen der globalen Erwärmung. Je mehr Kohlendioxyd in der Atmosphäre ist, umso mehr müssen wir in Deutschland drauf (Abbruch des Satzes), werden wir praktisch Hopfen importieren müssen – wer weiß woher.

Die höchsten Ernteerträge aller Zeiten [7], aber das Armageddon naht trotzdem

Bild 4 Screenshot

Bild 5 Deutschland Niederschlagsverlauf August bis 8.2019. Quelle: DWD Klimaatlas, Viewer

Bild 6 Deutschland Niederschlagsverlauf Sommer bis 2019. Quelle: DWD Klimaatlas, Viewer

Was sagt der DWD in seinem nationalen Klimareport von 2017 dazu: [11] … ist insbesondere im Sommer auch von großer Bedeutung, inwieweit die Erwärmung mit einer zusätzlichen Austrocknung einhergeht. Eine extreme Austrocknung kann massive ökonomische Folgen haben, z. B. für die Binnenschifffahrt und die Landwirtschaft. Zur Erfassung von Trockenperioden wird die Häufigkeit von Episoden mit mindestens zehn aufeinanderfolgenden Tagen ohne Niederschlag betrachtet.
Aber wie schon bei den Starkniederschlägen ist auch hier aufgrund der Seltenheit der Ereignisse (durchschnittlich 1,3 Fälle pro Sommer in Deutschland) keine statistisch gesicherte Veränderung seit den 1950er­Jahren zu beobachten. Hinzu kommen
ausgeprägte natürliche Schwankungen mit abwechselnden Phasen stärkerer und geringerer Trockenheit, wie sie in ähnlicher Form auch bei den Starkniederschlagsereignissen zu finden sind …

Bild 7 DWD-Aussage im Klimareport zum Niederschlag Deutschland. Quelle [11]

science sceptical 22. Juli 2019: … Auf dem Podium von Fridays for Future teilte Luisa nun dem Publikum mit, dass vor 1 1/2 Monaten der Kipppunkt in der Arktis erreicht worden sei und der Permafrostboden nun unkontrollierbar schmilzt und Methan freisetzt. (Gemäß einer Studie, an dem das AWI Potsdam mitgewirkt hat, direkt nebenan vom PIK). Und das 70 Jahre vor allen Prognosen der Klimawissenschaftler. Das sei eine Kampfansage des Planeten gegen die Menschheit, so Luisa
Wenn es sich um die folgende Studie handelt, auf die sich Luisa bezieht: Climate Change Drives Widespread and RapidThermokarst Development in Very ColdPermafrost in the Canadian High Arctic, die genau sechs Wochen vorher veröffentlicht wurde, kann man die liebe Frau Luisa beruhigen. Selbst darin lesen hätte ihr gezeigt, dass darin nichts von einem Kipppunkt steht. An einer von drei Messstellen über Kanada taut der Permafrost im Hochsommer tiefer, als es manche Simulationen vorhergesagt haben. Stellt sich natürlich die Frage: Vielleicht sind die Simulationen falsch?

Solche Meldungen erreichen den deutschen Bürger vorwiegend über die dpa (dem deutschen „Wahrheitsinstitut“, deren Berichte von fast allen Medien abonniert und unbearbeitet als Zeitungsartikel übernommen werden).

Unser – sich öfters erkennbar als überfordert ausweisender – Bundespräsident bemerkte dazu:
[8] „Fakten sind Fakten, wenn sie von der dpa gemeldet werden“

Da benötigt man nicht einmal mehr den 97 oder 99,84 % Konsens, wenn der Entstehungsort aller Wahrheiten so sicher bekannt ist [7]. Honecker wäre auf eine solche Fachkraft in seiner damaligen Regierung bestimmt stolz gewesen. Merkel hat es bereits früh erkannt (dass er für sie keine Konkurrenz ist, sondern sozusagen ein „Altmaier-Double“, darin ist sie einfach genial) ihn seitdem hofiert und zum Dank mit einem Platz beehrt, von dem seitdem für sie nichts Gefährliches, schon gar nicht eine eigene Meinung, mehr kommen kann.

Vielleicht hat es unser Bundespräsident auch gar nicht gedacht, sondern nur gedankenlos abgeschrieben. Denn schon der „berühmte“ Klima-Lügendetektor, die von der Klima- und Energieberaterin C. Kemfert unterstützte Horrorseite, sagte in einem Artikel am 6. Dezember 2017 über die dpa: Mehrere Medien berichteten darüber, zum Beispiel Spiegel Online, tagesschau.de oder auch die hochseriöse dpa.
Quellen

[1] EIKE 22.08.2015: Grüne Abgeordnete Barbara Höhn durch Fakten widerlegt: Der Hopfenertrag steigt trotz Klimawandel

[2] EIKE 24.08.2016: Wenn der Hopfen nicht stirbt, stirbt dann der Klimawandel?

[3] EIKE 01.07.2017: K. G. Eckardt versucht sich auf dem GRÜNEN Parteitag mit „Klimawandel“ und zeigt dabei:…

[4] EIKE 09.07.2016, Michael Kalisch: Bei Harald Lesch sind Hopfen (und Malz) verloren

[5] EIKE 11. September 2018: Hopfenertrag 2018

[6] Bayerisches landwirtschaftliches Wochenblatt 29.08.2019: Anspannung, Erleichterung, Schock und Solidarität bei den Spalter Hopfenpflanzern

[7] EIKE 03. September: GRÜNE, Bauern und Klimawandel: Im Jammern bilden sie eine Symbiose

[8] SZ 31. August 2019, Nr. 202: Artikel: „Abseits des Rampenlichts“, über das 70Jahre dpa Jubiläum

[9] EIKE: 97 % sind nicht genug! Jetzt sollen es 99,84 % sein

[10] topagrar: Bauernfamilien und Greenpeace verklagen Bundesregierung wegen Klimapolitik

[11] DWD (2017): Nationaler Klimareport. 3. korrigierte Auflage, Deutscher Wetterdienst, Offenbach am Main, Deutschland, 46 Seiten.

[12] Bayern Landesanstalt für Landwirtschaft, Hopfenforschungszentrum Wolnzach/Hüll: Der Hopfen

[13] Martin Biendl und andere: Hopfen: Vom Anbau bis zum Bier