Jahr 2018: Geringste Anzahl von Tornados seit Beginn von Aufzeich­nungen vor 65 Jahren

Und jetzt das: Bislang in diesem Jahr wurden 759 Tornados in den USA registriert, das ist eine rekord-niedrige Anzahl. Den SPC-Daten zufolge waren das zwei weniger als das bisherige Rekord-Minimum von 761.

Überhaupt war die Tornado-Aktivität während der letzten Jahre ungewöhnlich gering, wenn man die Aufzeichnungen betrachtet, die bis zurück zu Anfang der fünfziger Jahre reichen.

Dr. Roy Spencer von der UAH schreibt auf seiner Website:

Dieses Fehlen von Tornado-Ereignissen während der letzten Jahre sollte allgemein auch mit geringerer Gewitter-Aktivität in den USA korrelieren, sind doch die atmosphärischen Bedingungen zur Bildung von Tornados, Hagel und schweren Sturmböen genau die Gleichen …

Die Graphik mit den jährlichen Tornado-Trends ist das Ergebnis eines Verfahrens, welches von Harold Brooks, NSSL, und Greg Carbin, SPC, auf die beobachteten Daten bzgl. Tornados angewendet worden ist. Da eingehende Tornado-Berichte immer begutachtet werden, wird die tatsächliche oder „geglättete“ Anzahl von Tornados der Graphik hinzugefügt.

Im Zusammenhang damit schreibt der Meteorologe Steve Bowen auf Twitter:

Heute ist der 1961-te aufeinanderfolgende Tag ohne einen F5-Tornado in den USA. Das ist bis dato der zweitlängste Zeitraum ohne ein solches Ereignis seit 1950.

Er fügte folgende Graphik hinzu:

Übersetzung: Anzahl der Tage zwischen Tornados der Stärke F5

Das lässt die Behauptungen der Alarmisten zerplatzen, dass Klimawandel Extremwetter immer schlimmer macht.

Und der Trend, wenn man ihn adjustiert nach der Zunahme der Bevölkerung, besseren Beobachtungen und verbesserter Technologie, verläuft einfach flach, wie diese vom SPC erstellte Graphik zeigt:

Diese Graphik reicht leider nur bis zum Jahr 2007. Hoffentlich kommt bald eine Aktualisierung.

Link: https://wattsupwiththat.com/2018/10/04/2018-us-tornadoes-lowest-in-65-years-of-record-keeping/

Übersetzt von Chris Frey EIKE




Tägliche Averages? Vorsicht, nicht so schnell…

Im Kommentarbereich meines jüngsten Beitrages zu den GAST (Global Average Surface Temperature)-Anomalien (und warum es ein Verfahren ist, mit dem die Klimawissenschaft sich selbst austrickst) kam (erneut) zur Sprache, dass das, was die Klimawissenschaft als die Tägliche Average Temperatur von irgendeiner Wetterstation angibt, nicht das ist, was wir denken, nämlich das Average der Temperaturen über den Tag (indem alle gemessenen Temperaturen addiert werden und die Summe durch die Anzahl der Werte dividiert wird). Stattdessen werden einfach die tägliche Maximum- bzw. Minimum-Temperatur addiert und durch zwei dividiert. Das kann man übersetzt in die Sprache der Mathematik so schreiben: (Tmax + Tmin)/2.

Jeder, der hinsichtlich der verschiedenen Formen von Averages versiert ist, wird erkennen, dass Letzteres in Wirklichkeit der Median von Tmax und Tmin ist – also die Mitte zwischen beiden Werten. Dies ist offensichtlich auch gleich dem Mean der beiden Werte – aber da wir nur ein tägliches Maximum bzw. Minimum für eine Aufzeichnung heranziehen, in welcher heutzutage viele Messungen einen Tagessatz bilden, finden wir einen Median, wenn wir alle Messungen nach ihrer Magnitude angleichen und den Mittelpunkt zwischen dem höchsten und dem tiefsten Wert finden (allerdings machen wir das unter Ignoranz aller anderen Messungen zusammen, und wir kommen auf den Median eines Datensatzes aus zwei Werten, der nur aus Tmax und Tmin besteht).

Das ist sicher kein Geheimnis und das Ergebnis der historischen Tatsache, dass Temperaturaufzeichnungen in irgendeiner entfernten Vergangenheit vor Einführung automatisierter Wetterstationen auf diese Weise erstellt wurden – beispielsweise mit einem Max-Min-Thermometer wie diesem hier:

Jeden Tag zu einer festgesetzten Zeit würde ein Beobachter zum Stevenson screen* gehen, ihn öffnen und darin befindliche Thermometer ablesen. Man würde die durch die Marker angezeigten Maximum- und Minimum-Temperaturen ablesen und dann den Reset-Schalter drücken (in der Mitte), um die Messung neu laufen zu lassen.

[*Einschub des Übersetzers: Mit ,Stevenson Screen‘ bezeichnen die Amerikaner eine simple Wetterhütte wie die unten Abgebildete, welche im DWD bis vor einigen Jahren in Gebrauch waren. Darin befinden sich links ein Thermo-/Hygrograph, rechts quer liegend ein Maximum- und ein Minimum-Thermometer, darunter noch ein weiteres Minimum-Thermometer, das abends vor der Hütte über dem Boden abgelegt wird, um das nächtliche Minimum in Bodennähe zu ermitteln. Dahinter befinden sich senkrecht zwei Thermometer, links zur Messung der Feuchttemperatur {bitte googeln, falls nicht bekannt}, rechts zur Messung der aktuellen Temperatur.

Abbildung: Schau-Wetterhütte, wie sie bis vor einigen Jahren im DWD gebräuchlich war. Bild: © der Übersetzer.

Es entzieht sich der Kenntnis des Übersetzers, ob der im Original vorgestellte, verlinkte ,Stevenson Screen‘, welcher ja nur mit Thermometern der Art aus Abbildung 1 bestückt ist, exemplarisch für alle Stationen in den USA oder ein hier vorgestellter Sonderfall ist.

Ende Einschub]

Mit lediglich diesen beiden aufgezeichneten Messwerten lässt sich nur die tägliche Average-Temperatur berechnen, die dem Median der beiden am nächsten liegt. Um heutige Temperaturwerte mit solchen aus der Vergangenheit vergleichen zu können, war es erforderlich, das gleiche Verfahren anzuwenden, um das tägliche Average von heutigen Temperaturen zu erhalten, obwohl von automatisierten Messpunkten alle sechs Minuten eine neue Messung vorliegt.

Nick Stokes schrieb einen Beitrag über die Verwendung von Min-Max-Thermometern nebst deren Problemen in Relation zu Adjustierungen bzgl. der Beobachtungszeit. In jenem Beitrag schreibt er:

Ab und zu erscheint ein Beitrag wie dieser, in welchem jemand entdeckt, dass die Messung der täglichen Temperatur mittels (Tmax + Tmin)/2 nicht genau dem entspricht, was man mit einer Integration der Temperatur über die Zeit erhält. Na und? Beides sind einfach Messungen, und man kann damit Trends abschätzen.

Und da hat er absolut recht – man kann jede Zeitreihe von irgendwas heranziehen, alle Arten von Averages finden – Means, Mediane, Modes – und deren Trends auffinden über verschiedene Zeiträume.

[Einschub des Übersetzers: Am Meteorologischen Institut der Freien Universität Berlin wurde seit seiner Gründung durch Prof. Richard Scherhag im Jahre 1953 ein Klimamittel errechnet, aber nicht nach der hier beschriebenen, vorsintflutlich anmutenden Methode. Es wurden jeweils täglich die Temperaturwerte von 7 Uhr, 14 Uhr und 2 x 21 Uhr (MEZ; MESZ 1 Stunde später) gemessen (das sind die sog. ,Mannheimer Stunden‘) und durch 4 dividiert. Vermutlich wurde dieses Verfahren auch beim DWD so durchgeführt. Wie es in anderen europäischen Ländern gehandhabt wird, ist nicht bekannt, zumindest in einigen Ländern ist es aber wohl das hier von Kip Hansen beschriebene Verfahren.

Seit den achtziger Jahren werden am Institut auch stündliche Temperaturwerte ermittelt und durch 24 dividiert. Seit Jahr und Tag werden die so gewonnen Mittelwerte mit dem der Mannheimer Stunden verglichen. Es ergeben sich Differenzen bis 1°C. Da wir es aber hier mit Zehntel oder sogar Hundertstel Grad (!) zu tun haben, ist das natürlich erheblich.

Weiteres hierzu kann man über die Website des Instituts erfahren.

Ende Einschub]

In diesem Falle müssen wir die Frage stellen: Was ermitteln sie eigentlich? Ich musste immer wieder diesen Beitrag heranziehen, wenn ich etwas über aktuelle wissenschaftliche Forschung schrieb, welche irgendwie einen bedeutenden ,roten Faden‘ wahrer Wissenschaft verloren zu haben scheint – dass wir extreme Vorsicht walten lassen müssen bei der Definition dessen, was wir erforschen – welche Messungen von welcher Eigenschaft welcher physikalischen Größe uns das zeigen wird, was wir wissen möchten.

Stoke schreibt, dass jedwede Daten von Messungen irgendwelcher Temperatur-Averages offenbar genauso gut sind wie jede andere – dass der Median von (Tmax+Tmin)/2 genauso brauchbar für die Klimawissenschaft als wahres Average ist wie häufigere Temperaturmessungen wie etwa heutige Messungen alle sechs Minuten.

Damit haben wir mindestens drei Frage aufgeworfen:

1. Was versuchen wir mit Temperaturaufzeichnungen zu messen? Wenn wir die Berechnungen monatlicher und jährlicher Means nebst deren Trends sowie den Trends von deren Anomalien berechnen – was werden wir daraus erkennen? (Mit Anomalien sind hier immer Anomalien von irgendwelchen klimatischen Means gemeint).

2. Was wird mit (Tmax+Tmin)/2 wirklich gemessen? Ist es quantitativ unterschiedlich zur Mittelung [averaging] von alle sechs Minuten (oder stündlich) gemessenen Temperaturen? Sind die beiden qualitativ unterschiedlich?

3. Erfüllt das derzeit gebräuchliche (Tmax+Tmin)/2-Verfahren alles, um Frage Nr. 1 beantworten zu können?

Ich werde diese Fragen im Folgenden beantworten. Jeder kann aber in Kommentaren seine eigenen Antworten kundtun.

Was versuchen wir zu messen?

Die Antworten auf Frage 1 sind davon abhängig, wer man ist und in welchem Bereich der Wissenschaft man arbeitet.

Meteorologen messen die Temperatur, weil es in ihrem Bereich ein Schlüsselparameter ist. Ihre Aufgabe ist es, Temperaturen der Vergangenheit zu kennen und diese dazu heranzuziehen, um zukünftige Temperaturen im Kurzfrist-Zeitraum vorherzusagen – Höchst- und Tiefstwerte für morgen, Wochenend-Wetter und Jahreszeiten-Prognosen für die Landwirtschaft. Vorhersagen von Extremtemperaturen sind ein wichtiger Bestandteil ihrer Aufgabe – und „vor Wetterereignissen zu warnen, die zu einer Gefahr für die öffentliche Sicherheit und Ordnung führen können“*

[*Das ist keine Übersetzung, sondern ein Original-Auszug aus dem deutschen Wetterdienst-Gesetz. Anm. d. Übers.]

Klimatologen befassen sich mit langzeitlichen Averages sich ständig verändernder Wetterbedingungen für Gebiete, Kontinente und den Planeten als Ganzes. Mit diesen langfristigen Averages wollen sie die verschiedenen Gebiete der Welt in die 21 Zonen der Klima-Klassifikation nach Köppen einteilen und nach Änderungen in diesen Regionen Ausschau halten. [Statt des Links lieber nach „Köppen Klimazonen“ googeln. Anm. d. Übers.] In Wikipdedia findet sich eine Erklärung, warum dieser Studienbereich schwierig ist:

Klimaforschung ist schwierig wegen der Größenordnung der Gebiete, der langen Zeiträume und der komplexen Prozesse, welche das Klima steuern. Klima wird gesteuert durch physikalische Gesetze, die man als Differentialgleichungen darstellen kann. Diese Gleichungen sind gekoppelt und nichtlinear, so dass angenäherte Lösungen nur erhalten werden können mittels numerischer Verfahren, um globale Klimamodelle zu konstruieren. Klima wird manchmal modelliert als ein stochastischer (Zufalls-)Prozess, aber es ist allgemein als eine Approximation von Prozessen akzeptiert, welche anderenfalls zu kompliziert sind, um analysiert werden zu können. (Hervorhebung von mir {dem Autor}).

Die Temperaturen der Ozeane und die verschiedenen Schichten der Atmosphäre sowie die Unterschiede zwischen Regionen und atmosphärischen Schichten sind zusammen mit einer langen Liste anderer Faktoren Treiber des Wetters, und die langfristigen Unterschiede der Temperatur folglich von Interesse für die Klimatologie. Der momentane Gleichgewichtszustand des Planeten hinsichtlich Ein- und Ausstrahlung ist gegenwärtig einer der Brennpunkte in der Klimatologie, und Temperaturen sind ein Teil davon.

Wissenschaftler der anthropogenen globalen Erwärmung (IPCC-Wissenschaftler) befassen sich mit der Beweisfindung, dass anthropogenes CO2 dazu führt, dass das Klimasystem der Erde zunehmend einfallende Solarstrahlung zurückhält, und berechnen globale Temperaturen allein aufgrund dieser Objektive. Folglich konzentrieren sich die AGW-Wissenschaftler auf regionale und globale Temperaturtrends sowie die Trends der Temperatur-Anomalien und anderer klimatischer Faktoren, die ihre Position stützen könnten.

Welche Aussagen erhoffen wir uns von Berechnungen monatlicher und jährlicher Means nebst deren Trends?

Meteorologen sind an Temperaturänderungen bzgl. ihrer Prognosen interessiert und verwenden „Means“ von Temperaturen der Vergangenheit, um eine zu erwartende Bandbreite der Temperatur-Variabilität zu erhalten und vorherzusagen, wenn es Temperatursprünge nach außerhalb dieser Bandbreite gibt. Temperaturunterschiede zwischen Örtlichkeiten und Regionen treiben das Wetter, was diese Aufzeichnungen für ihre Arbeit bedeutsam macht.

Klimatologen wollen wissen, wie sich das längerfristige Bild ändert – Erwärmt es sich in dieser Region wirklich, kühlt sie ab, gibt es immer mehr/weniger Regen? Und das alles über Zeiträume von Jahrzehnten oder auch 30 Jahren. Dafür brauchen sie Trends. (Anmerkung: Nicht einfach dümmliche, selbst generierte ,Trendlinien‘ in Graphiken, die von ihren Beginn- und Endpunkten abhängen – sie wollen reale Änderungen der Bedingungen mit der Zeit erkunden).

AGW-Wissenschaftler müssen in der Lage sein zu zeigen, dass sich die Erde erwärmt und ziehen Temperaturtrends heran – regional und global, als Absolutwerte und Anomalien – in dem Bemühen, die AGW-Hypothese zu beweisen, der zufolge das Klimasystem der Erde mehr Energie von der Sonne zurückhält infolge zunehmender CO2-Konzentrationen.

Was wird mit (Tmax+Tmin)/2 wirklich gemessen?

(Tmax+Tmin)/2, die tägliche Tmittel [Tavg] der Meteorologen, ist das Median der täglichen Höchst- und Tiefsttemperatur (man klicke auf den Link, falls man nicht so genau weiß, warum das der Median und nicht das Mean ist). Die monatliche Tavg ist tatsächlich das Median des Monatlichen Means täglicher Höchsttemperaturen und des monatlichen Means der Täglichen Tiefsttemperatur. Die Monatliche Tavg ist der grundlegende Eingangswert für alle daraus abgeleiteten Berechnungen regional, staatenweit, national, kontinental und global der Average-Temperatur (in 2 m Höhe auf dem Festland). Mit dieser Berechnung will man den Median der Means von Tmax und Tmin finden für den Monat an der Station, indem man all die täglichen Tmax und Tmins jeweils addiert und ihr Mean (arithmetisches Average) berechnet, um dann den Median jener zwei Werte zu finden. (Dies so zu definieren war nicht einfach – ich musste zu den Original-GHCN-Aufzeichnungen gehen und mich per E-Mail an den Customer Support von NCEI wenden, um Klarheit zu bekommen).

Wenn wir jetzt also wissen, wie die Zahl zustande gekommen ist, die wir die monatliche Tavg nennen, können wir jetzt einmal betrachten, was damit eigentlich gemessen wird.

Ist es eine Maßzahl für das Average der Temperatur für den Monat? Eindeutig nicht. Dieses würde man berechnen mittels Addition von Tavg für jeden Tag und Division der Summe durch die Anzahl der Tage des jeweiligen Monats. Dieses Verfahren könnte einen Wert ergeben, der überraschend nahe der aufgezeichneten monatlichen Tavg liegt – unglücklicherweise haben wir aber schon gesagt, dass die täglichen Tavgs nicht die Average-Temperaturen für ihre jeweiligen Tage sind, sondern die Mediane der täglichen Höchst- und Tiefsttemperatur.

Das in diesem Beitrag behandelte Problem illustriert das Bild ganz oben. Hier folgt es vergrößert:

Diese Abbildung stammt aus einem Beitrag, in welchem Means und Medians definiert werden. Man erkennt, dass falls die violetten Einzelschritte für die Temperatur über einen Tag stehen, wäre der Median für stark unterschiedliche Temperaturprofile identisch, aber das wahre Average, das Mean wäre sehr unterschiedlich. (Man beachte: das rechte Ende der Graphik ist abgeschnitten, aber beide Einzelwerte enden am gleichen Punkt rechts – das Äquivalent einer Höchsttemperatur für den Tag). Falls das Profil dicht an einer „Normalverteilung“ liegt, liegen Median und Mean dicht beieinander – falls nicht, sind beide ziemlich unterschiedlich.

Ist es quantitativ unterschiedlich zum Averaging der Temperatur des Tages alle sechs Minuten (oder stündlich)? Sind die beiden qualitativ unterschiedlich?

Um eine Antwort zu finden, müssen wir zu den täglichen Tavgs zurückkehren. Wodurch ändert sich die Tägliche Tavg? Jedwede Änderung der täglichen Höchst- oder Tiefsttemperatur, falls die tägliche Tavg 72 beträgt, können wir dann die Höchst- und Tiefsttemperatur daraus ablesen? Nein, können wir nicht. Die Tavg des Tages sagt uns wenig über diese beiden Tagesextrema. Auch erfahren wir durch die Tavg nicht viel darüber, wie sich die die Temperatur im Tagesverlauf entwickelt und geändert hat.

Tmax 73, Tmin 71 = Tavg 72
Tmax 93, Tmin 51 = Tavg 72
Tmax 103, Tmin 41= Tavg 72*

[*Das sind natürlich Grad Fahrenheit. Da es um das Prinzip und nicht um die Werte als solche geht, spare ich mir die Umwandlung. Anm. D.Übers.]

Der erste Tag wäre ein milder Tag und eine sehr warme Nacht, der zweite ein heißer Tag und eine Nacht mit normaler Temperatur. Dabei könnte es ein wolkiger warmer Tag gewesen sein, wobei eine Stunde purer Sonnenschein die Temperatur auf einen Momentanwert von 93 hätte steigen lassen oder auch ein durchweg sonniger Tag mit Erwärmung auf 93 Grad bis 11 Uhr und Verharren der Temperatur über 90 bis Sonnenuntergang mit einem nur sehr kurzen Zeitraum am frühen Morgen, in welchem es 51 Grad kühl geworden ist.

Unser drittes Beispiel, wie es für die Hochwüsten im Südwesten der USA typisch ist, zeigt einen sehr heißen Tag mit einer nachfolgenden kalten Nacht. Ich selbst habe Tage mit Temperaturwerten über 90°F [34°C] erlebt mit Frost während der folgenden Nacht. (Tmax+Tmin)/2 ergibt nur den Median zwischen zwei Temperatur-Extrema, von denen jedes Einzelne mehrere Stunden oder auch nur ein paar Minuten erreicht haben kann.

Die tägliche Tavg, der Median von Tmax und Tmin, sagt uns nichts über den „Wärmegehalt“ oder das Temperaturprofil des Tages. Wenn das so ist, weist die monatliche Tavg die gleiche Schwäche auf – ist sie doch der Median der Means der Tmaxs und Tmins.

Vielleicht hilft eine Graphik bei der Veranschaulichung des Problems:

Diese Graphik zeigt die Differenz zwischen der täglichen Tavg (mittels des (Tmax+Tmin)/2-Verfahrens) einerseits sowie dem wahren Mean der täglichen Temperatur Tmean andererseits. Man erkennt Tage mit einer Differenz von drei oder mehr Grad mit einem Augenschein-Average von einem Grad oder so, mit ziemlich vielen Tagen mit einer Differenz von ein oder zwei Grad. Man kann eine ähnliche Graphik für die monatliche TAVG und den wahren monatlichen Means plotten, entweder von tatsächlichen täglichen Means oder durch averaging aller Temperaturaufzeichnungen für den jeweiligen Monat.

Die gegenwärtig gebräuchlichen Tavg und TAVG (täglich und monatlich) sind nicht das Gleiche wie tatsächliche Means der Temperaturen über den Tag oder den Monat. Sie sind beide quantitativ und qualitativ unterschiedlich – und sagen uns unterschiedliche Dinge.

Also: JA, die Daten sind qualitativ und quantitativ unterschiedlich.

Erfüllt das derzeit gebräuchliche (Tmax+Tmin)/2-Verfahren die Zwecke jedweder Antwort auf Frage 1?

Betrachten wir dazu mal wieder die Forschungsbereiche:

Meteorologen messen Temperaturen, weil es einer der zentralen Bereiche ihrer Arbeit ist. Die Wetterleute sind zufrieden mit Temperaturmessungen nahe des nächsten ganzen Grads. Ein Grad mehr oder weniger war nicht groß von Belang (außer bei Temperaturwerten um den Gefrierpunkt). Average Wetter kann auch eine Unsicherheit von ein oder zwei Grad aushalten. Also denke ich, dass das Verfahren (Tmax+Tmin)/2 für die Wetterleute ausreichend ist – auch hinsichtlich des Wetters und der Wettervorhersage. Bzgl. Wetter weiß der Meteorologe, dass die Temperatur auf natürliche Weise um ein oder zwei Grad variiert.

Klimatologen befassen sich mit den langzeitlichen, sich immer ändernden Wetterbedingungen in Regionen, auf Kontinenten und den Planeten als Ganzes. Klimatologen wissen, dass Wetterbeobachtungen der Vergangenheit nicht gerade präzise waren – sie akzeptieren, dass (Tmax+Tmin)/2 keine Maßzahl der Energie im Klimasystem ist, sondern sie damit nur einen Hinweis von Temperaturen an einer Station, in einem Gebiet oder auf kontinentaler Basis bekommen, ausreichend um sich ändernde Klimate zu beurteilen – ein Grad mehr oder weniger der average Sommer- bzw. Wintertemperatur für eine Region ist möglicherweise keine klimatologisch bedeutende Änderung – es ist einfach jährliches oder vieljähriges Wetter. Die meisten Klimatologen wissen, dass nur Temperaturmessungen aus jüngster Zeit auf ein oder zwei Grad präzise sind.

AGW-Wissenschaftler (IPCC-Wissenschaftler) befassen sich damit zu beweisen, dass das Klimasystem der Erde durch menschliche CO2-Emissionen Energie von der Sonne zurückhält. Und hier kommen die Differenzen in den quantitativen und qualitativen Werten ins Spiel zwischen (Tmax+Tmin)/2 bzw. einer wahren täglichen/monatlichen Mean-Temperatur.

Es gibt Leute, die (korrekt) argumentieren, dass Temperatur-Averages (mit Sicherheit die GAST genannte Größe) keine genauen Indikatoren der Energie-Rückhaltung im Klimasystem sind. Aber bevor wir uns dieser Frage annehmen können, müssen wir korrekte quantitative und qualitative Messwerte der Temperatur haben, welche die sich ändernde Wärmeenergie an Wetterstationen reflektiert. Aus (Tmax+Tmin)/2 geht nicht hervor, ob wir einen heißen Tag und eine kühle Nacht hatten oder einen kühlen Tag und eine relativ warme Nacht. Temperatur ist eine intensive Eigenschaft (in diesem Fall von Luft und Wasser) und nicht wirklich geeignet für Addition, Subtraktion und Averaging im normalen Sinne – die Temperatur einer Luft-Stichprobe (wie etwa in einer automatischen Wetterstation ASOS) – steht in Beziehung zu, ist aber nicht das Gleiche wie die Energie (E) in der Luft an jener Stelle und steht in Relation zu, ist aber nicht das Gleiche wie die Energie im lokalen Klimasystem. Verwendet man (Tmax+Tmin)/2 bzw. TMAX und TMIN, um eine monatliche TAVG zu erhalten, reflektiert dies nicht einmal genau, wie die Temperaturen waren und kann und wird uns daher nicht (akkurat und präzise) informieren über die Energie im lokal gemessenen Klimasystem. Daher kann sie uns auch nicht, wenn man sie über Regionen und Kontinente kombiniert, (akkurat und präzise) über die Energie im regionalen, kontinentalen oder globalen Klimasystem informieren – nicht quantitativ in Absolutwerten und nicht in Gestalt von Änderungen, Trends oder Anomalie-Trends.

In der AGW-Wissenschaft geht es um das Zurückhalten von Energie im Klimasystem, und die gegenwärtig verwendeten mathematischen Verfahren – bis hinab zum Niveau des täglichen Averages – sind trotz der Tatsache, dass dies alles ist, was wir in der Historie klimahistorischer Aufzeichnungen haben, nicht geeignet, um eine sich eventuell ändernde Energie-Zurückhaltung zu berechnen bis zu irgendeinem Grad quantitativer oder qualitativer Akkuratesse oder Präzision.

Für die Wetterprognostiker mag es ausreichen, diese trügerische Größe als „ausreichend für die Wettervorhersage“ anzusehen. Die Vorhersage von Hurrikanen kann sehr gut mit Temperaturwerten innerhalb einer Genauigkeit von ein oder zwei Grad vorhergesagt werden – solange alles miteinander vergleichbar ist.

Selbst Klimawissenschaftler – jene, die nicht an den Klima-Kriegen interessiert sind – können gut mit Temperaturwerten plus/minus 1 Grad oder so leben – gibt es doch eine Fülle anderer Faktoren, von denen viele wichtiger sind als eine „Average Temperatur“ und die in Kombination das Klima jedweder Region ausmachen.

Nur AGW-Aktivisten bestehen darauf, dass die minimalen Änderungen, die sich aus langzeitlichen Klima-Aufzeichnungen der falschen Parameter ergeben, wahrlich signifikant sind für das Weltklima.

Unter dem Strich:

Die gegenwärtig angewandten Verfahren zur Berechnung sowohl der globalen Temperatur als auch globaler Temperatur-Anomalien stützen sich aus historischen Gründen auf einen Parameter, der in vielfacher Weise ungeeignet ist, um mit Präzision zu bestimmen, ob sich das Klimasystem der Erde infolge Zurückhalten von Sonnenenergie erwärmt oder nicht. Er ist ungeeignet zur Bestimmung der Größenordnung einer solchen eventuellen Änderung und womöglich nicht einmal dazu geeignet, überhaupt das Signal für eine solche Änderung auszumachen. Das gegenwärtige Verfahren misst nicht in angemessener Weise eine physikalische Eigenschaft, welche eine solche Berechnung gestatten würde.

Schlussbemerkungen des Autors:

Das diesem Beitrag zugrunde liegende Thema ist viel einfacher als es aussieht. Die Messungen zur Erstellung einer GAST (Anomalie) und GAST (absolut) – besonders (Tmax+Tmin)/2, egal ob täglich oder monatlich – sind nicht geeignet für eine Berechnung jener globalen Parameter in der Art, wie sie uns von den AGW-Aktivisten-Wissenschaftlern präsentiert werden. Sie werden oftmals herangezogen zu zeigen, dass das Klimasystem mehr Energie zurückhält und sich folglich erwärmt … aber die kleinen Änderungen dieser unpassenden Größe über klimatologisch signifikante Zeiträume können uns darüber nichts sagen, messen sie doch in Wirklichkeit nicht die average Temperatur, nicht einmal die an einer einzelnen Wetterstation. Die zusätzliche Unsicherheit dieses Faktors lässt die Gesamt-Unsicherheit der GAST nebst deren Anomalien bis zu einem Punkt unsicher werden, an dem sie über die gesamte Zunahme seit Mitte des 20. Jahrhunderts hinausgeht. Diese Unsicherheit wird nicht eliminiert durch wiederholtes Glätten und Averaging entweder von absolute Werten oder deren Anomalien.

Ich empfehle der Leserschaft dringend, die immer präsente Hypothese zurückzuweisen, die da lautet „falls wir immer weiter fortfahren, Averages zu mitteln [averaging averages] wird die Variation früher oder später so gering werden, dass sie keine Rolle mehr spielt – egal ob es Fehler, Unsicherheiten oder einfach schlechte Daten sind“. Das führt zu wissenschaftlicher Verrücktheit.

Die Argumentation wäre anders, falls wir tatsächlich genaue und präzise Temperatur-Averages von Wetterstationen hätten. Viele würden immer noch nicht dem Argument zustimmen, dass die Temperaturaufzeichnung allein eine Änderung der Zurückhaltung von Sonnenenergie anzeigen kann. Die in das System eintretende Energie wird nicht wie von Zauberhand automatisch in der Luft 2 Meter über Grund oder auch an der Oberfläche der Ozeane in fühlbare Wärme umgewandelt. Änderungen der fühlbaren Wärme, gemessen in 2 m Höhe und an der Oberfläche der Ozeane, reagieren nicht notwendigerweise sofort auf eine Zu- oder Abnahme zurückgehaltener Energie im Klimasystem der Erde.

Es wird Einwände gegen die Schlussfolgerungen dieses Beitrags geben – aber die Fakten sind so, wie sie sind. Einige werden diese Fakten unterschiedlich interpretieren, verschiedenen Werten verschieden starke Wichtigkeiten zuordnen und unterschiedliche Schlussfolgerungen ziehen. Aber genau das ist Wissenschaft.

Link: https://wattsupwiththat.com/2018/10/02/daily-averages-not-so-fast/




Wissenschaft­liche Korruption mit der Wurzel ausreißen

Jüngste Entwicklungen zeigen, dass Reformen in der Luft liegen, aber es bleibt noch viel zu tun, besonders bzgl. Klima.

Unzählige Dollar-Milliarden an Steuergeldern in Gestalt an Zuwendungen für Unternehmen (und folglich die Verbraucher) haben Forschung gefördert und Löhne aufgebläht, wobei Universitäten rund 40% abschöpfen für „Übersicht und Aufwand“. Anreize und Versuchungen allerorten.

Viel zu viele Forscher haben sich derartigen Praktiken viel zu lange verschrieben. Viel zu viele ihrer Kollegen führen schlampige, begünstigende oder verlogene Begutachtungen durch. Viel zu viele Universitäten und andere Institutionen sind diesem Weg gefolgt. Viel zu oft ernten jene, die diesen Weg gehen, Ruhm und Glück. Viel zu viele verdächtige Ergebnisse wurden herangezogen um Unternehmen anzugreifen oder gerichtlich zu belangen oder um kostspielige politische Maßnahmen auf den Weg zu bringen.

Ein gutes Beispiel hierfür ist Glyphosat.

Massenschäden-Klage-Industrie gewinnt den Jackpot

[Original: Mass-tort lawsuit industry hits the jackpot]

Es half der Mass-tort lawsuit industry, den Jackpot zu gewinnen, als eine Jury in San Francisco einem Platzwart im Ruhestand 289 Millionen Dollar Ausgleichs- und Schmerzensgeld zugesprochen hatte – wegen seiner Behauptung, dass seine Erkrankung des Lymph-Systems entstanden ist, weil er Glyphosat ausgesetzt war. Viele ähnliche Gerichtsverfahren stecken jetzt in der Pipeline.

Die potentiellen Auswirkungen auf die chemische Industrie und die konventionelle Landwirtschaft weltweit sind noch gar nicht abzusehen.

Aber noch viel schlimmere Auswirkungen zeitigen die Forschungen, um die These des „gefährlichen menschengemachten Klimawandels“ voranzutreiben – dienst diese doch als Grundlage für Forderungen an uns, fossilen Treibstoffen zu entsagen, welche 80% des Energiebedarfs in den USA und weltweit decken – und sie zu ersetzen durch teure, unzuverlässige, pseudo-erneuerbare Alternativen.

Die infame „Hockeyschläger“-Temperaturgraphik

Es ist eine positive Entwicklung, die vielleicht eine Aufarbeitung im Cornell-Stil [?] ankündigt, dass nach sieben langen Jahren des Mauerns und der begünstigenden Gerichtsurteile die University of Arizona schließlich entschieden hat, der Free Market Environmental Law Clinic die E-Mails und anderen, vom Steuerzahler finanzierten Aufzeichnungen zu übergeben, die man schon im Jahre 2011 angefordert hatte. Die Dokumente beziehen sich auf die infame Hockeyschläger-Temperaturgraphik, in welcher versucht wurde, die Mittelalterliche Warmzeit und die Kleine Eiszeit aus der Historie verschwinden zu lassen, in welcher Machenschaften zur Beeinflussung eines IPCC-Berichtes sowie Bemühungen aufgedeckt wurden, nicht-alarmistische Studien von wissenschaftlichen Journalen fernzuhalten, und andere raffinierte Tricks.

Während juristische Belange des öffentlichen Zugangs zu wissenschaftlichen Ergebnissen sehr ähnlich anderen Fällen nach dem FOIA im Jahre 2010 folgten, nahm das Gericht in der Causa Virginia/Penn State University eine ganz andere Wendung. Jener Gerichtshof fällte das absurde Urteil, dass der Alarmisten-Forscher Dr. Michael Mann seine Daten, Verfahren und E-Mails als sein persönliches, intellektuelles Eigentum behandeln darf – unerreichbar für jeden außerhalb des inneren Zirkels um Mann – obwohl seine Arbeiten ausschließlich vom Steuerzahler finanziert waren und obwohl diese Daten als Grundlage herangezogen wurden, das „endangerment finding” und den Krieg gegen die Kohle zu rechtfertigen, was in der Folge den Lebensstandard aller Amerikaner beeinträchtigte.

Engagement in fragwürdige, geheimniskrämerische, unverantwortliche Wissenschaft

Wissenschaftliche Debatten sollten ausschließlich in akademischen, wissenschaftlichen und öffentlichen politischen Arenen geführt werden und nicht vor Gericht, wie etwa 800 Wissenschaftler bei der Verteidigung der Mann’schen Wissenschaft vorbrachten. Allerdings ist das nicht möglich, wenn es die in Frage kommenden Wissenschaftler ablehnen, sich derartigen Debatten zu stellen; wenn sie ihre Daten, Computerprogramme, Algorithmen und Verfahren zurückhalten; wenn sie sich in fragwürdiger, geheimniskrämerischer, unverantwortlicher Wissenschaft engagieren.

Wir, die wir diese Forschung bezahlen und zum Opfer schlampiger, ungeeigneter oder betrügerischer Arbeit werden, haben das klare und unabdingbare Recht, darauf zu bestehen, dass Wissenschaft ehrlich und korrekt durchgeführt wird. Und dass die Daten, Verfahren und Arbeitsergebnisse der Wissenschaftler öffentlich sind und für Analysen und Kritik zur Verfügung stehen. Und dass sich die Forscher robusten Debatten stellen mit anderen Wissenschaftlern und Kritikern. Es gleicht dem fundamentalen Recht, Zeugen in einem Zivil- oder Strafprozess ins Kreuzverhör zu nehmen, Inkonsistenzen aufzudecken, Glaubwürdigkeit zu erlangen und die Wahrheit zu bestimmen.

Wissenschaftler, welche diese grundlegenden Prinzipien verletzen, sollten nicht weiter finanziell gefördert werden.

Stattdessen haben wir jetzt eine erneuerbare Energie/Klimakrise-Industrie im Wert von fast 2 Billionen Dollar pro Jahr. Diese achtet peinlich, eifernd und eifersüchtig auf ihr Territorium und attackiert jeden, der es wagt, heikle Fragen zu stellen – wie die Folgenden:

Welche wirklichen, nachvollziehbaren Beweise in der realen Welt gibt es, um überzeugend zu demonstrieren, dass…:

●… man jetzt relativ geringe menschliche Einflüsse von den vielen mächtigen natürlichen Kräften unterscheiden kann, welche immer Klimawandel getrieben haben?

●… Treibhausgase jetzt das Klima kontrollieren und dass die Sonne und andere Kräfte nur eine geringe Rolle spielen?

●… die Erde derzeit bedeutende und beispiellose Änderungen bzgl. Temperatur, Eiskappen, Meeresspiegel, Hurrikane, Tornados und Dürren erlebt?

●… diese Änderungen katastrophal sein werden und den Verbrauch fossiler Treibstoffe seitens der Menschheit als Ursache haben?

●… ihre Computermodelle die Bedingungen der realen Welt genau prognostiziert haben, die wir heute messen?

●… Wind, Solar und Biotreibstoffe fossile Treibstoffe ersetzen können, um moderne Industrie-Ökonomien zuverlässig mit Energie zu versorgen und den Lebensstandard erhalten, dass Güter ohne fossile Treibstoffe hergestellt, transportiert und installiert werden können, dass sie „nachhaltig“ sind bis in absehbare Zukunft und dass sie keine schädlichen Auswirkungen auf Wildnis, Habitate, Luft und Wasser haben?

Alarmistische Klimakrisen-Wissenschaftler fordern und/oder helfen zu rechtfertigen radikale, transformative, destabilisierende und destruktive Änderungen unserer Energie-Infrastruktur, unserer Ökonomie, unseres Lebensstandards – und sie hindern die Ärmsten der Erde daran, die Energie zur Verfügung zu haben, die sie zur Verbesserung ihres Gesundheitszustandes und Lebensstandards unabdingbar brauchen. Darum obliegt ihnen eine sehr hohe Beweislast, dass sie recht haben. Sie müssen gezwungen werden, solide Beweise vorzulegen und sich robusten Debatten stellen bis hin zu Kreuzverhören.

Man darf ihnen nicht länger erlauben, materielle Beweise, E-Mails oder Konversationen zurückzuhalten, welche Interessenkonflikte, geheime Absprachen, Korruption, Datenmanipulation oder -verfälschung sowie andere substantielle Probleme offenlegen.

Inzwischen ist ein Punkt erreicht, an dem fast alles, was passiert, fossilen Treibstoffen, Kohlendioxid, anderen Treibhausgasen und jenen in die Schuhe geschoben wird, welche „die Realität eines (katastrophalen, vom Menschen verursachten) Klimawandels in Frage stellen“.

Die Behauptungen reichen inzwischen von implausibel bis lächerlich: Die Erde ist zum Untergang verurteilt, falls entwickelte Länder nicht bis zum Jahr 2020drastisch ihre Emissionen reduzieren; das arktische Eis wird verschwinden; Buschbrände werden immer häufiger und tödlicher; mehr Menschen werden durch einen Herzschlag sterben; die Hurrikane Harvey und Irma haben menschliche Aktivitäten als Ursache; Präsident Trump verursachte mit seinem Rückzug aus dem Paris-Abkommen den Hurrikan Florence (hier); Pflanzen in der Arktis werden zu groß; der Kaffeeanbau wird in vielen Ländern unmöglich; die Erde wird zu einer zweiten Venus; Schweine werden immer dünner; schmackhafte Gerichte wie Fischsuppe (cioppino) werden ein Ding der Vergangenheit. Und es gibt eine scheinbar endlose Liste mit behaupteten weiteren, noch viel absurderen, vom Menschen verursachten Katastrophen.

Der Kongress und die Trump-Regierung wollen ordentliche Wissenschaft und eine informierte Gesellschaft sicherstellen, Betrug und Korruption ausmerzen sowie „den Sumpf trockenlegen“. Falls sie das ernst meint, wird sie alle notwendigen Schritte unternehmen sicherzustellen, dass keine Universitäten oder andere Institutionen auch nur noch einen Cent Steuergeld bekommen, solange sie die hier vorgeschlagenen Änderungen nicht implementieren. Die Klima-Krise-Korruption wäre ein sehr guter Anfang damit!

Paul Driessen is senior policy analyst for the Committee For A Constructive Tomorrow and other think tanks, and author of books and articles on energy, climate change and economic development.

Link: https://www.iceagenow.info/rooting-out-scientific-corruption/

Übersetzt von Chris Frey EIKE




Biobauern sind vom Klimawandel bei weitem nicht so stark betroffen …

Da der Interviewer und Herr Hofreiter ausschließlich gleicher Meinung sind …

…lohnt es sich eigentlich nicht, solche Artikel zu lesen. Das führt jedoch zu einer einseitigen Urteilsbildung. Also ist man zur Wahrung der Vielfalt gezwungen, solche offensichtlichen Tendenzartikel zumindest zu überfliegen.
Der (überlange) Artikel lautete: „Mit Öko-Anbau gegen die Heißzeit“, der Untertitel: „Grünen-Fraktionschef Toni Hofreiter zur Klima-Krise und zur Affäre um Hans Georg Maaßen.
Natürlich war das „Interview“ reine Wahlwerbung der Redaktion zur Bayerischen Landtagswahl für die in ihren Augen einzige, richtige Partei. Entsprechend gab der Redakteur der Lokalzeitung Herrn Hofreiter die Fragen so vor, dass dieser nicht mehr zu beantworten, sondern nur noch zuzustimmen brauchte:
Redakteur: „Der Sommer, der nicht enden wollte, gilt vielen als der Beginn einer neuen Heißzeit. Die Bauern leiden darunter – wie kann es denn mit der Landwirtschaft weitergehen?
Hofreiter: „Letztes Jahr stand das Wasser auf den Feldern, heuer vertrocknet alles. Wichtig ist der Umstieg auf die ökologische Landwirtschaft. Je humusreicher der Boden ist, desto besser kommen sie mit den Klimaveränderungen klar. Bio-Bauern sagen, dass ihre Ernten bei weitem nicht so stark betroffen sind. Aber noch immer stellen so wenig Landwirte um, weil es dazu zu wenig finanzielle Unterstützung gibt, damit man die Umstellungsphase überlebt. Wir müssen den Landwirten dabei helfen … “

Wie betroffen sind Ernten von Biobauern durch das bei uns typische, wechselhafte Wetter?

Welche Biobauern Herr Hofreiter die positive Nachricht gesagt haben, fragte der Redakteur nicht nach. Andere, die doch nachgefragt hatten, berichteten allerdings auch Gegenteiliges:
BR 08.08.2018 : Trockenheit in Bayern Wie Biobauern unter der Dürre leiden
Biobauern leiden besonders unter der Dürre. Weil ihr Vieh vor allem von dem Futter auf dem Hof lebt, wird es in diesen Wochen knapp. Die Wiesen rund um den Maierhof bei Kulmbach sind alle braun und vertrocknet … Bei Biolandwirten gilt der Grundsatz: Das Futter soll von den eigenen Flächen oder von Partnerlandwirten nebenan kommen. Das wird heuer schwierig. „Das Problem haben die konventionellen Landwirte aber genauso: Keiner wird jetzt Futter hergeben. Und ich kann mein Grundfutter ja nicht aus Israel oder China kommen lassen.“
ökolandbau.de 31.07.2018: Landwirtschaft, Trockenheit & Klimaveränderungen
Besonders betroffen von den extremen Wetterbedingungen sind die Biobäuerinnen und -bauern.
… Die anhaltende Trockenheit belastet vielerorts die Bio-Höfe … Grund dafür sind Ernteausfälle bei Bio-Futterpflanzen – nicht nur beim Grünfutter, sondern auch bei Getreide und Körnerleguminosen in Deutschland und anderen europäischen Ländern. In dieser Situation müssen Bio-Betriebe verstärkt auf das Futter zugreifen, das von Betrieben erzeugt wird, die noch in der Umstellung auf Ökologische Landwirtschaft sind …

Eine Politikerin in Regierungsverantwortung meint ebenfalls, eher doch Probleme erkannt zu haben. Deren Lösung sieht allerdings eher schon skurril aus:
Mahlzeit, 02.03.2018: Pflanzenschutzmittel Konventionelle Pestizide auf dem Bioacker?
Die designierte Agrarministerin Julia Klöckner fordert, dass Biolandwirte künftig punktuell auch konventionelle Pflanzenschutzmittel einsetzen dürfen.
… Frau Julia Klöckner – Agrarministerin in spe – tat kürzlich in einem Interview kund:
„Um ihre Ernte zu sichern, würden viele Ökolandwirte gerne punktuell auf konventionelle Pflanzenschutzmittel zurückgreifen. Dürfen sie aber nicht. Manchen Bauern kostet das die Existenz.“ Das stimmt absolut! Es ist die offizielle Bankrott-Erklärung der geplanten Agrarwende.
… Als Politikern und Winzertochter hat Frau Klöckner eine bauernschlaue Lösung im Sinn: „Wir müssen Ökolandwirten in schlechten Phasen den Gebrauch konventioneller Pflanzenschutzmittel erlauben können.“ Denn das Verbot, so Klöckner, hielte viele „davon ab, den Weg in den Ökolandbau zu wagen“. Natürlich bräuchte man auf dem Weg dorthin mehr Forschung.

taz 22.08.2018: Staatsgeld für Turbobauern

Blogeintrag: Wie meldet doch der Bio-Dachverband BÖLW am: 31.07.2018: „Besonders betroffen von den extremen Wetterbedingungen sind die Biobäuerinnen und -bauern.“ Da geht es zwar vornehmlich ums Handaufhalten, auf das sich der BÖLW besser als der DBV versteht, aber das ist auch tatsächlich so, denn die am schwersten geschädigte Feldfrucht ist das Gras und Biobetriebe haben anteilig viel mehr Grünland&Klee (67%) als die Konvibauern (29%), die notfalls Kunstdünger haben statt Gülle. Bio geht ohne Viehdung schlecht. Wenn die Biobetriebe die Dürre so viel besser als die Konvibetriebe überstanden hätten, könnten sie ja mit Kuhfutter bei den Konvibetrieben im Zeichen der Solidarität aushelfen, aber in der Realität ist es andersrum, per Ausnahmegenehmigung dürfen die Biobetriebe Konvifutter verfüttern.

Dazu noch ergänzend: Nicht alles was alt ist, ist besser:
Deutschlandfunk Kultur 12.09.2018: Schlechte Kartoffelernte 2018 … Die alten Sorten sind anfälliger
… Dabei komme es vor allem auf robuste Sorten an, die Krankheiten und den Auswirkungen des Klimawandels besser trotzen könnten. „Gerade für den Bio-Anbau brauchen wir robuste Sorten, wenn man keine chemischen Bekämpfungsmittel einsetzt.“
Und wie steht es mit den vielbeschworenen alten Sorten? Bei denen versuche man, bestimmte vorteilhafte Gene herauszuholen und weiterzuzüchten. Er baue auf seinem Hof auch alte Sorten an, die über 200 Jahre alt seien, aber: „Die leiden nach meiner Erfahrung viel mehr unter den Klimaschwankungen als die neuen Sorten. Die Züchtung hat da schon Fortschritte gemacht in den letzten 200 Jahren.“
So seien etwa die alten Wildkartoffeln anfällig für eine bestimmte Art der Fäule – durch Einkreuzung günstiger Eigenschaften neuer Kartoffelsorten versuche man dieses Problem zu bekämpfen.

Das Märchen der „armen“ Biobauern

Hofreiter: [1] … Aber noch immer stellen so wenig Landwirte um, weil es dazu zu wenig finanzielle Unterstützung gibt … Wir müssen den Landwirten dabei helfen … “

Für beständiges, gekonntes „Jammern“ sind schon die konventionellen Landwirte „berühmt“. Entsprechend dienen 30 % des EU-Haushalts alleine zur Subventionierung der Landwirtschaft (1985 waren es allerdings noch 70 %) [7].
Doch obwohl die Biobauern erheblich niedrigere Ernteerträge als die konventionellen „einfahren“:
EIKE 19.09.2016: [5] Biobauern sind die größten Lebensmittel-Vernichter Ohne Klimawandel überlebt die Biolandwirtschaft ihre Ernteverluste nicht …
müssen diese auf keinen Fall – wie von Herrn Hofreiter berichtet – darben. Die erheblichen Ernteverluste werden vom Staat sehr wohl ausgeglichen. So umfassend, dass sie keine Erzeuger im klassischen Sinn mehr sind, sondern eher vom Staat bezahlte Landschaftspfleger zur Beruhigung des GRÜNEN Gewissens:

[6] EIKE 27.07.2016: Biobauern darben ohne Klimawandel (und extremen Subventionen) Bei der normalen Landwirtschaft hängt es von der Veranstaltung ab
Novo Argumente: [5] „90 Prozent des Gewinns eines Ökobetriebs stammen aus staatlichen Transferleistungen“
… Kapitel 2.3.4. des Agrarberichts zeigt zum Beispiel, was in vergleichbaren Bio- und konventionellen Betrieben erwirtschaftet wird. Konventionelle Landwirte kommen auf knapp 40.000 Euro Einkommen im Jahr, ihre Öko-Kollegen liegen 5000 Euro, also 13 Prozent, darunter. Besonders interessant: Der Gewinn der Öko-Bauern beträgt nach der amtlichen Statistik rund 650 Euro pro Hektar. An Subventionen erhalten diese Landwirte 600 Euro pro Hektar. 90 Prozent ihres Gewinns stammen damit aus staatlichen Transferleistungen. Zwar bekommen auch die konventionellen Landwirte durchschnittlich 400 Euro pro Hektar aus öffentlichen Kassen; die Subventionen machen bei ihnen aber nur die Hälfte des Gewinns aus.

Inzwischen ist die Subventionierung bereits so hoch, dass Biobauern teils mehr Geld als konventionelle Landwirte in der Tasche haben.
topagrarONLINE 14.01.2018: Öko-Bauern wirtschaften derzeit rentabel
... Die Einkommenssituation der ökologisch wirtschaftenden Betriebe in Niedersachsen ist erfreulich und derzeit besser als bei den konventionellen Landwirten … Deren Unternehmensergebnis hat sich gegenüber dem Vorjahr auf hohem Niveau stabilisiert und liegt jetzt bei 85.000 Euro. „Unsere Bio-Betriebe erreichen damit ein Niveau, das wir uns für alle bäuerlichen Familienbetriebe wünschen,“ kommentierte Kammerpräsident Gerhard Schwetje die aktuellen Zahlen. Den Wert für die konventionellen Betriebe bezifferte er für den gleichen Zeitraum mit 61.400 Euro.
Als Ursache für die Einkommensdiskrepanz nannte Schwetje neben den höheren Preisen für Öko-Produkte auch die staatlichen Transferleistungen, die an Bio-Betriebe zusätzlich gezahlt werden. „Diese
Subventionen entsprechen rechnerisch zu einem überwiegenden Teil dem Einkommensunterschied zwischen beiden Wirtschaftsformen“, so der Kammerpräsident.

Nun war dieser Trockensommer wirklich extrem, doch selbst in der deutschen Klimageschichte nicht einzigartig

Redakteur: „Der Sommer, der nicht enden wollte, gilt vielen als der Beginn einer neuen Heißzeit.
Hofreiter: „Über den Sommer haben die Menschen die Dürre in unserem Land erlebt, die klarmachte, dass der Klimawandel … auch uns massiv. … „

Zum Glück wurde und wird es nach der für die Landwirtschaft desaströßen, vorindustriellen Kaltzeit wieder wärmer. Man blicke nur zurück, welche Angst um 1975 herrschte, als die Klimafachleute unisono den Beginn der überfälligen Eiszeit verkündeten.

Gerade der Niederschlag ist selbst in unseren gemäßigten Breiten allerdings extrem variabel. Trotzdem gibt es keinerlei belegbaren Trend zu mehr Extremen, weder zu mehr Nässe, noch zu verstärkter Trockenheit. Und vor allem gibt es nirgendwo einen schlimmen, durch einen AGW-Klimawandel „erzeugten“, negativen Trend. Ausgerechnet um die Jahre 1970 … 80, als von allen Experten die kommende Eiszeit ausgerufen wurde, gab es vergleichbare Extremereignisse, wie sie aktuell erwärmungsbedingte Folge sein sollen:
EIKE 04. September 2018: Sommerhalbjahres-Niederschlag 2018

Wer das nicht glaubt, kann es beim DWD direkt einsehen:

Bild 1 Deutschland, Sommerniederschlag 1881 – 2018. Quelle: DWD Klimaatlas-Viewer

Bild 2 Deutschland, Winterniederschlag 1881 – 2018. Quelle: DWD Klimaatlas-Viewer

Bild 3 Deutschland, Jahresniederschlag 1881 – 2017. Quelle: DWD Klimaatlas-Viewer

Doch Fakten haben GRÜNE noch nie beeinflusst.
Interview: Hofreiter: „Über den Sommer haben die Menschen die Dürre in unserem Land erlebt, die klarmachte, dass der Klimawandel nicht nur ein paar kleine Inseln betrifft, sondern auch uns massiv. … „

Warum eine statistisch extreme, aber trotzdem normale und keinen Klimatrend ausweisende Dürre in Nordeuropa kleine Inseln im Südpazifik betrifft, ergibt sich nur aus Herrn Hofreiters ausschließlich ideologischer Betrachtung. Einmal stellt sich die Frage, welche „paar kleine Inseln“ Herr Hofreiter meint. Wenn es etwas Globales sein sollte, müsste es ja alle „kleinen“ Inseln betreffen und was er damit wirklich meinte.
Der Autor vermutet, es handelt sich um eine Anspielung auf den „berühmten“, gefährlichen AGW-Pegelanstieg, zu dem es weiterhin keine messbaren Belege gibt:

EIKE 02.10.2018: Der Meeresspiegelanstieg
EIKE 27. April 2018: SOS Südsee – Der Ozean steigt nicht übernatürlich, dafür umso stärker die Propaganda in der öffentlich-rechtlichen Berichterstattung (Teil 2)
EIKE 08.08.2017: Meerespegelanstieg: Europa kann nicht alle (vor Klimawandel-Desinformation) schützen T2 (2)
EIKE 11. September 2017: Neues vom Meeresspiegel: Anstieg deutlich langsamer als in der Vergangenheit
Der zur Aufrechterhaltung des AGW-Schreckens jedoch so wichtig ist, dass sich keine*r der ca. 25.000 doch so klimasachkundigen Teilnehmer an den jährlichen Klimagipfeln traut, die wahren – entlastenden – Daten zu googeln:

EIKE 03.11.2017: Das Wochenende, an dem die Welt (wieder) begann unterzugehen
Von einem Zeitungsredakteur kann man das sowieso nicht erwarten.

Hat konventionelle Landwirtschaft wirklich nicht ausreichend Humus?

Hofreiter: [1] … Je humusreicher der Boden ist, desto besser kommen sie mit den Klimaveränderungen klar …
Das stimmt. Nur die Weiterführung: Humus hätten vorwiegend nur Ökobauern, stimmt nicht. Aber es klingt halt so einleuchtend „natürlich“. Konventionell ist per se schädlich und Öko grundsätzlich gut. Dass das frühere „Öko“ die Welt an den Rand einer latenten Hungerkatastrophe gebracht hat, wie es Malthus gegen 1798 mit seinem „Bevölkerungsgesetz“ beschrieb und mit der gleichen „Sicherheit“, wie Fachpersonen heute den Klimauntergang vorhersagen und erst die moderne Landwirtschaft diesen Teufelskreis durchbrach, ist vergessen, eher unterdrückt.

Und warum auch sollten konventionelle Landwirte ihre Böden kaputt machen, welche auch ihre Erwerbsgrundlage darstellen? Es ist einfach nur GRÜNE Meinung, weil es ihre Ideologie so fordert. Wirkliche Beobachtungen stehen dem allerdings konträr:
[4] Gutachten der Wissenschaftlichen Beiräte für Agrar- und Waldpolitik beim Bundeslandwirtschaftsministerium.
Alles nicht so sicher
Friedhelm Taube, Bioexperte der Universität Kiel und Mitautor des Gutachtens, sagte aber der taz: „Es gibt in der weltweiten Literatur keine generelle evidenzbasierte Aussage, dass Ökolandbau höhere Humusgehalte sicherstellt. Das wird vielmehr durch Standort und Fruchtfolge beeinflusst.“ Zu dem Thema sei schon ausführlich geforscht worden. Im Gutachten heißt es auch, dass die Effekte des Ökolandbaus auf die Humusbildung „nicht eindeutig“ seien: In Bio-Ackerbaubetrieben ohne Viehhaltung sind sie Taube zufolge tendenziell sogar niedriger als in vergleichbaren konventionellen. In einer Analyse von Pilotbetrieben, mit der Biolobbyist Löwenstein argumentiert, habe der Humusaufbau extrem stark geschwankt. „Das lässt keine Aussage zu: Ökolandbau ist grundsätzlich günstiger für den Humusgehalt.“

Auch das Bayerische Staatsministerium für Ernährung, Landwirtschaft und Forsten konnte anhand von Messungen nur geringste Unterschiede zwischen konventionell und ökologisch bearbeiteten Böden feststellen [3].

Bild 4 Gemessene Unterschiede der Humusqualität. Quelle [3]

Bild 5 Gemessene Unterschiede von organisch gebundenem Kohlenstoff in Ackererde. Quelle [3]

Wenn eine GRÜNE Doktrin „Volksgut“ geworden ist und die Chance von Wählerstimmen verspricht, springen inzwischen alle anderen Parteien auf und übernehmen die Idee. Da man sich dann doch etwas absetzen muss, lässt man vielleicht begründende „Informationen“ ganz weg und pauschaliert. Damit fällt dann der Unsinn gar nicht mehr auf, wie die Behauptung, dass man ausgerechnet in Bayern, wo die Landwirtschaft mit Sicherheit gegenüber vielen SPD-regierten Bundesländern noch am „gesündesten“ ist, zur Rettung derselben SPD wählen sollte.
Kein Wunder, dass diese Partei dort einen solch hoffnungslosen (Wahl-)K(r)ampf führt.

Bild 6 Wahlplakat der SPD Bayern. Vom Autor fotografiert

Für Jeden der – wie der Redakteur – mir blind glaubt, muss die Folgerung klar sein

Hofreiter: „Ich hoffe, dass wir die richtigen Ideen zur richtigen Zeit haben … Klimakrise … –vielen Leuten ist klar, dass unsere Ideen die besten sind für die Lösung der Probleme. Und das zeigen wir.“

Ob es die Besten sind, mag jeder Leser selbst entscheiden. Auf jeden Fall ist es Größenwahn, wie ihn in Deutschland scheinbar jede Politikgeneration entwickelt, um mindestens einmal die Welt vor irgend etwas zu retten und das sauer erarbeitete Geld der zu fleissigen und erfolgreichen Untertanen irgendwie, aber konsequent, zu vernichten.

Deshalb noch eine Anmerkung zum Welt-Klimavertrag (aus einem EIKE-Blogbeitrag entnommen):
Die Developed country parties sind die zahlenden und die Developing country parties sind die empfangenden Nationen. Zu den Empfängerländern gehören auch Indien und China, weshalb beide Nationen freudig zugestimmt haben, jedoch unter der Bedingung, nichts vom Agreement anzuwenden, was dem Wohlstand der Bürgerschaften schaden würde. Als Putin feststellte, dass Russland auch zahlen soll, stoppte er die Ratifizierung. Dito für Erdogan.
Mit Russland, der Türkei, mit Indien, China und den USA gehören Nationen mit rd. 3 Mrd. Menschen von insgesamt 7,5 Mrd. Erdenbewohnern de facto
nicht zur Gemeinde der „Klimaschützer“. Leider reden unsere Wahrheitsmedien darüber nicht.
Als Trump ankündigte, Obamas Präsidenten-Dekret zum Agreement zurücknehmen zu wollen, sprang sofort Frau Merkel vor die Kameras und verkündete ohne zu zögern, dass Deutschland in diesem Falle die Anstrengungen erhöhen müsse. Es gelte schließlich, den Globus vor Überhitzung zu bewahren und in diesem Theaterstück könne der Wohlstand von Deutschlands Bürgerschaft natürlich keine Rolle spielen …

Da alle schlimmen Zukunftsvisionen des AGW-Klimawandels ausschließlich auf Simulations-Spielereien mit von Menschen programmierten Klimaszenarien beruhen, anbei ein Beispiel zu deren „Genauigkeit“. Dazu beachten, dass es sich um das niedrigste CO2-Emissionssszenario A1B (Bedingung: alle Länder der Welt halten den Klimavertrag ein) handelt. Die schlimmeren von RCP4.5 bis zu RCP8.5 stellt der DWD nicht dar. Vielleicht, weil dann die Darstellungen so hirnrissig daneben liegen, dass die völlige Unbrauchbarkeit der „unbezweifelbar genauen“ Klimasimulationen selbst „normalen“ Bürgern deutlich würde.

Bild 7 Messwerte und Simulation der Anzahl Tropennächte Deutschland. Quelle: DWD Klimaatlas

Auch dies ist nicht alleinige Meinung des Autors, sondern bekannter Sachstand:
EIKE 02. Oktober 2018: Computer-Klimasimulationen sind gerade kollabiert
EIKE 19. Februar 2018: Der Fluch der Simulationen

Was nicht verhindert, dass das PIK meistens mit dem schlimmsten Szenario RCP8.5 (und „selbsterfundenen“, noch extremeren) simuliert und dann „um sich schlägt“, weil deren Algorithmen nach solchen Eingaben oszillieren.
kaltesonne: Großer Quatsch in der Augsburger Allgemeinen am 19. August 2018 (Anmerkung des Autors: Eine Zeitung, welche so konsequent dem Klimaalarmismus frönt, dass ein Fachmann sogar eine Webseite „dagegen“ errichtet hat: Der Klimarealist):
Klimaforscher Schellnhuber: “Wird wohl nie wieder eine Eiszeit geben”
… Vor zwei Wochen ist eine internationale Studie veröffentlicht worden, an der auch Sie beteiligt waren. Da war von einer Heißzeit die Rede. Klingt ebenfalls dramatisch …
Schellnhuber: Ist es auch. Auf der Erde haben sich Eis- und Warmzeiten für Millionen Jahre abgewechselt. Wir haben in Studien nachgewiesen, dass die Industriegesellschaft mit ihren historischen Treibhausgasemissionen diesen Zyklus bereits unterbrochen hat und es wohl nie wieder eine Eiszeit geben wird. Meine Kollegen und ich haben daher die Frage aufgeworfen: Lässt sich unser Klimasystem im gegenwärtig herrschenden Warmzeitzustand auch stabilisieren, oder setzen wir planetare Prozesse in Gang, die uns in eine Heißzeit treiben? Der Unterschied ist, grob gesagt, der Weiterbestand der uns vertrauten Zivilisation. Bei einem langfristigen Anstieg der Temperatur um fünf oder sechs Grad und des Meeresspiegels um 60 Meter wird diese sich nicht aufrechterhalten lassen.
kaltesonne: Ein echter Spaßvogel, der Professor Schellnhuber. Glaziale und Interglaziale operieren auf Zeitskalen von zehntausenden Jahren. Die Verweildauer des CO2 in der Atmosphäre beträgt aber nur 100 Jahre. Spätestens nach einigen hundert Jahren wäre das CO2 also wieder auf dem vorindustriellen Niveau. Ob sich Schellnhuber das schonmal klargemacht hat? Da diesen Zeitpunkt von uns sowieso niemand erleben wird, kann er aber munter drauflos in die Zukunft fabulieren. Zum Totlachen. Siehe auch unseren Beitrag PIK warnt vor Ausfall der nächsten Eiszeit. Mojib Latif cool: “100 Jahre bleibt CO2 in der Luft”

Was es mit der laut Herrn Schellnhuber mit Sicherheit ausfallenden, nächsten Eiszeit auf sich hat, wurde schon einmal berichtet:
EIKE 17.10.2015: Fällt die nächste Eiszeit aus? PIK Chef Schellnhuber behauptet: Ja, so sicher wie das Amen in der Kirche!

Nur ganz Wenige folgen nicht

Während Joe Kaeser (wie auch Herr Zetsche und die CEOs vieler Versorger) sich vorbeugend dem pseudoökologischen und angeblich „christlichem“ ethischem Mainstream verschrieben haben, gibt es nur wenige Mutige, welche noch ein paar vom Merkel- und Allparteien-Mainstream abweichende Verlautbarungen von sich geben:
dpa Sonntag, 30. September 2018: Bayer-Chef: Scharfe Kritik an Umweltschützern
… «Sie nützen die Größe und Prominenz des Produkts für ihr Geschäftsmodell», sagte Baumann der «Bild am Sonntag». Nur so bekämen Umweltschützer die nötige Aufmerksamkeit, um möglichst viele Spenden zu erhalten. Bio-Landbau sei nicht pauschal die nachhaltigere Anbaumethode …
Da es dabei um Glyphosat ging, wird der Bayer Chef kaum Gehör finden. Zudem kommt er mit dieser Darstellung etwas arg spät, nachdem dessen Verteufelung mit aktivster Unterstützung von SPD-Umweltministerinnen längst gelaufen ist. Der Glyphosat-Unterstützer der CSU wurde damals (im Vorspann, wie mit Herrn Maaßen umgegangen wurde) entsprechend sofort politisch mundtot gestellt und dann „entsorgt“.

Und noch etwas wagte diese Bayer-Chef zu zusagen:
… Baumann lobte zudem US-Präsident Donald Trump, den er als «einen sehr aufmerksamen, zugewandten und auch sehr gut informierten Gesprächspartner» erlebt habe …
Vielleicht ist der „Mut“ auch nur entstanden, weil das Geschäft schon zu arg beeinflusst wurde.

Zum Schluss noch ein kurzer, zum Thema passender Essay:
The European: Was erlauben Diesel?

Quellen

[1] nordbayerische Nachrichten, lokale Printausgabe vom 22.09.2018: Mit Öko-Anbau gegen die Heißzeit

[2] nordbayerische Nachrichten, lokale Printausgabe vom 19.09.2018: Kann Hightech Welternährung sichern?

[3] Bayerisches Staatsministerium für Ernährung, Landwirtschaft und Forsten (StMELF): Humus und Landwirtschaft – Humusqualität bayerischer Äcker im Vergleich

[4] taz 13.09.2016: Bio-Landwirtschaft und Klimaschutz Öko macht auch Dreck

[5] EIKE 19.09.2016: Biobauern sind die größten Lebensmittel-Vernichter Ohne Klimawandel überlebt die Biolandwirtschaft ihre Ernteverluste nicht

[6] EIKE 27.07.2016: Biobauern darben ohne Klimawandel (und extremen Subventionen) Bei der normalen Landwirtschaft hängt es von der Veranstaltung ab

[7] EU Haushalt




John Holdren zu Trumps Energie/Klima-Armageddon (Teil 1: R&D, Paris-Rückzug, China)

[Im Folgenden sind die Äußerungen Holdrens kursiv gesetzt, meine diese Äußerungen widerlegende Kommentare in Normalschrift]:

R&D* als Retter

[R&D = Research & Development = Forschungs- und Entwicklungsabteilung der US-Bundesregierung. Anm. d. Übers.]]

Holdren: meiner Ansicht besteht der größte Schaden, den die Trump-Regierung anrichtet darin, dass sie zuvorderst die sehr drastischen Investitionen in Forschung und Entwicklung bzgl. sauberer und effizienter Energie kürzt oder zur Kürzung vorgeschlagen hat. In diesem Land gab es lange Zeit eine Symbiose zwischen regierungsamtlichen Investitionen in Grundlagenforschung, während der private Sektor die besten Ansätze aufnahm und wirtschaftlich zu machen versuchte.

Einige meiner Kollegen haben jüngst im Wall Street Journal ein Op-Ed geschrieben mit dem Titel [übersetzt] ,die Wundermaschine‘. Und die Wundermaschine ist diese Symbiose, welche während der letzten 70 Jahre der primäre Treiber ökonomischen Wachstums war. Sie war der primäre Verlängerer und Verbesserer der Lebensspanne. Es war ein gewaltiger Beitrag zur Verbesserung der Lebensqualität.

Und die Trump-Regierung möchte diese Wundermaschine abschalten. Seiner Ansicht nach muss die Regierung nicht in R&D investieren, weil der private Sektor alles Notwendige veranlassen wird. Wir wissen, dass dem aus sehr fundamentalen Gründen nicht so ist. Der private Sektor wird niemals die umfassende Grundlagenforschung betreiben, welche für die Interessen der Gesellschaft erforderlich sind, weil man nie im Voraus die Natur der Grundlagenforschung beschreiben kann. Man kann nicht im Voraus sagen, welche Forschungen zu einem Durchbruch führen, welcher die Lebensqualität verbessert. Die Unternehmen können nicht sagen, ob sich die Investitionen darin überhaupt irgendwann rentieren. Wie lange es dauert, bis sich alles ökonomisch rentiert, und ob man in 20 oder erst in 30 Jahren Vorteile hat.

Und darum werden sie es einfach nicht tun. Sie können es nicht gegenüber ihren Aktionären rechtfertigen. Und noch einmal, worauf wir uns verlassen haben ist,dass die Regierung sich dieser Unsicherheit annimmt, erkennt man doch in der Rückschau, dass dies enorme Vorteile hatte, obwohl man zu keiner Zeit sagen konnte, was aus der Finanzierung der Forschungen werden würde.

Die Trump-Regierung hat also vorgeschlagen, die regierungsamtlichen Investitionen in Energieforschung und -entwicklung in der Größenordnung von 50% pro Jahr zu kürzen. Am Ende der Obama-Regierung führte Obama eine Koalition von 20 Nationen an mit der Bezeichnung „Mission Innovation“, wobei sich die Regierungen dieser 20 Nationen verpflichteten, im Verlauf von fünf Jahren ihre Ausgaben bzgl. der Erforschung sauberer Energie zu verdoppeln. Und jetzt will Trump das innerhalb eines Jahres halbieren – falls der Kongress dem zustimmt, wobei wir hoffen, dass er nicht zustimmt.

Erwiderung: Holdren behauptet, dass R&D die sichtbare Hand ist, welche das Scheitern des Marktes hinsichtlich unzureichender Innovation korrigiert. Die Historie von Innovationen zeigt, dass die Erzielung von Durchbrüchen seitens der Regierung die Ausnahme und nicht die Regel ist.

Selbst die Schiefergas-Fraktionierung, Subventionen des US-Energieministeriums DOE zugeordnet, ist eine ziemliche Wegstrecke. Die Fraktionierung im privaten Sektor reicht zurück bis zu den 1860-ger Jahren, erklärt Michael Giberson, und horizontales Bohren (ein Vorläufer von Fracking) bis zu den zwanziger Jahren. (Eine weitere nützliche Vorgeschichte findet sich hier).

Will irgendjemand sagen, dass falls das DOE nicht dem Prozess der Gas-Fraktionierung Vorschub geleistet hätte, dieses Verfahren bis heute unbekannt wäre? Prof. Giberson postuliert, dass ohne die drückende Hand der Regierung auf die Öl- und Gasindustrie (erinnert man sich noch an Preiskontrollen?) diese Entwicklung auch ohne den Vorschub des DOE viel schneller vonstatten gegangen wäre:

„Natürlich kann die gesamte Beteiligung der Bundesregierung an der Industrie – in Gestalt von Steuerpolitik, Vorschriften, Kartellrecht, Landbewirtschaftung und so weiter – mit gutem Grund als Verzögerung technologischer Fortschritte gewertet werden, wenn man es mit dem vergleicht, was sich unter einem vernünftigeren Regime getan hätte“.

Und was Öl betrifft, so war mit Sicherheit die erfolgreiche Anwendung der Fraktionierung auf Rohöl (aus Erdgas) seitens EOG Resources [ein großes US-Unternehmen] ein Triumph des privaten Sektors. („Das war kein Zufalls-Glückstreffer von EOG“, sagt Tim Parker, Manager von T. Rowe Price’s New Era Fund und vieljähriger Aktionär von EOG. „EOG ist ein Ingenieurs-Unternehmen, und dessen großer Verdienst ist es, die entsprechenden Aktivitäten frühzeitig zu erkennen“, sagt Parker).

Und schließlich können die philanthropischen Institutionen der Zivilgesellschaft das tun, was die Regierung und an Profiten/Verlusten orientierten Unternehmen nicht tun können oder wollen. Was wäre geschehen, wenn die Lobbygruppen pro Klima-Alarm und pro Energie-Transformation ihr Geld dorthin gesteckt hätten, wo ihre Münder sind? Und selbst hier, wäre deren Philanthropie nicht besser angewendet auf Hier-Und-Jetzt-Probleme als auf irgendwelche spekulativen Probleme?

Rückzug aus dem Paris-Abkommen:

John Holdren: Das zweite große, Schäden anrichtende Thema ergibt sich aus dem Rückzug von Präsident Trump aus dem Paris-Abkommen. Unmittelbar nach seiner entsprechenden Ankündigung sind ein paar Dinge geschehen. Wir können uns ironischerweise offiziell nicht aus dem Abkommen zurückziehen bis nach dem Wahltag im Jahre 2020. Aber Trump hat bereits die Unterstützung der USA für Klimawandel-Abschwächungsmaßnahmen und -anpassung für Entwicklungsländer gestrichen, obwohl wir dazu im Zuge des Paris-Abkommens verpflichtet gewesen wären.

Die Prämisse lautet, dass die Industrienationen für die Veränderung der Treibhausgase in der Atmosphäre verantwortlich sind und die Entwicklungsländer am meisten dadurch gefährdet sind wegen fehlender Infrastruktur und aus anderen Gründen.

Also wurde abgemacht, dass die industrialisierten Länder zunehmend für die Kosten zur Klimawandel-Abschwächung und -Anpassung für die Entwicklungsländer beitragen sollten. Das sollte 100 Milliarden Dollar pro Jahr bis zum Jahre 2020 einbringen und auf diesem Niveau bis zum Jahre 2025 verbleiben. Trump hat bereits früh die Beiträge der USA in den entsprechenden Fonds gestrichen, welcher den Entwicklungsländern helfen sollte, den verheerenden Auswirkungen des Klimawandels zu begegnen. Außerdem hat Trump die Führung der USA in diesem Bereich geopfert.

Im November 2014 sind Präsident Obama und der chinesische Präsident Xi zusammen in Peking aufgestanden und haben gesagt, dass sie die beiden größten Ökonomien und die beiden größten Emittenten seien. Sie erkennen, dass der Klimawandel eine der großen Herausforderungen des 21. Jahrhunderts ist. Ihre beiden Länder sind dabei, zusammen die Führung zu übernehmen, um diesem Problem zu begegnen. Diese Zusammenarbeit hat das Paris-Abkommen erst möglich gemacht.

Widerlegung: Das Pariser Klima-Abkommen wurde von dem Klimawissenschaftler/-aktivisten James Hansen bloßgestellt und zurückgewiesen als „ein echter Betrug, ein Fake“. Er fügte hinzu:

„Es ist einfach Bullshit, wenn sie sagen, dass sie ein 2°C-Erwärmungsziel haben und dann versuchen, alle fünf Jahre noch etwas besser zu werden. Das sind einfach nur wertlose Worte. Es gibt keine Maßnahmen, sondern lediglich Versprechungen. Solange fossile Treibstoffe die billigsten Treibstoffe sind, wird man sie weiterhin verbrennen“.

Wie die Trump-Regierung zu Recht bzgl. des Rückzugs aus dem Paris-Abkommen erklärte, ging es in demselben viel mehr um eine Umverteilung des globalen Vermögens als um eine begrüßenswerte Umkehr des vermeintlichen menschlichen Einflusses auf das globale Klima. Betrachtet man die von den Unterzeichnern gesetzten Ziele des Paris-Abkommens, sind die Ergebnisse bis heute trostlos.

Hinsichtlich der moralischen Hintergründe sagte Ted Nordhaus vom Breakthrough Institute in Foreign Affairs: „Wir müssen aufhören zu versuchen, die zunehmend sinkenden Kohlenstoff-Emissions-Ziele (in internationalen Klima-Abkommen) auszugleichen auf dem Rücken der globalen Armen“. Und weiter:

„Es gibt keine moralische Rechtfertigung, diesen Bevölkerungen die Vorteile einer von fossilen Treibstoffen getragenen Entwicklung vorzuenthalten. Niedrigere Emissions-Niveaus in Verbindung mit eingeschränkter Entwicklungshilfe wird noch viele Jahrzehnte lang keinerlei bedeutsame Verbesserung bzgl. Klima-Extreme mit sich bringen. Dagegen machen die mit der Entwicklungshilfe einher gehenden Vorteile diese Bevölkerungen schon jetzt substantiell widerstandsfähiger gegen Klima-Extreme“.

China als Energie-Führer

John Holdren: Jetzt hat China allein die globale Führung bzgl. Klimawandel übernommen. Man muss sich fragen, ob das wirklich eine gute Idee war. China positioniert sich selbst als globaler Führer in allen möglichen Bereichen … Indem wir bei uns Forschung und Entwicklung zurückfahren, opfern wir unsere Führerschaft bzgl. Innovationen sauberer Energie. Damit werden wir ultimativ unsere Wirtschaft schädigen, weil sich während der nächsten 20 bis 25 Jahre weltweit ein Markt bzgl. sauberer Energie im Wert von 25 oder 30 Billionen Dollar entwickeln wird. Und wer bekommt die Früchte jenes Marktes?

Widerlegung: In meinem Beitrag mit dem Titel [übersetzt] „Nein, China wird Amerikas Energie-Renaissance nicht ausstechen“ habe ich erklärt:

„Man stelle sich eine auf zentraler Planwirtschaft beruhende Ökonomie vor, in der es keinen freien Gedankenaustausch und keine freien Entscheidungen der Verbraucher gibt … Die Schwäche von Planwirtschaft beginnt schon mit dem knowledge problem und endet mit Verboten des Verhaltens der Öffentlichkeit, wenn diese den ,idealen‘ Plan beeinträchtigen. Folglich muss nicht nur das Scheitern eines freien Marktes gegenüber dezentralisierten Entscheidungen bewiesen werden, sondern es muss auch die Wahrscheinlichkeit eines Scheiterns der Regierung angesprochen werden bei jedweder Lösung eines vermeintlichen Problems“.

China als der „globale Anführer bzgl. Klimawandel“? Man betrachte den Kohle-Boom des Landes. „Der Neubau hunderter neuer Kohlekraftwerke in China ist wieder aufgenommen worden. Das geht aus einer Analyse von Satellitenbildern hervor“, berichtet Matt McGrath von BBC News (September 2018). Und weiter:

„Die von den grünen Campaignern von CoalSwarm durchgeführten Forschungen zeigen, dass sich 259 Gigawatt zusätzlicher Kapazität in China in der Entwicklung befinden. Den Autoren zufolge ist dies die gleiche Kapazität zur Stromerzeugung wie die gesamte Kohlenflotte in den USA. Der Studie zufolge sind Versuche der Regierung, viele Planungen aufzuheben, gescheitert“.

CoalSwarm schreibt dazu am 20. September 2018:

„Diese Zunahme repräsentiert ein Wachstum der Kohlenflotte in China um 25%. Die neue Kapazität ist das Ergebnis einer Flut von Genehmigungen im Zeitraum Ende 2014 bis Anfang 2016 nach einer angeordneten Dezentralisierung von Zentral- auf Provinzbehörden. Im Gegensatz zu früheren Berichten und Analysen haben viele Restriktionen neue Projekte lediglich verzögert, sie aber nicht zum Stillstand gebracht“.

China mag noch so viel schwadronieren über die Geldverschwendung für (fake-) grüne Energie, aber man kann erwarten, dass die CO2-Emissionen des Landes während der kommenden Jahre und sogar Jahrzehnte immer weiter steigen werden (was übrigens auch für Indien gilt).

Alles in allem ist King Coal lebendig und erfreut sich globalem Wohlergehen. Eine Studie des IER kam zu dem Ergebnis:

„Global wird derzeit mit Kohle immer noch mehr Strom erzeugt als mit jeder anderen Quelle. Im Jahre 2017 wurden mit Kohle 38% des Stromes in der Welt erzeugt – 64% mehr als mit Erdgas, welches weltweit an zweiter Stelle rangiert. Der Anteil der Kohle war im Jahre 2017 nicht geringer als deren Anteil zwei Jahrzehnte zuvor“.

Link: https://www.masterresource.org/holdren-john/holdren-trumps-armageddon-1/

Übersetzt von Chris Frey EIKE