Grüne Produzenten halten „grüne“ Energie für zu teuer, um „grünen“ Wasserstoff herzustellen

Stopthesethings

Der Mythos, „grünen“ Wasserstoff ausschließlich mit Wind und Sonne zu produzieren, ist ein weiterer Versuch der Vetternwirtschaft, die Steuerzahler von ihrem Geld zu trennen. Wenn „grüner“ Wasserstoff wirtschaftlich machbar wäre, würden Unternehmer jeden Cent, den sie aufbringen könnten, für etwas (scheinbar) vielversprechend einsetzen.

Die Tatsache, dass ihre erste Anlaufstelle staatliche Subventionsfonds sind, sagt jedoch alles.

Abgesehen von den (bedauerlichen) wirtschaftlichen Aspekten bedeutet die Physik der Produktion, Lagerung und Verteilung eines äußerst flüchtigen und korrosiven Gases, dass nichts davon eine Hoffnung auf Verwirklichung hat. Aus diesem Grund gibt es weltweit keinen einzigen kommerziellen Hersteller von grünem Wasserstoff [in größeren Mengen].

Andrew Twiggy Forrest, der treue Kapitalist des Königs von Australien – das führende Sprachrohr dieses Landes für grünen Wasserstoff – hat viel Rhetorik, aber kaum rationale Argumente und noch weniger den Wunsch, mit seinem eigenen Geld Taten folgen zu lassen.

Wie das Team von Jo Nova unten erklärt, haben Forrests große Pläne für grünen Wasserstoff im Hades keine Chance, jemals in die Tat umgesetzt zu werden.

 

Erneuerbare Energie ist zu teuer, um „grünen Wasserstoff“ herzustellen – Twiggy geht stattdessen nach Arizona

Jo Nova Blog, 30. April 2024

Erst vor 18 Monaten gab die australische Regierung  14 Millionen Dollar an Andrew „Twiggy“ Forrest, um herauszufinden, ob sein Team auf einer Insel in der Nähe von Brisbane eine 500-MW-Elektrolyse-Anlage zur Herstellung von Wasserstoffgas bauen könnte. Es sollte eine glorreiche grüne Zukunft in Australien werden, die größte Wasserstoffanlage der Welt. Jedoch verstrichen in den letzten Monaten drei Fristen für die Genehmigung des Projekts. Stattdessen geht das australische Unternehmen ins Ausland.

Wie Nick Cater betont, wird dieser Teil der ursprünglich in Australien herzustellenden erneuerbaren Superenergie nun [eventuell] in Arizona hergestellt, weil dort immer noch billiger Strom vorhanden ist – für wundersame 7,5 cent / Kilowattstunde!

Australiens Produktionsrückgang ist eine Geschichte gebrochener Versprechen und gescheiterter Wohlfahrtsprogramme der Industrie.
Nick Cater, The Australian

Bowen beschrieb den Erfolg des Projekts als „entscheidend“ für Australiens Ambitionen, eine Supermacht für grüne Energie zu werden.

Es stellte sich heraus, dass reichlich Sonne bei der Herstellung von grünem Wasserstoff kein so großer Wettbewerbsvorteil war. Niedrige Steuern, eine verantwortungsbewusste Regierung und günstige und zuverlässige CO2-freie Energie sind weitaus attraktivere Anziehungspunkte für Investoren.

Die Zukunft wird bereits in Buckeye, Arizona, gebaut, wo Fortescue 500 Millionen US-Dollar (765 Millionen US-Dollar) in eine Anlage für grünen Wasserstoff investiert, die angeblich bis 2026 in Betrieb sein wird.

Im Jahr 2023 wuchsen die Investitionen für Produktion in Arizona schneller als in jedem anderen Bundesstaat. Es umfasst energie- und wasserintensive Industrien wie die Herstellung von Siliziumchips, wobei Arizona aus dem Nichts auf den vierten Platz unter den US-Bundesstaaten kam.

..Es ist nicht schwer herauszufinden, warum. Der höchste staatliche Einkommenssteuersatz in Arizona beträgt 2,98 Prozent. … Für energiehungrige Branchen wie die Wasserstoff- und IT-Branche ist der größte Reiz jedoch der Industriestrompreis: 7,47 Cent pro kWh in Arizona im Vergleich zu 18 Cent in Kalifornien.

Unsere Strompreise sind doppelt so hoch, wie es jede Wasserstoffindustrie ertragen könnte.

Damit sind weit abgeschlagen. Letzten Monat sagte der Chef von Fortescue Energy, er hoffe, dass unsere Preise fallen würden (um die Hälfte!), und nannte Norwegen als Beispiel für „billige erneuerbare Energie“, als ob wir das nachahmen könnten. Das ist ein wenig aussagekräftig, wenn man bedenkt, dass die einzige erneuerbare Energie, die Norwegen nutzt, Wasserkraft ist (96 %). Norwegen verfügt über 31 GW Wasserkraft, während wir über 4 GW verfügen und nicht einmal ein 2 GW-Pumpwasserkraftwerk in Betrieb nehmen können. Um es ganz klar auszudrücken: Norwegen hat tausend Fjorde und eine halbe Million Seen und Australien hat keine Fjorde und etwa fünfzig Salzseen“.

Laut Fortescue beruhen die Hoffnungen auf Wasserstoff auf einer Halbierung der Strompreise.
Peter Kerr, Australian Financial Review, 11. März 2024

Herr Hutchinson [Fortescue Energy-Chef] sagte gegenüber dem Australian Financial Review Business Summit, dass die hohen Strompreise das Haupthindernis auf Gibson Island seien. „Wir haben sehr, sehr hart daran gearbeitet“, sagte er. „Aber angesichts der aktuellen Strompreise ist es schwierig, im globalen Wettbewerb zu bestehen. Es ist eine schwere Entscheidung.

Das Unternehmen geht davon aus, in diesem Jahr ein grünes Wasserstoffprojekt in Norwegen genehmigt zu bekommen, das mit kohlenstofffreier Wasserkraft betrieben werden soll. „Wenn man sich auf der ganzen Welt umschaut, wo man billigen erneuerbaren Strom bekommen kann, liegt der Preis für wettbewerbsfähigen erneuerbaren Strom bei weniger als 30 US-Dollar pro Megawattstunde“.

Unmögliches Dreiecksrätsel. Die Ironie besteht darin, dass er zur Herstellung von Wasserstoff den billigen Strom benötigt, den wir früher im australischen Stromnetz hatten, bevor wir mit der Einbindung erneuerbarer Energien begannen (nach 2008, als Kevin Rudd gewählt wurde). Zwanzig Jahre lang betrug der gesamte australische Netzpreis etwa 30 US-Dollar pro Megawattstunde. Zu einem Zeitpunkt nach 2012, als die CO2-Steuer eingeführt wurde, stiegen die Strompreise über die Preisgrenze von 50 US-Dollar pro Megawattstunde, die die Wasserstoffindustrie unrealistisch macht, und sanken nie wieder.

Es war einmal, dass es in Australien so billigen Strom gab, dass niemand Wasserstoff gekauft hätte. Jetzt, wo Strom so teuer ist, könnte Wasserstoff konkurrenzfähig sein, aber niemand kann es sich leisten, ihn herzustellen.

Wie beim unmöglichen Penrose-Dreieck: [Dieses in sich verschlungene Dreieck] … es ergibt nie einen Sinn.

Reference: AER quarterly wholesale electricity prices 1999- 2023
Referenz: Vierteljährliche Großhandelspreise der AER für Strom 1999–2023

Jo Nova Blog

https://stopthesethings.com/2024/05/18/crony-capitalists-reckon-green-energy-too-expensive-to-make-green-hydrogen/

Übersetzt durch Andreas Demmig




Die Falschmesser vom Deutschen WetterDienst oder, wie der DWD die Deutschlandtemperatur um +1,4°C zu hoch angibt – Teil 1

We own the science and we think that the world should know it. UN Under-Secretary General for Global Communications Melissa Fleming beim WEF im Oktober 2023

Teil 1: Das heutige Messnetz des DWD ist für Vergleiche zu Temperaturen vor der Jahrtausendwende unbrauchbar, da dieses nichts mehr mit dem von vor 2000 zu tun hat. Weder in der Messdatenerfassung, noch in der Struktur (Messstandorte).

Von Raimund Leistenschneider, Matthias Baritz, Josef Kowatsch

¹ Zum Bild oben: Die Autoren weisen ausdrücklich daraufhin, wenn sie vom DWD schreiben, dann meinen sie nicht die vielen dortigen Meteorologen und Wissenschaftler, die jeden Tag akribisch ihrer Tätigkeit nachgehen, um verwertbare Ergebnisse zu liefern, sondern die dortige Führungsmannschaft, die nicht müde wird, sich und damit ihre Behörde und natürlich den Bundesverkehrsminister – der DWD ist eine Behörde im Bundesverkehrsministerium – mit unsoliden und unwissenschaftlichen Aussagen lächerlich zu machen, siehe hier oder hier.

Kurzer Rückblick:

Werte Leser, in 2010 hatte Leistenschneider herausgefunden, dass die vom DWD herausgegebenen mittleren Jahrestemperaturen für Deutschland (um die geht es in diesem Bericht) um +0,9°C bis +1,2°C zu hoch sind (Abb.2).

Abb.2 zeigt den Fehler bei den Deutschlandtemperaturen, die Leistenschneider in 2010 ermittelt hatte: „Klimaerwärmung in Deutschland nicht nachweisbar: Der DWD hantiert mit falschen Daten – Eine Bestandsaufnahme der Deutschlandtemperaturen“

Abb.2 zeigt den unmittelbaren Vergleich der Deutschlandtemperaturen DWD und der WI-bereinigten von 1891 – 2009. Die blau gestrichelte Linie zeigt den Temperaturmittelwert im Betrachtungszeitraum. Die Temperaturen in Deutschland durchbrechen die Mittellinie nach unten, was bedeutet, dass 2010 kälter als im 120-Jahresvergleich ist. Zum berechneten WI wurde, wie dies beim IPCC üblich ist, der Fehlertoleranzbereich angegeben (grüner Bereich). Soviel zum damaligen Text.

Die obigen Untersuchungen basieren im Wesentlichen auf den Strahlungsgesetzen nach Planck – ob die anschließende mathematische Betrachtung richtig ist² – und den Steigungsvergleichen der DWD-Deutschlandjahrestemperaturen zu der DWD-Referenzstation Hohenpeißenberg.

² Mathematisch lässt sich vieles berechnen (siehe z.B. Klimaprojektionen des IPCC). Jedoch allein die Physik entscheidet, ob eine Berechnung sinnvoll ist oder ob nicht (Abb.3).

Abb.3, Quelle: Roy W. Spencer, Ph. D. zeigt hier die tatsächlich gemessene Globaltemperatur im Vergleich zum Mittel der Klimaprojektionen (schwarz) und den einzelnen (berechneten) Klimavorhersagen von 1979 bis 2018. Die Realität hat mit den berechneten Szenarien nichts zu tun. Solche Berechnungen sind nicht das Papier wert, auf denen sie gedruckt sind!

Ein schönes Beispiel, dass alles berechnet werden kann, ganz gleich, welcher Unsinn dabei heraus kommt. Zurück zu unserem Thema:

Die Theorie besagt, dass sich in einer Erwärmungsphase, in der sich die Erde seit etwa 1980 befindet, kalte Gebiete schneller erwärmen als warme. Eine Aussage, die übrigens auch das IPCC sagt. Indes hat dies rein gar nichts mit einem angeblichen menschengemachten Klimawandel zu tun, sondern basiert auf einem physikalischen Basisgesetz.

Um einen gleichen Körper von 10°C auf 20°C zu erwärmen und von 100°C auf 110°C, ist stets dieselbe Energiemenge nötig. „Aber“, um einen Körper zu erwärmen, muss man diesen zuerst auf seiner Temperatur halten. Nennen wir diese „Halteenergie“. Denn das System Erde befindet sich in einer kalten Umgebung (Weltall) und gibt ständig Energie an diese Umgebung ab.

Nun verliert nach Planck ein identischer wärmerer Körper, in gleichen Zeiteinheiten, mehr Energie, als ein kälterer Körper. Seine Halteenergie ist also höher. Da die Erde nur eine Energie erhält, erwärmen sich kältere Gebiete (z.B. Polregionen) schneller als wärmere. Es erfolgt somit ein Angleich der Temperaturen – Temperaturunterschied wird geringer.

Werden nun die Temperaturen der zu untersuchenden Objekte in Relation gesetzt, so muss in einer Erwärmungsphase ein (leichter) und stetiger Angleich der Temperaturen erfolgen. Sind Sprünge zu verzeichnen, ist dies auf Unregelmäßigkeiten der Temperaturerfassung/Messnetzes zurück zu führen. Anhand anschließender Steigungsvergleiche lässt sich der Fehler berechnen, der in Abb.2 zu sehen ist.

Zu „Sprünge“ der Fachmann, Prof. Malberg, FU, Met Inst.:

„Die Verlagerung von Klimastationen an neue Standorte führt in der Regel zu sprunghaften Änderungen der Klimawerte. Wird die neue Station nicht auf bisherige Messreihe (oder umgekehrt) mittels vieljähriger Parallelbeobachtungen reduziert, so kann der Bruch so groß sein, dass die Klimareihe für die Analyse des langfristigen Klimawandels unbrauchbar wird.“

Doch wie kommt es zu den Sprüngen in den Vergleichen der Deutschlandtemperaturen zu denen der Referenzstation Hohenpeißenberg?

Das Messnetz des DWD ist heute ein gänzlich anderes als noch vor 100 Jahren oder mehr ist. Nur 5% seines heutigen Messnetzes stimmen mit dem vor 120 Jahren dem Namen nach überein. Betrachtet man dazu die Stationsverlagerungen in diesen verbliebenen 5%, geht die Vergleichbarkeit gegen 0%, denn diese wurden in den Orten an wärmere Stellen verlegt, siehe hier.

Abb. 4

Bereits Abb.4 zeigt, dass so gut wie nichts mehr beim DWD-Messnetz mit dem von früher identisch ist, was Abb.5 verdeutlicht.

Abb.5, Quelle R. Leistenschneider, nach Daten des DWD, zeigt alle vom DWD, nach dessen eigenen Angaben, bis 2022 (Stand 08/2022) stillgelegten Messstandorte, aufgeschlüsselt nach Dekaden. Die aktuelle Dekade zeigt bis 08/2022 bereits 90 Stilllegungen. Hochgerechnet auf das Jahrzehnt, sind dies, bei gleichbleibender Stilllegungsfreude des DWD = 550 Messstandorte.

Ist schon sehr auffällig, dass der DWD mit Beginn der Klimaaktivtäten weltweit in dem IPCC (1990 = First Assessment Report) damit beginnt, sein bisheriges Messnetz stillzulegen und durch neue Standorte zu ersetzen.

Dass sämtliche Vergleiche des DWD zu den Deutschlandtemperaturen unbrauchbar sind, zeigt weiter dessen Struktur (Abb.6 und Abb.7), die stimmen müsste, sollen Vergleiche korrekt sein.

Abb.6, Quelle R. Leistenschneider, nach Daten des DWD, zeigt die weitgehend ausgeglichene Struktur des DWD-Messnetzes vor der Klimahype. In seinem Messnetz hat er etwa die gleiche Anzahl von „alten“, wie von „neuen“ Messstandorten.

Die heutige Struktur des DWD-Messnetzes ist dagegen sichtlich unausgewogen und schieflastig, Abb.7.

Abb.7, Quelle R. Leistenschneider, nach Daten des DWD, offenbart die Unausgewogenheit (Schieflastigkeit) des heutigen DWD-Messnetzes zugunsten von „neuen“ Messstandorten, die ab dem Klimarummel des IPCC im Jahr 1990 begann. Vergleiche mit Abb.4.

Halten wir fest:

Bis 1990 wurden in 100 Jahren (!) etwa soviele Standorte stillgelegt, wie in den 1990-Jahren. Also in lediglich 10 Jahren. Dass Ganze „schreit“ förmlich nach „Lug und Betrug“.

In der Tat, sind alle Vergleichsdaten des DWD zu den mittleren Jahrestemperaturen in Deutschland unbrauchbar, wie noch bewiesen wird.

Kowatsch hatte die Datenreihe in Abb.2 bis in das Jahr 2023 erweitert, nachdem Leistenschneider die Berechnung bis 2023 weiter geführt hatte (Abb.8).

Abb.8 zeigt in rot, die vom DWD veröffentlichten Jahrestemperaturen für Deutschland von 1881 bis 2023 und in grün, die nach dem obigen Verfahren bereinigten und richtigen (!!) (Vergleichs)temperaturen für Deutschland im selben Zeitraum.

Man beachte: Zu Beginn der 1930-Jahre war es in Deutschland vergleichbar so warm wie heute, was etwa ein Jahrzehnt anhielt!

Nach diesem Verfahren, liegt der Fehler in 2023 bei +1,42°C. Diesen Wert sollten wir uns merken.

Beweisführung

Unsere Beweisführung für die Manipulation des DWD bei den mittleren Jahres(vergleichs)temperaturen für Deutschland, beruht auf der Diplomarbeit beim DWD Vergleich und Auswertung von täglichen Extremtemperaturmessungen mit Quecksilber-/Alkohol- und Pt100-Thermometern beim Fliegerhorst Lechfeld“.

Erstprüfer: Leitender MA des DWD (jetzt in Rente), Herr RDir a. D. Klaus Hager

Herr Hager hatte in der Berliner Wetterkarte auszugsweise daraus berichtet:

Abb.9, Quelle: Beilage zur Berliner Wetterkarte 44/13, „Vor- und Nachteile durch die Automatisierung der Wetterbeobachtungen und deren Einfluss auf vieljährige Klimareihen“, Klaus Hager. Abb.5 zeigt den Unterschied der Messungen mit einem Quecksilberthermometer und der heutigen elektronischen Messungen über einen Zeitraum von 8 1/2 Jahren. Sehr gut zu sehen, dass die elektronische Messung deutlich höhere Werte ergibt und zwar um +0,93°C höher! Dazu der Text des Verfassers, Herr Klaus Hager:

„An den 3144 Tagen ergab sich eine mittlere Differenz von + 0,93 Grad – Pt 100 höher als Quecksilber. Die maximal erfasste Tagesdifferenz betrug gar 6,4 Grad! An 41% der Tage war die Differenz 0 bis 1 Grad, an 26% der Tage 1 bis 3 Grad und an 18% der Tage größer als 2 Grad, an 15% der Tage waren die Quecksilberwerte höher als die mit Pt 100 gewonnenen Höchstwerte.“

„Ursachen hierfür können der Grad der Wolkenbedeckung und die Sonnenscheindauer, aber auch Windgeschwindigkeit und Luftmassenwechsel sowie die Bodenbedeckung mit einer Schneedecke sein. Somit kann man nicht mit generellen Korrekturwerten arbeiten, sondern muss lapidar feststellen, dass die früher gewonnenen Messwerte nicht mit den heutig erfassten für eine lange Temperaturreihe verwendet werden dürfen, ohne dass Brüche in den langen Reihen entstehen, die nicht real sind.“

Ein weiterer Fachmann, Prof. Malberg, FU Met Inst. dazu:

„Mit den Auswirkungen auf die Klimatemperatur durch die Umstellung von Quecksilberthermometermessungen auf elektronische Messverfahren Ende der 1980er/Anfang der 1990er Jahre hat sich W. Wehry (Beiträge zur BWK SO 22/09) befasst. Auch dieser (Fort-)Schritt hatte offensichtlich eine gewisse scheinbare Erhöhung der Mitteltemperatur zur Folge, da die elektronischen Messungen in der Regel höhere Maxima als die trägen Quecksilbermessungen ergeben. Der Effekt wirkt sich vor allem dort aus, wo die Mitteltemperatur aus Maximum und Minimum gebildet wird, u. a. in den USA.“

Die Autoren hatten mehrfach dazu berichtet.

Wie von Prof. Malberg genannt, handelt es sich bei den Daten nicht um (Tages)mittelwerte, sondern um Tageshöchstwerte. Sind also für eine Projektion auf die Temperaturmittelwertveröffentlichungen des DWD nur bedingt brauchbar, da sie eine andere Größe abbilden.

Nun ist die Physik etwas wunderbares. Sie gilt sowohl in Deutschland gleichermaßen, wie Frankreich den USA, etc. Eine Offenbacher-Physik existiert nicht. Auch wenn die Verlautbarungen zum angeblichen menschengemachten Klimawandel einen anderen Anschein erwecken. Doch dies soll jetzt nicht unser Thema sein.

Sowohl beim neuen Messverfahren mit Pt 100 (Platinsensor, dessen el. Widerstand sich mit der Temperatur ändert), als auch beim früheren Messverfahren mit Quecksilberthermometer (dessen Funktionsweise auf der Volumenänderung zur Temperatur beruht), handelt es sich um lineare Größen. Deshalb werden/wurden beide auch zur Temperaturerfassung eingesetzt. Linear bedeutet, dass deren Änderung pro °C stets die gleiche ist. Zumindest in dem Temperaturbereich, indem diese messen.

In der o.g. Diplomarbeit ist festgehalten:

„Aufgrund eines breiten Temperaturspektrums von -200,00 °C bis +500,00 °C deckt das Pt 100 beinahe alle üblichen Temperaturmessungen in Bodennähe und auch in der Atmosphäre ab. (Deutscher Wetterdienst, 1973)“

Dem Pt 100 ist es dabei egal, ob er Temperaturhöchstwerte oder niedrigere Temperaturwerte misst. Er kennt keine „Höchstwerte“, sondern einzig Messwerte. Will heißen, wenn der Pt 100, im Vergleich zum Quecksilberthermometer, falsche (zu hohe) Vergleichswerte liefert, dann ist dies auch bei den darunter liegenden Temperaturmesswerten der Fall. Die Frage ist „nur“: Wie hoch sind diese im Bezug des Tagesmittelwertes und damit zu den Jahresmittelwerten?

Nicht nur die Physik ist etwas Wunderbares, sondern auch deren Hilfsmittel, die Mathematik. Denn mit ihr lassen sich aus den Höchstwerten (deren Abweichung um +0,93°C), die Tages- und damit Jahresmittelwerte errechnen. Also wie hoch der Fehler bei den Temperaturmittelwerten ist. Konkret, um wie viel °C mit dem Pt 100 bei den Jahresmittelwerten im Vergleich zu früher (vor der Jahrtausendwende) zu hoch gemessen wird.

Dazu im Teil 2 mehr.

Raimund Leistenschneider – EIKE

Matthias Baritz, Naturwissenschaftler und Naturschützer

Josef Kowatsch, Naturbeobachter, aktiver Naturschützer, unabhängiger Klimaforscher

 




Tropische Wirbelstürme wehen im Takt eines geheimnisvollen atlantischen Ozeanzyklus: Klimaschau 191

Die Klimaschau informiert über Neuigkeiten aus den Klimawissenschaften und von der Energiewende.

Thema der 191. Ausgabe: Tropische Wirbelstürme wehen im Takt eines geheimnisvollen atlantischen Ozeanzyklus




Die Probleme mit Temperatur-Daten

H. Sterling Burnett

Es wird immer deutlicher, dass die Temperaturdaten nicht korrekt sind, welche die US-Regierung und viele andere Regierungen zur Vorhersage des katastrophalen Klimawandels verwenden, nämlich die Daten der Temperaturstationen.

Um Elizabeth Barrett Brownings Sonett 43 zu paraphrasieren: Wie schlecht sind die Aufzeichnungen der Oberflächenstationen? Lassen Sie mich die Fehler aufzählen.

Selbst die Befürworter der Klimaalarmisten räumen ein, dass die Daten der Oberflächenstationen zu hoch sind. Um die Sache für die Alarmisten noch schlimmer zu machen, sind die überhitzten Daten der Oberflächenstationen immer noch niedriger als die Temperaturen, die laut Klimamodellen aufgrund der Kohlendioxidmenge in der Atmosphäre herrschen sollten. Diese Tatsache deutet stark darauf hin, dass die in den Modellen angenommene Klimasensitivität bei einer Verdopplung des atmosphärischen Kohlendioxids gegenüber dem vorindustriellen Niveau ebenfalls viel zu hoch ist.

Ein weiterer Beweis dafür, dass die Daten der Oberflächenstationen fehlerhaft sind, ergibt sich aus der Tatsache, dass deren Messwerte nicht mit den Temperaturen übereinstimmen, die von globalen Satelliten und Wetterballons aufgezeichnet werden, also von zwei alternativen Temperaturquellen, deren Datensätze eng miteinander übereinstimmen.

Das Heartland Institute hat sowohl in den Vereinigten Staaten als auch im Ausland Fälle aufgedeckt, in denen offizielle Stellen frühere Temperaturdaten an unberührten Stationen manipuliert haben. Diese Behörden wurden nicht nur dabei ertappt, Aufzeichnungen so zu korrigieren, dass sie kühler erscheinen, als sie tatsächlich aufgezeichnet wurden, sondern sie haben auch die Temperaturen nach oben manipuliert, so dass der jüngste Erwärmungstrend steiler und gravierender erscheint, als er tatsächlich ist.

Ich habe ausführlich über die sogenannten Anpassungen geschrieben, die von korrupten NOAA-Wissenschaftlern im Jahr 2015, kurz vor den Verhandlungen zum Pariser Klimaabkommen, vorgenommen worden waren. Dabei wurden Daten von unvoreingenommenen Ozeanbojen mit hitzebedingten Temperaturmessungen vermischt, die an den Wassereinlässen von Schiffsmotoren vorgenommen worden waren, was den Anschein erweckte, als würde sich der Ozean plötzlich schneller erwärmen als zuvor. Neuere Forschungsergebnisse, die eine schnelle Erwärmung der Ozeane behaupteten und die manipulierten Behauptungen der NOAA zu bestätigen schienen, mussten korrigiert werden, weil sie die Erwärmung der Ozeane zu hoch ansetzten, oder sie riskierten, vor der Veröffentlichung zurückgezogen zu werden.

Mein Kollege, der preisgekrönte Meteorologe Anthony Watts, hat in Zusammenarbeit mit einem Team von Freiwilligen unabhängig voneinander ernsthafte Probleme mit der offiziellen Aufzeichnung der Temperaturen dokumentiert, die darauf zurückzuführen sind, dass die große Mehrheit der Temperaturstationen schlecht platziert ist. Tatsächlich erfüllen diese Stationen routinemäßig nicht die eigenen Qualitätsstandards der NOAA, was dazu führt, dass die Temperaturen aufgrund des Urban Heat Island (UHI)-Effekts nach oben verzerrt werden.

Im Jahr 2009 und erneut im Jahr 2022 hat Watts anhand von Stationsdaten und fotografischen Beweisen detailliert aufgezeigt, wie schlecht die Standorte dieser Oberflächenstationen wirklich sind. Diese die offiziellen Daten liefernden Stationen befanden sich häufig an Standorten, an denen die umliegenden Oberflächen, Strukturen und Geräte gespeicherte Wärme abstrahlten oder Wärme direkt verzerrt abgaben und die aufgezeichneten Temperaturen höher waren als an Stationen in derselben Region, die nicht durch den bekannten UHI-Effekt beeinträchtigt waren, der von Alarmisten und offiziellen Regierungsbehörden weitgehend ignoriert wird. Watts‘ Studie aus dem Jahr 2009 ergab, dass 89 Prozent der Stationen die Anforderungen des National Weather Service an die Standortwahl nicht erfüllten.

Die Medien und die Regierungsbürokraten nahmen Watts‘ Ergebnisse zur Kenntnis. Letztere gaben offizielle Antworten, in denen sie das Problem einräumten, während sie erklärten, dass die Temperaturaufzeichnungen trotz der groben Verletzung etablierter Regeln für eine solide Temperaturdatenerfassung weiterhin gültig und zuverlässig seien.

Die US-Regierung behauptete zwar, „kein Schaden, kein Foul“, schloss aber einige der in Watts‘ Bericht hervorgehobenen Stationen mit den schlechtesten Standorten und richtete ein alternatives Temperaturnetzwerk ein, das U.S. Climate Reference Network (USCRN), das aus neuen Stationen mit hochmoderner Ausrüstung besteht, die sich an Orten befinden, die wahrscheinlich nie vom UHI-Effekt betroffen sein werden. Der Temperaturdatensatz des USCRN zeigt etwa die Hälfte der Erwärmung und eine langsamere Erwärmungsrate als das breitere U.S. Historical Climate Network (USHCN), das von der Regierung in ihren offiziellen Berichten verwendet wird, in denen eine noch nie dagewesene Erwärmung behauptet wird. Tatsächlich zeigen die Daten der relativ wenigen gut platzierten, unvoreingenommenen USHCN-Stationen im Vergleich zum gesamten Netzwerk ebenfalls nur die Hälfte der von der Regierung angegebenen Erwärmung. Die Regierung verfügt über diese genauen Daten, gibt sie aber nicht als offizielle Daten an oder zählt sie nicht.

Gleichzeitig fügte die Regierung dem offiziellen Netz Tausende von Temperaturstationen hinzu, die zuvor nicht gezählt worden waren und von verschiedenen Behörden und Privatpersonen unterhalten wurden – bestehende Stationen, die ohne Qualitätskontrollprotokolle hinzugefügt wurden.

Das Ergebnis dieser Bemühungen war vorhersehbar katastrophal, wenn man bedenkt, dass es darum geht, eine qualitativ hochwertige, vertrauenswürdige Aufzeichnung der Temperaturen zu erstellen, die nicht durch den UHI-Effekt beeinflusst wird. Leider hat der Bericht von Watts aus dem Jahr 2022 gezeigt, dass sich die Situation noch verschlimmert hat. Watts und sein Team von Freiwilligen entdeckten, dass 96 Prozent der untersuchten Stationen des erweiterten NOAA-Netzes die eigenen Qualitätskontrollstandards für die Standortwahl nicht erfüllten, was zu einer UHI-Verzerrung der gemeldeten Temperaturen führte.

Ein investigativer Bericht von Katie Spence, Journalistin bei The Epoch Times, deckt nun ein zusätzliches Problem mit der Aufzeichnung der Temperaturen in den USA auf – ein Versäumnis, das wohl noch ungeheuerlicher ist als die bisher besprochenen Probleme: Viele „Stationen“, die angeblich Temperaturen „melden“, existieren in Wirklichkeit gar nicht mehr, schon seit Jahren nicht mehr. Die Regierung erfindet einfach die von vielen Orten gemeldeten Daten auf der Grundlage einer Mittelung der an anderen Orten in der Region aufgezeichneten Temperaturen.

Und es sind nicht nur ein paar fehlende Stationen, die erfundene Zahlen liefern, betonte Oberstleutnant John Shewchuk, ein zertifizierter beratender Meteorologe, der von Spence für den Artikel interviewt wurde.

„Die NOAA erfindet Temperaturdaten für mehr als 30 Prozent der 1218 USHCN-Meldestationen, die nicht mehr existieren“, erklärte Shewchuk gegenüber Spence. „Sie sind physisch verschwunden – aber sie melden immer noch Daten – wie durch Zauberhand.“

Bis heute verlässt sich die NOAA auf die Temperatur-„Daten“ der Geisterstationen, mit einem „E“ für Schätzung.

Watts wurde auch für diese Geschichte konsultiert und erklärte der Epoch Times, dass „wenn diese Art von Verfahren vor Gericht verwendet würde, die Beweise als verunreinigt verworfen würden.“

Die Oberflächendaten mögen zwar die beste Quelle sein, die wir haben, aber wenn sie so voreingenommen oder sogar gefälscht sind, wie es sich zunehmend herausstellt, sollten sie auf keinen Fall dazu verwendet werden, die öffentliche Politik zu bestimmen, die die Freiheit von Milliarden von Menschen in ihren persönlichen und wirtschaftlichen Angelegenheiten einschränkt, alles in der vergeblichen Hoffnung, das Wetter in der Zukunft zu kontrollieren.

This piece originally appeared at TheCenterSquare.com and has been republished here with permission.

Link: https://cornwallalliance.org/2024/05/the-problems-with-temperature-data/

Übersetzt von Christian Freuer für das EIKE

 




MEHR Sonnenschein wegen WENIGER Luftverschmutzung in Deutschland?

Martin Steiner, Dr. für Ingenieurwesen, analysiert, ob und wie die immer sauberere Luft in Deutschland die angeblich dem Klima geschuldete Erwärmung bewirkt.

Zum Nachlesen in report24