Wieder einmal: Gescheiterte Klima-Prophezeiungen

Es gibt jetzt eine Menge neuerer aktiver Kommentatoren hier, ein gutes Zeichen für Anthony und Charles. Sie haben vielleicht nicht tief in den umfangreichen WUWT-Archiven gegraben. Eine Möglichkeit, ihren Dialog über das große Bild zu gestalten, ist, sich einige der grundlegendsten gescheiterten Vorhersagen der Klima-Alarmisten anzusehen und warum sie gescheitert sind. Hier sind neun von meinen eigenen GROSSEN, gruppiert nach drei Ursprüngen.

Modelle

● Es gibt einen modellierten tropischen Troposphären-Hotspot. ABER, wie John Christy vor dem Kongress im Jahr 2016 aufzeigte, ist dieser in der Realität nicht existent. Die Klimamodelle überbewerten die Erwärmung der tropischen Troposphäre um etwa das Dreifache. Der plausibelste Grund ist Eschenbachs Hypothese der aufkommenden Phänomene, insbesondere Gewitter. Diese waschen Feuchtigkeit aus, können aber nicht modelliert, sondern nur parametrisiert werden. (Details in einem lange zurückliegenden Beitrag, ‚The trouble with climate models‚ [in deutscher Übersetzung beim EIKE hier]). Aus Beobachtungen heraus modellierte CMIP5 etwa die Hälfte der tropischen Niederschläge, die ARGO beobachtet, durch Änderungen des Salzgehalts der Thermokline. Es stimmt also.

● Modelle passen Anomalien ausreichend an, um mit Beobachtungen übereinzustimmen. Eigentlich ist das nur halb wahr, denn die erforderlichen Modellparameter werden so lange abgestimmt, bis sie stimmen. Die Täuschung liegt in der Verwendung von Modellanomalien. In Wirklichkeit wichen die CMIP5-Modelle in Bezug auf die absolute Temperatur im Jahr 2000 (früh in ihrer Abstimmungsperiode) um ~4C vom beobachteten globalen Durchschnitt von ~15,5C ab.

Fast keine waren nahe an der beobachteten Realität – fast alle waren viel zu warm. Anomalien verbergen diesen grundlegenden Vorhersagefehler des Klimamodells.

● Modelle sagen zuverlässig eine ‚Gleichgewichts-Klimaempfindlichkeit‘ (ECS) von etwa 3C voraus. Wiederum halb wahr. Sie tun es alle, aber nicht „zuverlässig“. Beobachtete ECS unter Verwendung von Energiebudget- (und anderen) Methoden zeigen konsistent etwa 1,6-1,7C, etwa die Hälfte der modellierten. Das ist eine große Sache, da die ganze alarmistische Untergangsstimmung von einem hohen ECS (oder seinem nahen Verwandten TCR) abhängt. Bei 1,6 gibt es überhaupt kein Klimaproblem. Bei 3 gibt es vielleicht eines, vielleicht auch nicht. Die Diskrepanz zwischen Modell und Beobachtung ist so groß, dass der AR5 es abgelehnt hat, eine zentrale Schätzung des ECS zu erstellen, eine peinliche Unterlassung.

Fortsetzung

Der Meeresspiegelanstieg wird sich beschleunigen. Aber das ist nicht der Fall, basierend auf langen Aufzeichnungen differentieller GPS-korrigierter Gezeitenpegel, von denen es jetzt etwa 70 gibt. Der Grund dafür ist, dass wir ähnliche Bedingungen wie im letzten Eem-Interglazial erleben (das Holozän ist jetzt laut Paläoproxy- und Eiskernaufzeichnungen etwa 1 °C kälter), währenddessen die geologischen Beweise auf einen maximalen Eem-Meeresspiegelanstieg (SLR) von etwa 2,2 mm/Jahr hindeuten – genau das, was wir jetzt beobachten, mit Abschluss, von den langen Aufzeichnungen der Gezeitenpegel im letzten Jahrhundert. Es gibt keine SLR-Beschleunigung.

● Die Ernteerträge werden ausfallen und die Menschen werden verhungern. Dies war das Thema meines ersten Beitrags hier vor langer Zeit. Die schreckliche NRDC-Vorhersage an den Kongress basierte auf zwei Unwahrheiten. Erstens stellten sie die „schlechteste“ Vorhersage als die Norm dar. Zweitens war das „schlimmste“ Papier, auf das sie sich für Mais stützten, selbst grundlegend fehlerhaft (ob absichtlich oder aus Inkompetenz, darüber kann man streiten). Es handelte sich um eine umfangreiche statistische Analyse der US-Maiserträge im Laufe der Zeit, und zwar auf der Ebene der einzelnen US-Bezirke für alle wichtigen Mais produzierenden Staaten. Sie behauptete zu zeigen, dass vorübergehende Temperaturen über x die Maiserträge dauerhaft um y reduzierten. AUSSER, ihre multivariate Regressionsanalyse ließ einen wichtigen kovarianten Term aus, Temperatur x Wasser. Die Logik der Auslassung war, dass Temperatur und Wasser meteorologisch nicht korreliert sind. Richtig. Der Fehler in ihrer Argumentation war, dass Mais WIRKLICH wichtig ist, und ihre y-Variable war der Maisertrag. Der ausgelassene Term verfälscht ihre Analyse, wie (nachdem die Autoren unter Alarmisten berühmt wurden und dann dummerweise ihre nun berühmten Maisdaten in grafischer Form veröffentlichten) durch einfache visuelle Inspektion und ein wenig Logik leicht ersichtlich wurde. Keine fortgeschrittene Statistik erforderlich. Schlussfolgerung: BOGUS.

Eisbären werden aussterben, weil das arktische Sommereis irgendwann verschwinden wird (die Vorhersage, wann das sein wird, variiert, aber Wadkins war ein führender Alarmist, der bereits dreimal bewiesen hat, dass er falsch liegt). Wie Dr. Susan Crawford schon mehrfach betont hat, ist die gesamte wissenschaftliche Aussterbeprämisse falsch. Eisbären nehmen etwa 80% ihrer jährlichen Kalorienzufuhr während der Robbenfangsaison im Frühjahr auf. In der Tat ist zu dickes Eis im Frühjahr, nicht zu dünnes, ein Problem für Robben und dann für Bären. Sie sind zur Nahrungsaufnahme überhaupt nicht auf das Sommereis angewiesen. Sie kommen an Land und ernähren sich dann im Sommer wie ihre nahen Verwandten, die Braunbären (Grizzlybären), opportunistisch von Eiern aus Vogelnestern, Beeren, Aas wie angeschwemmten toten Walen und Walrossen, vielleicht sogar von einem gelegentlichen unglücklichen Karibu-Kitz.

Lösungen

● „Erneuerbare“ Energien und der Green New Deal (GND). AOC und Konsorten haben offensichtlich keine Ahnung von Elektrotechnik. Das Netz soll zuverlässig sein. Erstens sind „erneuerbare“ Energien (Wind, Sonne) intermittierend. Daher brauchen sie bei jeder signifikanten Verbreitung ein Backup, ein großer Kostenfaktor, der von den stets subventionierten (weil unwirtschaftlichen) „erneuerbaren“ Energien nicht getragen wird. Zweitens erfordert das Netz Frequenzstabilität, auch bekannt als Netzträgheit. „Erneuerbare“ Energien sind asynchron, liefern also keine. Große rotierende konventionelle Generatoren, die mit Kohle, Erdgas oder Kernkraft betrieben werden, liefern automatisch Trägheit. Es gibt eine Lösung, die als Synchronkondensator bezeichnet wird (im Wesentlichen eine große, sich drehende, aber nicht angetriebene Generatormasse), aber auch für diese leisten die „erneuerbaren“ Energien keinen Beitrag, also werden keine hinzugefügt.

EVs werden das „Kohlenstoff“-Problem der Benzin-/Diesel-Emissionen lösen. Sie benötigen große Mengen an Kobalt und Lithium (Hydroxid oder Karbonat). Von beidem haben wir nicht genug, und die Aussichten, die Situation in den nächsten Jahrzehnten durch neue Minen zu verbessern, sind bei der vom GND gewünschten Verbreitung von Elektrofahrzeugen gleich null. Lithium ist das 33. am häufigsten vorkommende Element der Erde, Kobalt das 31. Die Aussichten sind auf lange Sicht NICHT gut. Im Vergleich zur Häufigkeit in der Erdkruste (allein) liegt Aluminium auf Platz 3, Eisen auf Platz 4 und Kohlenstoff auf Platz 17. Übersetzung: Cola-Dosen und Flugzeuge, Stahl was auch immer, und „Kohlenstoff“-Treibstoffe haben wir. EV-Batterien, nicht so sehr. Ignoriert man die Dominanz Chinas bzgl. der Seltenen Erden kommt die Umweltvergiftung ist Spiel, nicht der Überfluss. Die USA haben ein sehr großes Vorkommen an der Grenze zwischen Kalifornien und Nevada in der Mountain-Pass-Mine, die jetzt im Besitz von China ist. Das Kostenproblem ist nicht das Erz, sondern die Folgen der Umweltaufbereitung. China kümmert das nicht. Uns schon. Vorteil China.

EVs werden eine große Investition in das Stromnetz erfordern. T&D plus Erzeugung. Eine grobe Schätzung ist das Doppelte, um Benzin und Diesel zu verdrängen. Das ist weder im Zeitrahmen von Biden/.GND möglich, noch auch nur annähernd wirtschaftlich. Das Versprechen von Unmöglichem mag sich gut anhören, endet aber in der Realität immer schlecht

Link: https://wattsupwiththat.com/2021/04/26/failed-climate-predictions/

Übersetzt von Chris Frey EIKE

 




Papierfabrik Zanders in Bergisch-Gladbach: Am Tag der Arbeit war Schluss mit der Arbeit

Schock in Bergisch-Gladbach. Am 1. Mai, am Tag der Arbeit, war Schluss mit der Arbeit. Die Mitarbeiter der Papierfabrik Zanders brauchen ab heute, Montag, nicht mehr an ihrem Arbeitsplatz zu erscheinen. Ihre Fabrik hat am 30. April den Betrieb eingestellt! Am Freitagabend kam das Aus für die letzten 360 Beschäftigten.

Zanders hat sich einen Namen als Hersteller qualitätsvoller Papiere gemacht, produzierte in einem hart umkämpften und schwierigen Markt unter anderem edle Papiere mit dem »Gohrsmühle« Wasserzeichen. Doch die Produktion wurde aufgrund steigender Kosten immer unrentabler.

Den letzten Ausschlag gaben jene grotesken CO2-Steuern, die seit diesem Jahr auf Benzin, Diesel, Heizöl und Kohle erhoben werden und nicht nur Produktion, Kochen und Heizung verteuern, sondern auch Transportkosten drastisch heraufsetzen.
Zanders hätte jetzt für sieben Millionen Euro neue CO2-Zertifikate kaufen müssen, ansonsten hätten nach Angaben des Kölner Stadtanzeigers ein Bußgeld in Höhe von drei Millionen Euro gedroht. Gelder, die die Papierfabrik für sogenannte »Verschmutzungsrechte« hätte bezahlen müssen.

Dabei hat sie nichts anderes getan, als Hitze und Dampf zu erzeugen, eine Pulpe aus Fasern und viel Wasser auf eine Siebbahn aufzuspritzen und die entstehende Papierbahn in vielen Stufen mit Wärmeeinsatz zu trocknen, bis sich dann am Ende die Fasern zu einer Papierschicht verbunden haben. Ein sehr alter, kunstvoller Prozess, bei Zanders mit modernen Maschinen, mit eigenem Kraftwerk sowie Wasserversorgung und -aufbereitung und moderner Logistik so effektiv wie heute möglich umgesetzt.

Die Papierfabrik durchlebte in den vergangenen Jahren eine wechselvolle Geschichte und war mehrfach in Schieflage geraten. Im Juni 2018 beantragte das Unternehmen bereits ein Insolvenzverfahren, schließlich stieg zuletzt eine skandinavische Investorengruppe mit einem Fokus in der Papierproduktion ein. Bei Zanders wurden teuer sehr hohe Umweltstandards erfüllt, eine effektive Logistik aufgebaut und mit modernen Papiermaschinen gearbeitet. Viel mehr ist kaum möglich. Wenn eine solche moderne Fabrik keine Chance mehr hat, dann ist sehr viel verloren.

1829 wurde die Papierfabrik J.W. Zanders gegründet und stellte seitdem hervorragende haderhaltige Qualitätspapiere her. Papierherstellung ist aufwendig, erfordert viel Wasser und Energie sowie teure Maschinen.

‚Mit Bestürzung‘ hat sich Bergisch Gladbachs neuer Bürgermeister Frank Stein zum Aus von Zanders geäußert. »Das ist ein schwarzer Tag für Bergisch Gladbach«, ließ er sich in einem offiziellen Statement zitieren. »Es ist unstrittig, dass die Stadt sich ohne diese bedeutende Firma niemals in der Form entwickelt hätte, wie es sie heute gibt.«

Kein Wort von ihm jedoch zu den Gründen in einer vollkommen durchgedrehten Energie- und Umweltpolitik. Kunststück, der Mann ist in der SPD und der gemeinsame Kandidat von SPD, Grünen und FDP. Ein neues »Ampelbündnis« will die Stadt in die »Klimaneutralität« führen. Jetzt ohne Geld, und ohne Papierfabrik. Aber das stört niemanden weiter.

Die arbeitslosen hochqualifizierten Papiermacher können sich jetzt auf den »Weg in die Klimaneutralität« machen, wozu Theresia Meinhardt und Maik Außendorf (Vorsitzende der Bündnis 90/die Grünen-Fraktion Bergisch Gladbach) alle Bürgerinnen und Bürger Bergisch Gladbachs einladen: »Unsere Stadt wird mit Frank Stein endlich den Weg in die Klimaneutralität einschlagen und den Transformationsprozess in der Mobilität, im Bauen und im alltäglichen Konsum hin zu einem nachhaltigeren Leben aktiv gestalten. Gemeinsam möchten wir uns auf den Weg machen, dass wir auch im Lokalen globale Verantwortung übernehmen.«

Dem FDP-Chef Christian Lindner, zu dessen Wahlkreis Bergisch-Gladbach mit der Papierfabrik gehört, fällt nichts anderes ein als: »Der Strukturwandel ist jetzt auch in Bergisch Gladbach angekommen – das ist keine einfache Situation, aber unaufhaltsam.« Papierherstellung findet künftig eben vorwiegend in Skandinavien statt mit langen Transportwegen nach Deutschland. SPD, Linke und fast alle anderen machen den skandinavischen Investor verantwortlich, der allerdings keinen wirtschaftlichen Sinn mehr erkennt, eine in Deutschland immer teurer werdende Produktion zu bezahlen.

Der Untergang von Zanders darf als ein weiterer »Erfolg« der »Decarbonisierung« Deutschlands betrachtet werden, in dem sich eine energieintensive Produktion nicht mehr rechnet. Das musste auch der norwegische Alukonzern Norsk Hydro erkennen, der praktisch nicht mehr in die Aluhütte Neuss investiert, sondern Ungarn als aufstrebenden Standort forciert.

Was Generationen überdauerte, schaffen klimaneutralitätsstrunkene Linke und Grüne, in wenigen Jahren zu zerstören. Während die Unternehmerfamilien von Zanders früher viel auch für die Stadt geleistet haben, können sich jetzt die Bürger die hohlen Sprüche von der lokalen Verantwortung fürs Globale anhören. Die klingen in den Ohren der Beschäftigen und ihrer Angehörigen wie Hohn. Sie – sowie die Geschäfte in Bergisch-Gladbach – wissen hoffentlich, wem sie ihr Aus zu verdanken haben.

Der Beitrag erschien zuerst bei TE hier




Teures Stromnetz ohne doppelten Boden

Der Bericht der Bundesnetzagentur zur Netz- und Systemsicherheit 2020 zeigt weiter steigende Kosten. Es ist höchst unwahrscheinlich, dass diese Dynamik beherrschbar sein wird.

Der von der Bundesnetzagentur (BNA) ausgegebene Jahresbericht 2020 lässt ahnen, was bezüglich der steigenden Kosten für das Stromsystem noch auf uns zukommen wird. Diese werden im Bericht abgebildet in den Maßnahmen zum Einspeisemanagement (EinsMan), Redispatch-Maßnahmen und den Vorhaltekosten für die Netzreservekraftwerke. Nicht erwähnt sind die Kosten für den Netzausbau, Netzbooster (Großbatterien) und „besondere netztechnische Betriebsmittel“. Ebenso diejenigen der Anlagen zur Blindleistungsregelung zum Kostenpunkt von mehreren hundert Millionen Euro, die bisher von konventionellen Kraftwerken zum Nulltarif erledigt wurde.

Insgesamt schlagen für 2020 für die im Bericht erwähnten Kategorien 1,4 Milliarden Euro zu Buche, davon 761 Millionen „Entschädigung“ für die Anlagenbetreiber für nicht abgenommenen Strom. Dies ist Ergebnis des krassen Fehlmanagements des Bundeswirtschaftsministers, der die Genehmigung immer weiterer Anlagen zulässt, obwohl der Netzausbau nicht hinterherkommt. Die meisten Abschaltungen gab es in Schleswig-Holstein, wo ein ehemaliger „Energiewendeminister“ Habeck die Wünsche der Windlobby exakt umsetzte. Die verdient auch, wenn die Anlagen abgeschaltet werden müssen. Zahlen müssen alle Stromkunden.194,8 Millionen Euro mussten für die Vorhaltekosten der Netzreservekraftwerke berappt werden, also ihre Bereitschaftsstellung. Pro Megawatt Reserveleistung sind das etwa 26.500 Euro. Dem steht aber keine Produktion oder Wertschöpfung gegenüber, es ist die Bezahlung einer Energie-Feuerwehr, international wohl einmalig. Alle genannten Kategorien gab es in der alten Energiewelt nicht. Sie sind heute notwendig, weil riesige Ökostrommengen am Bedarf vorbei produziert werden und die Netzbetreiber öfter und stärker eingreifen müssen, um die stabile Netzfrequenz von 50 Hertz zu erhalten. Aus einem früher planmäßigen Netzbetrieb ist ein operativer, noch beherrschbarer, aber eben sehr teurer geworden.

Ursache dieser Entwicklung ist das von der EE-Lobby erfolgreich gesetzte Narrativ, dem Klimawandel sei nur durch exzessiven Ausbau volatiler Stromeinspeiser zu begegnen. Treu längsdenkende Politiker und Medien arbeiten in diesem Sinne ohne Rücksicht auf die Stromkunden. Die über die EEG-Umlage gewälzte Geldmenge von derzeit 24,6 Milliarden Euro (2020, den Börsenwert des Stroms bereits gegengerechnet) würde ausreichen, den Schweizern zwei Gotthard-Basistunnel zu schenken. Jährlich.Diesem aus dem Ruder laufenden Posten (2021: 8,6 Cent pro Kilowattstunde – netto) konnte nur noch durch einen Staatseingriff begegnet werden. Zunächst erfolgte die Deckelung auf 6,5 Ct/kWh und für 2022 auf 6,0. Nach den Vorstellungen der auslaufenden Regierungskoalition, deren Beschlüsse ohnehin bald nur noch Makulatur sein werden, soll die Umlage in homöopathischen Dosen schrittweise weiter auf unter 5 Cent abgesenkt werden. Der Fehlbetrag wird mit anderem Bürgergeld, nämlich Steuergeld, aufgefüllt. Ob die Quelle dann eher eine Reichensteuer für den Mittelstand, ein Klima-Soli oder eine erhöhte Mehrwertsteuer sein wird, ist noch offen. Ohne eine Anhebung der Steuern wird es nicht gehen, auch wenn die jährlich steigende CO2-Steuer aus dem Brennstoffemissionshandelsgesetz (BEHG) für mehr Einnahmen sorgen wird.

Ursache für die kaum beherrschbare Kostenprogression ist der Ansatz, ein Energiesystem auf Basis von Zufallsenergie installieren zu wollen. Wenn es das Thema Versorgungsicherheit überhaupt in die Diskussion schafft, lautet die Antwort regelmäßig, man müsse halt mehr regenerative Erzeuger zubauen, also mehr vom selben und mehr von für die Versorgung untauglichen Technologien.

Wie unberechenbar der Wettergott ist, zeigen die Produktionszahlen des Wind- und Sonnenstroms in den Monaten Januar und Februar 2021 im Vergleich zu den Vorjahresmonaten:

Am 20. April um 11 Uhr speisten alle Windkraftanlagen in Deutschland ganze 430 Megawatt Strom ins Netz. Das sind 0,7 Prozent der installierten Leistung. Das hindert eine regierende Physikerin (!) nicht daran, von der Windenergie als der „Säule“ der Energieversorgung zu sprechen.

Auf diese hin und wieder arbeitsscheuen „Erneuerbaren“ haben die Energiewender eine Antwort: Es gäbe auch Zeiten der Überproduktion und dann müsse man eben speichern. Fragt man nach den Speichern, zeigt der grüne Finger heute nur noch in Richtung Wasserstoff. Immerhin hat sich die Erkenntnis durchgesetzt, dass weder Pumpspeicherwerke noch Großbatterien das Problem auch nur annähernd lösen könnten.

Bis zu 9 Milliarden Euro will sich die Bundesregierung die Wasserstoffstrategie kosten lassen. Dabei soll bis 2030 eine Elektrolyse-Leistung von 5 Gigawatt auf der Basis von Ökostrom entstehen. Wollte man diese elektrische Leistung über Windkraft bereitstellen und setzt großzügig 3.000 Volllaststunden im Jahr an, bräuchte man dazu knapp 3.000 große Anlagen der 5-Megawatt-Klasse. Diese würden dann ausschließlich für die Stromspeicherung arbeiten und keinen aktuellen Bedarf decken, also Strom aus Kohle- oder Kernkraft nicht direkt ersetzen. Über 24 Stunden ließe sich so eine Strommenge von 120 Gigawattstunden (GWh) erzeugen, die in die Elektrolyse geht. Die Rückverstromung an einem anderen Tag unterliegt der Wirkungsgradkette Power-to-Gas-to-Power von höchstens 25 Prozent. Es könnten dann also 30 GWh ins Netz gespeist werden.

Der Tagesbedarf Deutschlands beträgt etwa 1.600 GWh und die eben überschlägig geführte Rechnung bezieht sich auf das Jahr 2030. Wie das Problem absehbarer Unterdeckung im Netz ab 2023 gelöst werden soll, ist unklar. Die Kosten für die Netzstabilisierung werden weiter steigen. Wir leisten uns zwei Systeme für eine Versorgungsaufgabe, auch dies ist in der Welt einmalig.

Vielleicht ist ein stabiles Netz aber auch rückwärtsgewandtes Denken. Allen sollte klar sein, dass bei einem „engagierten Klimaschutz“ kein Stein auf dem anderen bleiben wird. Der Spruch des Bundesverfassungsgerichts zum angeblich unzureichenden Klimaschutzgesetz wird dessen Verschärfung nach sich ziehen. Bemerkenswert, welchen Wert das Gericht den Freiheitsrechten ab 2030 zugesteht, mit den aktuellen Einschränkungen der Freiheitsrechte aber offenbar kein Problem hat. Vielleicht bleiben die Freiheitsrechte gleich reduziert, damit sie ab 2030 nicht erst eingeschränkt werden müssen.

Da man weder die Gebäudedämmung schnell erzwingen, noch den Verkehrssektor zügig dekarbonisieren kann, bleibt wie bisher die angeordnete Stilllegung von Kohle-, vielleicht sogar von Gaskraftwerken der einfachste Weg. Und eine künftige Grün-irgendwie-bunte-Koalition wird nicht zimperlich sein.

Der praktische Effekt der deutschen CO2-Minderung wird im globalen Maßstab ohne Wirkung bleiben. Dies ist den handelnden Personen durchaus bewusst. Professor Mojib Latif als einer der medial führenden Klimawissenschaftler des Landes sagte am 30. Juli 2018 im rbb-Inforadio:

„Natürlich kann Deutschland das Klima nicht retten, aber wir müssen natürlich Vorbild sein.“

Eine breite gesellschaftliche Diskussion darüber, was uns diese Vorbildrolle, der übrigens keiner folgt, eigentlich wert ist, wäre nötig. Sie wird nicht stattfinden, weil eine einflussreiche Schicht enormes Geld am deutschnationalen Weg der Energiewende verdient. Die uns schon länger Regierenden, erst recht die uns in Kürze Regierenden, werden der Spur des Geldes folgen. Dagegen werden die Kosten der Deutschen Einheit Peanuts sein.

Der Beitrag erschien zuerst bei TE hier




NASA und NOAA „PASSEN“ Temperaturdaten an: Die Rohdaten zeigen, dass die USA sich ggü. den 30er Jahren abgekühlt haben

Das (im Original GIF animierte) Diagramm zeigt klar die historischen US Klimatologie Netzwerk -Stationen  mit Rohdaten und danach mit offiziellen Anpassungen durch NASA und NOAA .

Hier sehen Sie die offiziell „adjusted“  maximalen Temperaturdaten über die Jahre 1920  – 2020, die einen Erwärmungstrend zeigen.

Und hier sind es die tatsächlichen „gemessenen“ Daten, die einen unverkennbaren Abkühlungstrend aufzeigen.

Unten sehen Sie eine vergrößerte Ansicht der US-Thermometerdaten, bevor die NASA / NOAA ihre schmuddeligen „adjustments“ vornahm.

Durchschnittliches Temperaturmaximum 1901 – 2019 ,  Rote Linie gleitendes 5 Jahres Mittel

Die Grafik zeigt, dass die Temperaturen von 1920 bis 1960 tatsächlich wärmer waren als heute. Es war angenehm wärmer,  oft mit 2 bis 3 Grad Fahrenheit. (~ 1,5 bis 2 °C)

Der gleiche Trend ist in der vorstehenden Grafik zu erkennen, in der der Prozentsatz der Tage über 32,2 ° C (90 ° F) in den Jahren zwischen 1901 und 2019 erneut an allen Stationen des US-amerikanischen Netzwerks für historische Klimatologie angegeben ist (beachten Sie auch, dass die Grafik bis 2019 läuft und daher die Rekordkälte der letzten anderthalb Jahre ausschließt) Quelle: [Climate Science Special Report]

Die Daten zur Nationalen Klimabewertung stützen den Trend weiter und zeigen, dass die Sommer in den Vereinigten Staaten von 1910 bis 1960 viel heißer waren.

Darüber hinaus zeigen die jüngsten Beobachtungen [Observations] der Meeresoberflächentemperatur – selbst die von den Erwärmungsaktivisten kontrollierten – deutlich, dass sich die Projektionen katastrophaler Klimaentwicklungen als weit von der Realität entfernt erweisen:

Mehr zum Thema finden Sie HIER.

Wenn Sie sich noch nicht darauf eingelassen haben, dass Regierungen ihre Bevölkerung routinemäßig anlügen, sollten Ihnen die obigen Diagramme einen Einblick dazu bieten. Die globale Erwärmung ist kaum „global“, wenn die Vereinigten Staaten – das viertgrößte Land der Erde – sich abkühlen seit dem Ende von „the dust bowl“ [Katastrophenfilm von 2012, über die schlimmen Auswirkungen von Sandstürmen, durch Klimawandel und natürlich Menschen verursacht]. Und ich denke, es ist auch vernünftig anzunehmen, dass nicht nur die USA seit Mitte der 1930er Jahre einen Abkühlungstrend erleben. Der nordamerikanische Kontinent ist geografisch nicht einzigartig – und diese Beobachtungen stimmen gut mit der beobachteten Sonnenaktivität überein,  nachdem die zwischen 1930 und 1960 zunehmende Aktivität allmählich nachgelassen hat:

Sonnenzyklen und Sonnenflecken

Die Daten können leicht manipuliert werden und manipulierte Statistiken werden verwendet, um die Aussagen der Politik zu beweisen und Richtlinien zu erlassen. Und heute scheinen Regierungsbehörden – gespielt von den unsichtbaren Strippenziehern über ihnen – ein glänzendes und mächtiges neues Werkzeug gefunden zu haben, um ihr Angst- und Kontrollarsenal durchzusetzen: „den Klimanotfall “.

Ein letzter Hinweis zu diesem Thema:

Die durch „Feuerbrünste“ betroffene Landfläche war von 1910 bis 1960 viel höher als heute, was nicht verwunderlich ist, da Hitzewellen normalerweise mit Dürre verbunden sind, betont Tony Heller. Es besteht eine enge Korrelation zwischen Hitzewellen und Brandfläche, wie in der obigen Tabelle dargestellt, die die offiziellen Daten von Hitzewellen (rote Linie) mit denen der Verbrennungsfläche (blaue und grüne Linien) überlappt.

Die Klimaaktivisten möchten, dass Sie glauben, dass Waldbrände eine direkte Folge steigender Temperaturen sind, aber wie Tony Heller gezeigt hat: Die Temperaturen steigen nicht und die Brandflächen nehmen auch nicht zu.

Die tatsächlichen Daten zerstören die Einpeitschungen eines „Klimanotfalls“  und so hat die Biden-Regierung kürzlich die Branddaten vor 1983 gelöscht, mit der glanzlose Begründung, dass „es nicht offiziell war“ ( hier verlinkt ).

Total Wildland Fires and Acres (1983-2020)

Vor 1983 verfolgten die föderalen Waldbrandbehörden die offiziellen Waldbranddaten nicht unter Verwendung der aktuellen Meldeverfahren. Infolgedessen werden auf dieser Website keine offiziellen Daten von vor 1983 veröffentlicht.

Wenn man etwas tiefer gräbt,  wird einem der wahre Grund klar, warum sie die Daten vor 1983 gelöscht haben. Das Jahr 1983 registrierte die geringste Brandfläche. Ab 1983 konnten sie es so aussehen lassen, als würde die Brandfläche zunehmen.

In der Realität besteht keine Korrelation zwischen steigendem CO2 und der verbrannten Fläche. Die Brandfläche in den USA ist tatsächlich um 90 Prozent gesunken, als der CO2 Anteil noch auf vorindustriellem Niveau lag – aber die Behörde hat kürzlich auch dieses Dokument gelöscht:

Übersetzung des rot markierten Textteiles:

In den heutigem Gebieten der USA brannten in der vorindustriellen Zeit (1500 – 1800) durchschnittlich 145 Millionen Acres pro Jahr [~ 586.000 km², zum Vergleich Deutschland: 357,386 km²]. Heute werden jährlich nur 14 Millionen Acres  (Bundes- und Nicht-Bundesland) verbrannt

 

Fallen Sie nicht auf die täglichen Lügen herein, die von machtgierigen Politikern, willfährigen Wissenschaftlern und fremdfinanzierten Aktivisten verbreitet werden .

Die Beobachtungen zeigen, dass die KALTEN ZEITEN zurückkehren, dass die mittleren Breiten sich ABKÜHLEN,  im Einklang mit  der großen Konjunktion , der historisch geringen Sonnenaktivität , den  wolkenkeimbildenden kosmischen Strahlen und einem  meridionalen Jetstream-Fluss (neben anderen Einflüssen).

Sowohl NOAA als auch NASA scheinen sich jedoch einig zu sein – wenn Sie zwischen den Zeilen lesen. NOAA sagt, dass wir  Ende der 2020er Jahre ein  „ausgewachsenes“ Grand Solar Minimum erreichen  und die NASA sieht diesen bevorstehenden Sonnenzyklus  (25)  als “ das schwächste der letzten 200 Jahre “.

NASA veröffentlichte früher Artikel mit Überschriften wie:

Niedrige Temperaturen während des Maunder-Minimums

…. Von 1650 bis 1710 sanken die Temperaturen in weiten Teilen der nördlichen Hemisphäre, als die Sonne in eine ruhige Phase eintrat, die jetzt als Maunder-Minimum bezeichnet wird. Während dieser Zeit traten nur sehr wenige Sonnenflecken auf der Sonnenoberfläche auf, und die Gesamthelligkeit der Sonne nahm leicht ab. Bereits mitten in einer überdurchschnittlich kälteren Zeit, der kleinen Eiszeit, gerieten Europa und Nordamerika in einen Tiefkühlzustand: Alpengletscher erstreckten sich über Ackerland bis ins Tal; Meereis kroch südlich von der Arktis; und die berühmten Kanäle in den Niederlanden froren regelmäßig ein – ein Ereignis, das heute selten ist.

… Der Einfluss des Sonnenminimums ist in diesem Bild deutlich zu sehen, das den Temperaturunterschied zwischen 1680, einem Jahr im Zentrum des Maunder-Minimums, und 1780, einem Jahr normaler Sonnenaktivität. Tiefes Blau in Ost- und Mittel-Nordamerika sowie in Nord-Eurasien zeigt, wo der Temperaturabfall am größten war. Fast alle anderen Landflächen waren 1680 ebenfalls kühler, was durch die unterschiedlichen Blautöne angezeigt wird. Die wenigen Regionen, die 1680 wärmer zu sein scheinen, sind Alaska und der östliche Pazifik (links), der Nordatlantik südlich von Grönland (links von der Mitte) und nördlich von Island (oben in der Mitte).

Darüber hinaus können wir die Vielzahl neuer wissenschaftlicher Arbeiten nicht ignorieren, in denen die immensen Auswirkungen  des Beaufort Gyre  auf den Golfstrom und damit auf das Klima insgesamt dargelegt werden.

https://electroverse.net/u-s-has-been-cooling-since-the-1930s/

Übersetzt durch Andreas Demmig

Nachsatz:

Über „Manipulation“ berichteten wir auf Eike schon häufig. Nutzen Sie die Suchfunktion um die Beiträge zu finden.

 

 




Abkühlung oder Erwärmung – aber immer das gleiche Rezept dagegen

Leonard Nimoy (Spock) präsentierte diese Story in Videos wie diesem:

Während ich an der Universität von Wisconsin an meinem BS und MS mit meiner Masterarbeit zum Thema „Explosive Redevelopment In East Coast Cyclones“ arbeitete, gaben die Wissenschaftler der Verbrennung fossiler Brennstoffe und dem vom Menschen eingeführten Feinstaub die Schuld an der Abkühlung, der wie ein „menschlicher Vulkan“ wirkte und genau wie diese die Sonnenstrahlen reflektierten und Abkühlung bringen würde, was die natürlichen Kräfte verstärkte.

Die Lösung sah man in der Beseitigung der Schadstoffe und schon damals in der Suche nach Alternativen zu fossilen Brennstoffen. Der zweite Zielfokus während des arabischen Ölembargos von 1973 führte zu Engpässen und Preissteigerungen, aber erneuerbare Energien waren damals noch nicht reif für die Grundlast und, wie das Texas-Debakel zeigte, sind auch heute noch nicht zuverlässig für die Bereitstellung der Grundlast und werden zu steigenden Energiepreisen und lebensbedrohlichen Stromausfällen führen.

Dann änderte sich die Phase des Pazifiks

Aber nach der großen pazifischen Klimaverschiebung Ende der 1970er Jahre kam es zu einer Erwärmung, da stärkere, länger anhaltende El Ninos, die eine globale Erwärmung hervorrufen, plötzlich gegenüber den La Ninas bevorzugt wurden, deren Dominanz zuvor zu der Abkühlung geführt hatte.

Ab 1988 reifte in so Manchem der Gedanke, dass diese neue Phase die goldene Gelegenheit sein könnte, die Kontrolle über unsere Energiepolitik zu übernehmen und die Medienberichterstattung umzulenken.

Showtime

1988 orchestrierten die Demokraten eine Anhörung, die vom damaligen Senator Al Gore inszeniert wurde und bei der der Senator Tim Wirth (später Leiter der UN-Stiftung – siehe Chris Horners Red Hot Lies) den NASA-Wissenschaftler James Hansen vorstellte, der seinen Eiszeit-Hut gegen einen eintauschte, der für die von Menschen verursachte globale Erwärmung warb.

Die NYT berichtete:

Senator Timothy E. Wirth, der Demokrat aus Colorado, der heute die Anhörung leitete, sagte:

So wie ich es lese, sind die wissenschaftlichen Beweise zwingend: Das globale Klima verändert sich, während die Erdatmosphäre wärmer wird. Jetzt muss der Kongress damit beginnen, darüber nachzudenken, wie wir diesen Erwärmungstrend verlangsamen oder aufhalten können und wie wir mit den Veränderungen, die vielleicht schon unvermeidlich sind, umgehen können.“

New York Times 1988

Wie der inszenierte Link zeigt, hatte Tim noch andere Gründe, diesen Weg zu gehen:

„Wir müssen das Problem der globalen Erwärmung angehen. Selbst wenn die Theorie der globalen Erwärmung falsch ist, werden wir das Richtige tun, in Bezug auf die Wirtschafts- und Umweltpolitik.“

Timothy Wirth zitiert in Science Under Siege von Michael Fumento, 1993

Die Politiker und Medien begannen bei diesem Treffen ihren 30 Jahre andauernden Angriff auf fossile Brennstoffe und unsere Lebensweise. Genährt durch eine plötzliche Flut von Fördergeldern, sprangen viele Leute aus den verschiedensten Disziplinen als selbsternannte Klimatologen, Umweltwissenschaftler und Modellierer an Bord.

An beiden Enden des Warm- und Kaltzyklus war der Feind also derselbe – Menschen und fossile Brennstoffe.

[Hervorhebung vom Übersetzer]


Beachten Sie die Abflachung seit den späten 1990er Jahren. Ich vermute, wenn eine Abkühlung eintritt, weil sich die Ozeane in der zweiten Schwächephase der Sonne nacheinander abkühlen, werden die Führer und Medien einen Weg finden, die Leichtgläubigen davon zu überzeugen, dass es ihre eigene Schuld war.

Siehe hier eine von mehreren Studien zum Thema neues Grand Solar Minimum, das gerade begonnen haben könnte.

Link: http://icecap.us/index.php/go/new-and-cool/man_attribution_to_natural_change_but_always_the_same_remedy/

Übersetzt von Chris Frey EIKE