Ein Fehler der Physik: Vernachlässigung der Sonne

Lord Christopher Monckton of Brenchley

Hintergrund

Die WESTLICHEN NATIONEN haben sich selbst einen erheblichen Nachteil bei den Handelsbedingungen zugefügt, indem sie bei der Verringerung der Treibhausgas-Emissionen fast im Alleingang handelten. Der weitgehend totalitäre Osten baut seine Kohle-, Öl- und Gasinfrastruktur weiter stark aus, während der weitgehend demokratische Westen teure und unzuverlässige Wind- und Solarenergie installiert. So sind die Strompreise im Westen bereits sechs- bis achtmal so hoch wie im Osten, so dass unsere überteuerten Energiepreise unsere Unternehmen vertreiben. Es stellt sich die Frage, ob das Opfer des Westens wirklich notwendig ist.

Die Besorgnis über die globale Erwärmung ist in der Tat fehl am Platze. Einige Jahre lang haben verblendete Klimawissenschaftler eine gelehrte Arbeit eines internationalen Teams herausragender Forscher unterdrückt. Die Studie entlarvt einen schwerwiegenden Fehler bei der Berechnung der von uns verursachten Erwärmung. Das vorliegende wissenschaftliche Informationsblatt erläutert den Fehler und seine schwerwiegenden wirtschaftlichen Folgen für den Westen. Eine Kopie der Studie folgt im Anschluss an die Erklärung der STAG in verständlicher Sprache.

Die Forscher, die den Fehler entdeckt haben, haben unter den das offizielle Narrativ unterstützenden Wissenschaftlern sehr gelitten, da diese ihren peinlichen Fehler nur ungern zugeben. Die STAG ist der Ansicht, dass sie nicht deshalb schlecht behandelt wurden, weil sie im Unrecht sind, sondern weil sie Recht haben.

Ein Professor für Klimatologie und ehemaliger Direktor des US-Forschungsprogramms zum globalen Wandel wurde von seinem Dekan so lange schikaniert, bis er vorzeitig von seinem Lehrstuhl zurücktrat.

Ein deutscher Professor für Kontrolltheorie, einem von den Klimawissenschaftlern entlehnten und missverstandenen Bereich der Ingenieurphysik, wurde vom Präsidenten seiner Universität angewiesen, seinen Namen aus der Studie zu entfernen, obwohl der Präsident zugab, dass er keinen Fehler darin finden konnte. Der Professor wandte sich an seine Regionalregierung, deren Aufgabe es ist, die akademischen Freiheiten zu schützen. Ihm wurde gesagt, dass es in Deutschland keine Meinungsfreiheit mehr gibt.

Ein preisgekrönter Sonnenastrophysiker wurde aus seiner Institution gejagt, weil er in einer früheren Studie auf die Existenz des hier beschriebenen Fehlers hinwies. Außerdem wurde er in großen US-amerikanischen und europäischen Zeitungen und wissenschaftlichen Zeitschriften verleumdet.

Ein Mitglied einer britischen Universität wurde aufgrund einer erfundenen Anschuldigung von der Universität verwiesen, als ein Gutachter der Studie dem Vizekanzler seiner Universität mitteilte, dass er sie nicht widerlegen könne. Der Vizekanzler wies die umweltwissenschaftliche Fakultät an, alles fallen zu lassen und die Studie zu widerlegen. Als sie die Arbeit nicht widerlegen konnten, wurde der Autor der Universität verwiesen.

Das Peer-Review-Verfahren versagt. Mehrere Klimajournale haben sich geweigert, die Studie zu veröffentlichen, obwohl die Gutachter keinen wirklichen Fehler darin finden konnten. Eine Zeitschrift behielt den Artikel zweieinhalb Jahre lang und weigerte sich, Folgebriefe des Hauptautors zu beantworten, bevor sie ihn ablehnte und den Einspruch der Autoren ignorierte. Eine andere Zeitschrift, die jede Studie ablehnt, die das offizielle Narrativ in Frage stellt, weigerte sich, die Studie zur Begutachtung einzureichen. Eine dritte Zeitschrift lieferte zwei wissenschaftsfeindliche Rezensionen. Eine vierte Zeitschrift stellte mehrere formelhafte Fragen, die von den Autoren leicht zu beantworten waren.

Nach Einschätzung der STAG hat die Studie durchaus ihre Berechtigung. Wenn sie stichhaltig ist, sind Maßnahmen zur Eindämmung des Klimawandels unnötig.

Ein Fehler der Physik: Vernachlässigung der Sonne

Die beigefügte wissenschaftliche Studie zeigt, dass Klimawissenschaftler in den 1980er Jahren einen Fehler begingen, als sie Rückkopplungs-Rechnungen aus der Regelungstheorie der technischen Physik entlehnten, ohne sie zu verstehen. Obwohl die Sonne, der dominierende Einfluss auf das Klima, 90 % der globalen Temperatur direkt beeinflusst, haben sie es an einem entscheidenden Punkt ihrer Berechnungen zur globalen Erwärmung versäumt, die Tatsache zu berücksichtigen, dass die Sonne scheint. Dieser Fehler führte dazu, dass sie die globale Erwärmung um das 2- bis 3-fache zu hoch vorhersagten.

Im Jahr 1850 betrug die durchschnittliche Temperatur 287,5 Kelvin (15 °C), die Summe aus der Sonnenscheintemperatur von 259,6 Kelvin, die ohne Treibhausgase und vor dem Einsetzen von Rückkopplungen herrschen würde, 7,9 Grad natürlicher direkter Erwärmung durch vorindustrielle Gase und 20 Grad Rückkopplung. Die Sonnenscheintemperatur entsprach also 90 % der Temperatur im Jahr 1850:

2007 wurde Sir John Houghton, der erste wissenschaftliche Vorsitzende des IPCC gefragt, warum aus wenig mehr als einem Grad direkter Erwärmung durch die Verdopplung des CO₂-Gehalts in der Luft eine endgültige Erwärmung von vier Grad werden könnte. Er sagte, dass die zusätzlichen 3 Grad auf Rückkopplungen zurückzuführen sind, d. h. auf eine zusätzliche Erwärmung, die durch eine direkte Temperatur verursacht wird und proportional zu dieser ist. Der einzige Rückkopplungsprozess von Bedeutung ist die Wasserdampf-Rückkopplung. Wenn wir die Luft direkt erwärmen, kann sie mehr Wasserdampf transportieren, der selbst ein Treibhausgas ist, was eine zusätzliche Erwärmung bewirkt – eine Rückkopplung. Alle anderen Rückkopplungen heben sich im Großen und Ganzen gegenseitig auf.

Sir John multiplizierte die direkte Verdoppelung der Erwärmung um 1,2 Grad mit einem Systemverstärkungsfaktor, um die Rückkopplung zu berücksichtigen und die endgültige Erwärmung zu erhalten, nachdem sich das Klima auf eine neue Endtemperatur eingestellt hat. Im Jahr 1850 betrug der natürliche Treibhauseffekt 27,9 Grad: 7,9 Grad direkte Erwärmung durch natürliche Treibhausgase plus 20 Grad Rückkopplungseffekt. Sein Systemverstärkungsfaktor betrug also 27,9 / 7,9 oder 3,5, so dass seine endgültige Erwärmung 1,2 x 3,5 oder 4,2 Grad betrug:

Sir John hatte nicht erkannt, dass Rückkopplungen nicht nur auf die direkte Erwärmung durch Treibhausgase reagieren, sondern auch auf die Sonnenscheintemperatur von 259,6 Kelvin. Der Systemverstärkungsfaktor für 1850 war nicht 27,9 / 7,9 oder 3,5. Er betrug (259,6 + 27,9) / (259,6 + 7,9), also nur 1,075. Die endgültige Erwärmung durch verdoppeltes CO₂ würde dann nicht 1,2 x 3,5 oder 4 Grad betragen, sondern 1,2 x 1,075 oder nur 1,3 Grad.

Elemente der Kontrolltheorie, die Königsdisziplin der Rückkopplungen

Die Rückkopplungsanalyse ist das Herzstück aller offiziellen Verfahren zur Vorhersage der globalen Erwärmung. Die Rückkopplungsrechnung ist für alle dynamischen Systeme (Systeme, die ihren Zustand im Laufe der Zeit ändern) gleich, von Uhren, Raketen und elektronischen Verstärkern bis hin zum Klima.

Temperatur-Rückkopplungen funktionieren wie in einem elektronischen Schaltkreis, aber die Rückkopplungssignale im Klima sind Temperaturen und nicht Spannungen.

Die Signale von Basis und Verstärkung bilden den Eingang (oben rechts). Das Signal folgt den Pfeilen unendlich oft durch die Schleife. Dann ist die Rückkopplungsantwort plus Eingang der Ausgang; der Ausgang mal Rückkopplungsfaktor ist die Rückkopplungsantwort; der Ausgang geteilt durch den Eingang ist der Systemverstärkungsfaktor; und 1 minus den Kehrwert des Systemverstärkungsfaktors ist der Rückkopplungsfaktor. Offensichtlich muss der Rückkopplungsfaktor auf das gesamte Eingangssignal reagieren. Rückkopplungen sind leblos. Sie können nicht wählen, auf welchen Teil der Eingangstemperatur sie reagieren sollen.

Geben wir einige Zahlen in die Methode unserer Klimawissenschaftler ein (Mitte), wobei wir die 259,6 Kelvin Sonnenscheintemperatur weglassen, und dann (unten) nach der korrekten Methode, wobei wir sie einbeziehen.

Der Fehler wird korrigiert, indem man die Sonnenscheintemperatur von 259,6 Kelvin und die direkte Erwärmung von 7,9 Grad durch natürliche Treibhausgase zu den 1,2 Grad direkter Erwärmung durch verdoppeltes CO₂ addiert, um ein wahres Eingangssignal von 268,7 Grad zu erhalten. Der wahre Rückkopplungsfaktor, der in der Methode der Klimawissenschaftler mit 0,7 angegeben wird, beträgt in Wirklichkeit nur 0,07, also ein Zehntel davon. Ihr Fehler ist groß.

Die wahre Rückkopplung beträgt 20,1 Grad, nur 0,1 Grad über den 20 Grad von 1850. Wenn, was wahrscheinlich ist, das Rückkopplungsregime so bleibt wie 1850, wird die Rückkopplungsreaktion nur sehr wenig zur globalen Erwärmung beitragen. Die Endtemperatur nach der CO₂-Verdoppelung beträgt 288,8 Kelvin, 1,3 Grad über den 267,5 Grad von 1850. Diese 1,3 Grad sind weniger als ein Drittel der 4,2 Grad, die Klimamodelle vorhersagen, und weniger als die Hälfte der besten Schätzung des IPCC von 3 Grad. Die Netto-Null-Emissionspolitik wird derzeit auf der Grundlage der besten Vorhersagen der Klimamodelle gemacht. Nach Korrektur des Fehlers werden diese extremen Vorhersagen jedoch so unwahrscheinlich, dass eine Abschwächung der globalen Erwärmung unnötig wird, wie einige weithin unbekannte Fakten bereits zeigen:

● Obwohl sich die Weltbevölkerung im letzten Jahrhundert vervierfacht hat, sind die jährlichen Todesfälle durch extreme Wetterbedingungen um 96 % zurückgegangen, so das U.S. Office for Foreign Disaster Assistance und das Centre for Research into the Epidemiology of Disasters.

● Mehrere Studien in The Lancet zeigen, dass der Kältetod in jeder Region zehnmal wahrscheinlicher ist als der Hitzetod, in Afrika sogar 40-mal wahrscheinlicher. Kälte ist der wahre Killer.

● Die Ernteerträge sind auf einem Rekordhoch. Hungersnöte sind jetzt selten. Durch CO₂-Düngung ist die Gesamtbiomasse der Bäume und Pflanzen in den letzten Jahrzehnten um 15 % gestiegen, denn CO₂ ist Pflanzennahrung.

Warum die Rückkopplungsanalyse nicht für Vorhersagen der globalen Erwärmung verwendet werden kann

Bei der korrigierten Berechnung wurde (nicht zu Unrecht) davon ausgegangen, dass sich das Rückkopplungssystem seit 1850 nicht verändert hat. Es könnte sich aber geändert haben. Diese Möglichkeit macht die Rückkopplungsanalyse für die Vorhersage der globalen Erwärmung wertlos. Um zu sehen warum, muss man sich von der vorhergesagten Spanne von 2 bis 5 Grad der endgültigen Erwärmung zurück arbeiten, um die implizite Spanne der korrigierten Rückkopplungsfaktoren zu finden:

Ein echter Rückkopplungsfaktor von 0,07 bis 0,08, mit einer Schwankungsbreite von nur 0,01, würde also eine endgültige Erwärmung von 2 bis 5 Grad ergeben. Da jedoch Klimamessungen unsicher sind, können Rückkopplungsfaktoren weder direkt gemessen noch durch theoretische Verfahren mit einer Genauigkeit von nur 0,01 abgeleitet werden. Zum Vergleich: Die impliziten Rückkopplungsfaktoren des IPCC (2021) sind mit 0,40 bis 0,76 bis zu achtmal zu groß mit einem 36-mal zu großen Bereich.

Nach der Korrektur ist der Rückkopplungsfaktor so klein und sein Bereich so eng, dass alle offiziellen Vorhersagen, einschließlich derjenigen in den sechs Sachstandsberichten des IPCC, nicht besser als Vermutungen sind.

Der fehlende „Hot Spot“: ein Beweis für den Irrtum in der Realität

Klimawissenschaftler glauben, dass die Wasserdampf-Rückkopplung groß ist, weil ihre Modelle vorhersagen, dass bei einer direkten Erwärmung der Luft der Wasserdampfgehalt in einer Höhe von 10 km in den Tropen ansteigt und die obere Luft doppelt so schnell erwärmt wie die tropische Oberfläche. In Wirklichkeit ist der Wasserdampfgehalt in der oberen Luft seit einem Jahrhundert rückläufig. Daher zeigen Temperaturmessungen, dass der tropische „Hot Spot“ in der oberen Luft nicht vorhanden ist, was bestätigt, dass die Rückkopplung in der Tat gering sein muss:

Wie man die globale Erwärmung ohne Rückkopplungsanalyse vorhersagen kann

Mehrere Verfahren zur Vorhersage der globalen Erwärmung unabhängig von der Analyse von Rückkopplungen werden weniger beachtet, als sie sollten, da sie zusammen genommen eine viel geringere Erwärmung zeigen als die fehlerhafte Methode der Klimawissenschaftler, die von einer fehlerhaften Analyse von Rückkopplungen abhängig ist:

Verfahren 1: Die offiziell vorhergesagte endgültige Erwärmung durch verdoppeltes CO₂ im Vergleich zu 1850 – das Standardmaß – beträgt 2 bis 5 Grad, aber nach Einbeziehung der Sonnenscheintemperatur beträgt der korrigierte Wert nur 1,3 Grad, von denen 0,4 Grad bereits eingetreten sind, so dass weniger als 1 Grad weitere Erwärmung bis 2100 übrig bleibt. Das ist einfach zu wenig und wird nur Gutes bewirken.

Verfahren 2: 1990 sagte der IPCC eine globale Erwärmung von 0,2 bis 0,5 Grad/Dekade von 1990-2090 voraus (ein Zehntel der von ihm vorhergesagten endgültigen Erwärmung von 2 bis 5 Grad bei verdoppeltem CO₂). Seit 1990 wurden jedoch nur 0,14 Grad pro Dekade beobachtet. Die endgültige Erwärmung durch verdoppeltes CO₂ im Vergleich zu 1850 (die in etwa der vorhergesagten endgültigen Erwärmung im 21. Jahrhundert entspricht) könnte also nur 1,3 Grad betragen, was die korrigierte Schätzung von 1,3 Grad auf der Grundlage des Rückkopplungsregimes von 1850 bestätigt.

Verfahren 3: Mit dem statistischen Monte-Carlo-Verfahren können Zufallswerte innerhalb der Grenzen der fünf Parameter der Energiebudget-Gleichung eingegeben werden. Eine Milliarde Versuche zeigen, dass die Erwärmung im 21. Jahrhundert mit 95-prozentiger Sicherheit 1,3 Grad betragen wird, mit einer Bandbreite von 0,9 bis 2 Grad.

Ein Fehler der Physik: Schlussfolgerung

Der Westen wurde durch einen schwerwiegenden physikalischen Irrtum in die Irre geführt, den die Klimawissenschaftler, die vergessen haben, dass die Sonne scheint, nur widerwillig korrigieren wollen. Diejenigen, die den Irrtum aufgedeckt haben, waren Schikanen ausgesetzt, weil sie in Frage gestellt haben, was zu einer unanfechtbaren Orthodoxie geworden ist. Sie werden hier nicht namentlich genannt: Ihr Ergebnis spricht für sich selbst. In der Zwischenzeit profitieren die Länder des größtenteils totalitären Ostens von ihrem kontinuierlichen – und bzgl. des Klimas unbedenklichen – Ausbau der Kohleverstromung, so dass ihre Strompreise weniger als ein Sechstel der unseren betragen, die durch die absurd hohen Kosten für das Erreichen von Net Zero aufgebläht sind, auf die wir nun eingehen werden. Auch die Rolle der Einflussnehmer bestimmter Nationen bei der Förderung des offiziellen Klimanarrativs im Westen und bei der Schädigung des Rufs derjenigen Forscher, die es gewagt haben, dieses Narrativ in Frage zu stellen, sollte nicht unterschätzt werden.

Ein wirtschaftlicher Irrtum: Die Kosten-Nicht-Wirksamkeit von Netto-Null

Der gravierende physikalische Irrtum der Klimawissenschaftler ist kostspielig. Die Billionen, die unnötigerweise für den Versuch zur Eindämmung der globalen Erwärmung ausgegeben worden waren, haben an der Steigerungsrate unseres Einflusses auf das Klima überhaupt nichts geändert. Sie steigt seit einem Dritteljahrhundert mit unverminderter Geschwindigkeit geradlinig an:

Das Pariser Klimaabkommen zielt selektiv auf den Westen ab. Die großen Nationen des Ostens – Russland und China, Indien und Pakistan – bauen weiterhin billige, effiziente und heutzutage auch saubere Kohlekraftwerke. Doch aufgrund eines physikalischen Fehlers verlagern die westlichen Demokratien ihre Produktionsbetriebe in den weitgehend totalitären Osten, wo die Strompreise weniger als ein Sechstel der unseren betragen. So entfallen etwa 70 % des Primär-Energiezuwachses auf Länder, die vom Pariser Abkommen ausgenommen sind:

Falls die gesamte Welt ihre Volkswirtschaften zerstören und dadurch bis zum Zieljahr 2050 eine Netto-Null-Emission von Treibhausgasen erreichen würde, wie viel globale Erwärmung würde bis dahin verhindert werden? Unser Einfluss auf das Klima nimmt jedes Jahr um 1/30 einer Einheit zu. In den 26 Jahren bis 2049 würde der globale Netto-Nullpunkt also etwa die Hälfte der nächsten 26/30tel einer Einheit verringern.

Rechnet man die Einheiten in Temperaturänderungen um, indem man das Verhältnis der offiziell vorhergesagten Erwärmung im 21. Jahrhundert durch verdoppeltes CO₂ zum CO₂-Antrieb berücksichtigt. Nur ein Fünftel eines Grades Erwärmung würde verhindert – oder weniger als ein Zehntel eines Grades nach Korrektur der anhaltenden Überprognosen in den Klimamodellen. Net Zero im Vereinigten Königreich allein würde die globale Erwärmung um nur ein Tausendstel Grad reduzieren:

Was ist mit den Kosten? Lassen Sie uns die Rückseite eines zweiten Umschlags verwenden. Die britische Stromnetzbehörde schätzt die Kosten für die Vorbereitung des Netzes auf Net Zero auf 3,7 Billionen Dollar. Auf das Netz entfallen aber nur 23,5 % der britischen Gesamtemissionen. Pro rata würden sich die Kosten für die Vermeidung dieses einen Tausendstel Grades in Großbritannien also auf 15,6 Billionen Dollar belaufen. Großbritannien emittiert jedoch nur 0,9 % der weltweiten Emissionen, so dass eine globale Nullrunde mehr als 1,5 Billionen Dollar kosten würde:

So würde jede Milliarde Dollar, die weltweit für den Versuch ausgegeben wird, den Netto-Nullpunkt zu erreichen, weniger als ein Zehnmillionstel Grad globaler Erwärmung bis 2050 verhindern – das schlechteste Kosten-Nutzen-Verhältnis in der Geschichte, um ein Problem anzugehen, das laut der folgenden Studie ohnehin keines ist.

Übersetzt von Christian Freuer für das EIKE

Anmerkung: Diese Studie folgt im Original. Sie enthält viel Theorie und ist nur für Fachleute interessant. Daher wird hier auf die Übersetzung derselben verzichtet. Der oben übersetzte Text nebst der vollständigen Studie können in diesem PDF eingesehen werden:

[url=“https://eike-klima-energie.eu/wp-content/uploads/2023/11/stag-clima.pdf„]




Klima-Enron droht der Absturz

Duggan Flanakin

Die moderne amerikanische Version von „der Umwelt-Kaiser hat keine Kleider“ war bis jetzt der Aufstieg und Fall von Enron. Wie der ehemalige Redenschreiber von Ken Lay Robert Bradley, Jr., sagt: „Die Ursache für den finanziellen Bankrott von Enron war im Grunde philosophisch…. Die Führungskräfte von Enron waren mit Sicherheit an einem massiven philosophischen Betrug beteiligt – ein Versuch, die Realität selbst zu betrügen.“

Jahrelang wurde Enron als eines der zukunftsorientiertesten Unternehmen gepriesen, und Lay, der Gründer und CEO, war ein gefragter Mann. Während seiner 13-jährigen Amtszeit, die 2021 mit einem Paukenschlag endete, kassierte Lay über 220 Millionen Dollar in bar und in Unternehmensaktien, und nur wenige Monate vor dem (damals) „größten Konkurs Amerikas“ hielt Lay 2001 fünf Vorträge auf dem Weltwirtschaftsforum in Davos.

Wie Bradley, heute CEO des Institute for Economic Research berichtet, war Lay der Verkäufer, der für ein Geschäftsmodell warb, das von Jeffrey Skilling entwickelt worden war, den Lay als Chief Operating Officer eingestellt hatte. In Skillings „Mark-to-Market“-Buchhaltung wurden die erwarteten künftigen Gewinne aus jedem Geschäft durch Schätzung ihres gegenwärtigen Wertes und nicht der historischen Kosten berücksichtigt. Daher, so argumentierte Skilling, brauchte Enron eigentlich keine „Vermögenswerte“.

Es brauchte nur Verbindungen.

Und das war die besondere Fähigkeit von Lay. Seine Idee war es, eine Geschäftsphilosophie der „ständigen Revolution“ zu verfolgen, die Bradley als „ständige Suche nach dem Früher-Vogel-Vorteil“ bezeichnete. Zu diesem Zweck war er für alle alles und gewann die Gunst von Republikanern, Demokraten, Umweltschützern, Minderheiten und Wirtschaftsführern. Seine „Illusionsbildung“ schuf einen so starken Nebelschleier, dass fast alle überrascht waren, als die Blase platzte.

Heute erinnern der Zusammenbruch von FTX und die jüngste strafrechtliche Verurteilung des Gründers und CEO Sam Bankman-Fried (dem eine lebenslange Haftstrafe droht) an Enron, Skilling und Lay. Doch trotz des Ausmaßes des SBF-Betrugs verblasst dieser im Vergleich zu dem anhaltenden Betrug, der vor allem an Amerika und seinen westlichen Verbündeten im Namen des „Klimawandels“ verübt wird.

Ähnlich wie bei FTX, aber anders als bei Enron, gibt es viele Warnzeichen dafür, dass die „Grüne Revolution“ bald zu Fall kommen wird und ihre lautesten Befürworter zur Rechenschaft gezogen werden. Das Wichtigste, was die Fata Morgana heute über Wasser hält, sind die massiven Egos und ihre Investitionen in Torheiten, die sie möglicherweise mit dem Schiff untergehen lassen.

Während die „Grüne Revolution“ schon seit Jahrzehnten im Gange ist, ist es die Biden-Regierung, die Vorschriften auferlegt, beliebte Energiequellen und Transportmöglichkeiten angreift und einen Krieg gegen die traditionelle industrielle Entwicklung führt. Die Europäer und Bundesstaaten wie Kalifornien hatten bereits zuvor ihre eigenen Vorschriften mit angeblich „harten“ Fristen für den Ausstieg aus der Nutzung von Erdöl, Erdgas, Kohle und allen Werkzeugen und Fahrzeugen, die diese Energieträger verwenden, erlassen.

Der grüne Krieg gegen fossile Brennstoffe, wie er in der „Net Zero“-Kampagne zum Ausdruck kommt, ist vielleicht das größte Beispiel für philosophischen Betrug in der Geschichte.

Den „unmöglichen Traum“ zu träumen und ihn in die Tat umzusetzen würde bedeuten, dass schätzungsweise 6000 nützliche Produkte geopfert werden müssten, die auf Nebenprodukten aus Erdölraffinerien beruhen – Produkte, die von Asphalt für Autobahnen bis hin zu Düngemitteln, Kosmetika, synthetischem Kautschuk, Medikamenten und medizinischen Geräten, Reinigungsmitteln, Kunststoffen und so vielen anderen reichen. Die 3 Milliarden Menschen, die ohne die Vorteile fossiler Brennstoffe leben, sind auch die ärmsten, kränksten und verletzlichsten Menschen auf dem Planeten.

In der „Netto-Null“-Welt zeigen sich bereits Risse, denn die Länder rücken von ihren Verpflichtungen ab, die sie noch vor kurzem propagiert haben, während sie wie Pfaue in der Paarungszeit herum stolzierten. Im März einigte sich die Europäische Union mit Deutschland darauf, offiziell von ihrem vollständigen Verbot von Verbrennungsmotoren im Jahr 2035 abzurücken.

Dennoch haben 30 Länder die Erklärung von Glasgow unterzeichnet, nach der alle bis 2040 verkauften Fahrzeuge keine Kohlendioxid-Emissionen mehr freisetzen sollen, und 21 weitere Länder haben Pläne ausgearbeitet, den Verkauf neuer Verbrennungsmotoren schon vor 2040 zu verbieten. Dutzende von Großstädten und Bundesstaaten, vor allem Kalifornien und die kalifornischen Klonstaaten beabsichtigen, bis 2035 keine neuen Verbrennungsmotoren mehr zuzulassen.

Ihrem utopischen Traum stehen mehrere Probleme im Weg. Sogar die Befürworter von Elektroautos räumen inzwischen ein, dass die „EV-Lösung“ „ernsthafte Probleme“ überwinden muss – wie den Einsatz von Kinderarbeit beim Lithiumabbau, die völlig unzureichende Ladeinfrastruktur für Elektroautos und ein unvorbereitetes Stromnetz. Das größte Hindernis ist jedoch, dass die Mehrheit der Menschen auf der Erde sich dagegen sträubt, dass ihnen E-Fahrzeuge – oder Wärmepumpen oder Elektroherde usw. – aufgedrängt werden.

Elektroautos mögen für Kurzstrecken in der Stadt geeignet sein, aber nicht für Baumaschinen, Flugzeuge oder sogar Stadtbusse, wie die jüngste schreckliche Szene in San Francisco zeigte, als einem von Google betriebenen Elektrobus der Strom ausging und dieser dann rückwärts einen Abhang hinunterrutschte und neun Fahrzeuge rammte. Die heutigen Elektroautos sind für Berg- und Präriebewohner oder andere Personen, die lange Fahrten unternehmen (vor allem mit Kindern), völlig unpraktisch.

Wie Ken Lay bei Enron stützt sich die Grüne Revolution in hohem Maße auf staatliche Subventionen und eine Geschäftsphilosophie, die darauf abzielt, jeden zu einem Paria zu machen, der es wagt, sich dem grandiosen – aber fatal fehlerhaften – Plan zu widersetzen.

Während der Obama-Regierung ging Solyndra trotz eines staatlich garantierten Kredits in Höhe von 535 Millionen Dollar unter, von denen nichts zurückgezahlt wurde. Forbes zitiert OpenTheBooks.com und stellt fest, dass die Steuerzahler für 400 Millionen Dollar an Abound Solar, 280 Millionen Dollar an CaliSolar, 193 Millionen Dollar an Fisker Automotive (weitere 336 Millionen Dollar wurden gestrichen) und 132 Millionen Dollar an A123 Systems (ein gescheiterter Batteriehersteller) aufkommen mussten.

Das 2,3-Billionen-Dollar-„Job“-Paket der Biden-Regierung war voll von weiteren Subventionen für Technologien, die nach eigenem Bekunden nicht nachhaltig sind. Doch trotz all des kostenlosen Geldes ziehen sich Ford sowie General Motors und viele andere Autohersteller von ihren milliardenschweren Investitionen in neue E-Fahrzeugfabriken zurück, da sich der Absatz neuer E-Fahrzeuge trotz erhöhter Rabatte verlangsamt hat.

Ford rechnete im März mit einem Verlust von 3 Milliarden Dollar bei Elektrofahrzeugen im Jahr 2023, was die Gewinne von bis zu 14 Milliarden Dollar in anderen Geschäftsbereichen ausgleichen würde. Ford räumte auch Verluste von 900 Millionen Dollar im Jahr 2021 und 2,1 Milliarden Dollar im Jahr 2022 in seiner EV-Sparte ein. Ford und GM glauben, dass sich ihr Schicksal bis 2025 wenden wird, aber diese rosigen Szenarien scheinen gänzlich davon abzuhängen, dass Biden (oder ein noch „grünerer“ Demokrat) im nächsten November in das Weiße Haus einzieht.

Selbst bei einem Sieg der Grünen im Jahr 2024 wird der Traum vom Elektroauto an der Realität scheitern. China hat sich still und leise auf den Weg gemacht, den globalen Markt für Elektrofahrzeuge zu dominieren – vor allem, weil es den Markt für Lithiumbatterien kontrolliert. Die Financial Times schrieb im September, dass China auf dem Markt für Elektroautos so weit voraus ist, dass seine Konkurrenten ins Hintertreffen geraten sind.

Bidens Vertrauen auf enorme Subventionen zur Unterstützung der „Grünen Revolution“ hat den USA eine rasante Inflation beschert, die schneller Kaufkraft entzieht, als die Subventionen und mafiösen „Anreize“ (Sie kaufen, was wir wollen, sonst!) erhöht werden können.

Lay starb kurz nach seinem Prozess an einem Herzinfarkt und hinterließ ein „schändliches Erbe“, das durch „Missmanagement und Unehrlichkeit“ gekennzeichnet war und Politico dazu veranlasste, ihn als drittschlechtesten amerikanischen CEO aller Zeiten einzustufen.

Amerikas tattriger Präsident Biden, gegen den jetzt ein Amtsenthebungsverfahren wegen anderer angeblicher Fehler läuft, wird vielleicht nicht mehr erleben, dass sein Name so befleckt wird wie einst der von Lay. Aber glaubt wirklich jemand, dass Biden hier die Fäden in der Hand hält?

Wer wird dann die Schuld bekommen, wenn Amerikas erzwungener Marsch zur EV-Unterwerfung unter Xis China ein Ende der amerikanischen Hegemonie auf der Weltbühne bedeutet?

This article originally appeared at Real Clear Energy

Link: https://www.cfact.org/2023/11/18/climate-enron-may-be-heading-for-a-crash/

Übersetzt von Christian Freuer für das EIKE

 




GELD VERBRENNEN, NICHT BENZIN: Bundes- und staatliche Subventionen für E-Fahrzeuge kosten 50.000 Dollar pro Auto über einen Zeitraum von 10 Jahren

Zoey Sky

Regierungen auf der ganzen Welt haben verschiedene steuerliche Anreize für Käufer und Hersteller geschaffen, um Elektrofahrzeuge auf den Markt zu bringen. Sie haben auch die Entwicklung der für das Aufladen von Elektroautos erforderlichen Infrastruktur finanziert.

Einer Denkfabrik zufolge lohnt es sich jedoch möglicherweise nicht, in Elektroautos zu investieren, da sie auf lange Sicht mehr Geld kosten könnten. Die Texas Public Policy Foundation, eine konservative Denkfabrik, hat eine Studie über Elektroautos durchgeführt, um die wahren Kosten von Elektroautos für den durchschnittlichen amerikanischen Steuerzahler zu ermitteln.

Auf der Grundlage der Studie schätzten die Autoren, dass ein durchschnittliches Elektroauto über einen Zeitraum von 10 Jahren versteckte Kosten von mindestens 48.698 Dollar verursacht. Jason Isaac, einer der Autoren, erläuterte, dass die Besitzer von Elektroautos von gesetzlichen Gutschriften, Subventionen und sozialisierten Infrastrukturkosten profitieren, die sich auf mindestens 50.000 Dollar pro Elektroauto belaufen. Leider werden diese Kosten von den Besitzern von Benzinautos, den Steuerzahlern und den Gebührenzahlern der Energieversorger getragen, die alle einen hohen Preis für das Elektroauto eines anderen zahlen.

Die Autoren fanden heraus, dass die durchschnittlichen, von den amerikanischen Steuerzahlern zu tragenden Kosten für die Subventionierung von E-Fahrzeugen bei 8.984 Dollar pro Auto liegen, was auf eine Kombination aus der bekannten Steuergutschrift von 7.500 Dollar auf Bundesebene und staatlichen Subventionen zurückzuführen ist.

Der Bericht zeigt auch, dass die US-Staaten im Jahr 2021 mehr als 646 Millionen Dollar an Steuergeldern an Käufer von E-Fahrzeugen ausbezahlt haben. Dividiert durch die 435.320 Elektroautos, die 2021 verkauft wurden, erhielt der durchschnittliche Käufer eines Elektroautos staatliche Gutschriften in Höhe von 1484 Dollar.

Außerdem zeigt der Bericht, dass die zur Förderung von Elektroautos in Amerika benötigte Infrastruktur nicht direkt von den Autobesitzern bezahlt wird. Diese Ausgaben werden als „sozialisierte Infrastrukturkosten“ bezeichnet.

Weiter schrieben die Autoren, dass sowohl die privaten als auch die öffentlichen Ladestationen für Elektroautos „eine erhebliche Belastung für das Stromnetz darstellen“, was über einen Zeitraum von 10 Jahren zu durchschnittlichen sozialisierten Kosten von 11.833 US-Dollar pro Elektroauto führt – Kosten, die von den Gebührenzahlern und Steuerzahlern getragen werden. (Zum Thema: Elektrofahrzeuge in Florida fingen Feuer, nachdem sie mit dem Salzwasser des Hurrikans Idalia in Berührung gekommen waren).

Sie berichteten auch, dass die Benzin-Infrastruktur für andere Produkte und die Gesellschaft als Ganzes genutzt wird, während die Kosten für das Aufladen von Elektrofahrzeugen derzeit nur den Besitzern von Elektrofahrzeugen zugute kommen.

Darüber hinaus stellten die Autoren fest, dass die zusätzliche Belastung des Stromnetzes durch das Aufladen von Elektroautos „Nachfragegebühren“ oder eine Prämie für einen höheren Energieverbrauch zu einer bestimmten Zeit nach sich ziehen würde.

Bislang werden diese Kosten von den meisten Energieversorgern auf die Besitzer von Elektroautos abgewälzt, indem sie keine Nachfragegebühren für private Ladegeräte erheben, obwohl die Ladegeräte zu bestimmten Zeiten so viel Strom verbrauchen wie mehrere Haushalte.

Besitzer von Benzinfahrzeugen schultern eine größere Last

Der Bericht zeigt auch, dass die größten Kosten häufig von den Käufern von Benzinfahrzeugen getragen werden. Die Autoren argumentierten, dass die Autohersteller die Kosten, die ihnen durch die Erfüllung der bundes- und landesweiten Vorschriften zur Herstellung von mehr Elektroautos als üblich entstehen, auf die Käufer von Benzinfahrzeugen abwälzen werden.

Das Papier zeigt, dass mindestens 16 [US-]Staaten „Null-Emissions-Fahrzeuge“ (ZEV) vorschreiben, wobei der Staat eine Anzahl oder einen Prozentsatz der verkauften Neufahrzeuge festlegt, die emissionsfrei sein müssen. Dem Papier zufolge beschränken sich die Kosten für die Erfüllung dieser Vorschriften nicht auf die Staaten, die sie auferlegen, sondern betreffen auch die gesamte Flotte jedes Autoherstellers, der versucht, sie zu erfüllen.

Darüber hinaus erlegen Bundesvorschriften den Autoherstellern ähnliche Verpflichtungen auf, die sie dazu veranlassen, mehr E-Fahrzeuge zu produzieren. Die Autoren erklären, dass die größte Quelle der finanziellen Unterstützung für Elektrofahrzeuge nicht aus direkten Subventionen stammt, sondern aus versteckten Kosten, die durch staatliche Vorschriften verursacht werden.

Diese Vorschriften gelten für die gesamte Fahrzeugflotte und ermöglichen den Handel mit Emissionsgutschriften, die jedoch an die Käufer von Benzin- und Dieselfahrzeugen weitergegeben werden.

Der Studie der Texas Public Policy Foundation zufolge beläuft sich der geschätzte Wert dieser Gutschriften auf rund 27.881 Dollar pro Fahrzeug.

Brent Bennett, ein weiterer Autor der Studie, erklärte, dass die „strengen Standards für den Kraftstoffverbrauch und die regulatorischen Manipulationen“ der Regierung Biden mehrere amerikanische Autohersteller in den Konkurs treiben und die Kosten für alle Benzinfahrzeuge um Tausende von Dollar erhöhen.

„Eine Rücknahme dieser Subventionen und belastenden Vorschriften würde den Verbrauchern Geld sparen“, riet Bennett.

In seinem Bericht für das dritte Quartal 2023 gab Ford an, dass es für jedes verkaufte Elektroauto im Quartal schätzungsweise 36.000 Dollar verlor.

Erfahren Sie mehr über Elektroautos und ihre versteckten Kosten auf RoboCars.news.

Sehen Sie sich dieses Video an, in dem eine norwegische Reederei Elektro-, Hybrid- und Wasserstoffautos wegen erheblicher Sicherheitsrisiken von ihren Fähren verbannt.

Link: https://climate.news/2023-11-15-research-subsidies-electric-cars-50k-10-years.html

Übersetzt von Christian Freuer für das EIKE

 




Die Daten des Deutschen Wetterdienstes widerlegen den CO₂-Treibhauseffekt als alleinigen Temperaturtreiber

Die Klimaerwärmung begann 1987/88 mit einem Temperatursprung

Der Temperatursprung bei den Jahreszeiten

Von Matthias Baritz, Stefan Kämpfe, Josef Kowatsch

  • Die Erwärmung begann erst 1987/88 mit einem Temperatursprung von 0,8 Kelvin
  • CO₂ nimmt seit 100 Jahren stark zu. Die Erwärmung setzte erst ab 1988 ein
  • Die Erwärmung ist seit 1988 tagsüber sehr stark und nachts deutlich geringer
  • Vollkommen unterschiedlicher Verlauf der Tag/Nachttemperaturen.
  • Von 1947 bis 1987 wurde es vor allem tagsüber kälter.
  • Die Jahreszeiten unterscheiden sich beim Temperatursprung und in der Erwärmung.

Vorweg: Grundsätzlich ist die physikalische Absorption und Emission von Gasen physikalische Realität und wird durch die Belege unseres Artikels nicht in Frage gestellt. Aber wie hoch ist die dadurch geglaubte Thermalisierung? Gibt es überhaupt eine? Von uns wird die beängstigende Höhe von 2 bis 4,5 Grad Klimasensitivität (je nach Klimamodell, hierbei handelt es sich um fiktive Modelle und nicht um Realität) wissenschaftlich hinterfragt und anhand der Daten des Deutschen Wetterdienstes widerlegt. Insbesondere zeigt sich, dass keine Grundlage für einen sog. Klimanotstand und darauf aufbauende Verbote und Panikmache besteht.

Die meinungsbeherrschende und gut bezahlte Klimafolgenforschung und auch der DWD behaupten fälschlicherweise, dass der gesamte Temperaturanstieg der letzten Jahrzehnte ausschließlich auf die Treibhausgase zurückzuführen wäre, hauptsächlich auf die stete CO₂-Atmosphärenzunahme. Die erste Grafik zeigt bereits, dass diese CO₂-Erwärmungsbehauptung falsch ist. Der DWD argumentiert gegen seine eigenen Daten.

Der Temperatursprung von 1987 auf 1988 und die Weitererwärmung

Grafik 1: Von 1943 bis 1987, also 45 Jahre vor dem Temperatursprung kühlten sich die Temperaturen Deutschlands ab. Der Temperatursprung von 1987 auf 1988 beträgt etwa 0,8 Grad. Ab 1988 gab es dann eine starke Weitererwärmung bis heute von 1,2 Grad. Macht zusammen 2 Grad ab 1987

Merke: Die neuzeitliche Klimaerwärmung begann erst 1988 durch einen Temperatursprung mit anschließender Weitererwärmung.

Dieser Temperatursprung ist in ganz Mittel- und Westeuropa nachweisbar. In Holland wurden die Gründe des Temperatursprunges genauer in dieser Arbeit untersucht. Auch Stefan Kämpfe hat den Klimasprung und die Ursachen hier eindeutig beschrieben.

Siehe auch den Temperatursprung in England mit Tag/Nachttemperaturen, weiter unten bei Grafik 4

Im Vergleich dazu der kontinuierliche CO₂-Anstieg: (Quelle Umweltbundesamt)

Grafik 2: Zwischen Grafik 1 und Grafik 2 gibt es keinerlei Korrelation. CO₂ kann nicht 45 Jahre lang abkühlend wirken, dann plötzlich aufwachen, hochschnellen und anschließend eine starke Weitererwärmung bewirken. Solche Gaseigenschaften sind in Physik gänzlich unbekannt.

Anmerkung: Selbst aufgrund von physikalischen Grundlagen an den CO₂-Erwärmungseffekt glaubende Physiker sagen auch ganz deutlich, in den 36 Jahren seit dem Temperatursprung könnte die Klimasensitivität nur einen schwachen fast unmerklichen Erwärmungseffekt bewirken, der Betrachtungszeitraum wäre viel zu kurz. Allerdings sind die 45 Jahre Temperaturrückgang davor schon gar nicht mit der CO₂-Zunahme erklärbar. Der CO₂-Atmosphärenanteil ist von 1943 damals 0,03%=300 ppm auf inzwischen 420 ppm gestiegen. Zumindest laut offizieller Erklärungen, basierend auf Messungen auf dem Mauna Loa. Und behauptet wird auch, – ohne jeden Beweis – dass allein der Mensch für diesen 120 ppm CO₂-Anstieg der letzten 80 Jahre verantwortlich wäre.

Erkenntnis 1: Die Temperaturkurve der DWD-Temperaturen und von CO₂ verlaufen vollkommen unterschiedlich. CO₂ oder andere sog. Treibhausgase können nicht der Temperaturhaupttreiber sein.

Damit haben wir bereits gezeigt: Es gibt keine Klimakatastrophe durch sog. Treibhausgase und somit auch keinen Klimanotstand. Die deutsche Regierung mitsamt den Medien übertreiben maßlos, indem sie behaupten, die gesamte Erwärmung (seit 1987) wäre CO₂-bedingt

Merke: Die Klimaerwärmung seit 1987 bis heute beträgt 2 Grad bei den DWD-Jahrestemperaturen.

Im folgenden Teil ergänzen wir die Temperaturreihen des Deutschen Wetterdienstes in Grafik 1 durch den Verlauf der Jahreszeiten und der Tag/Nachtemperaturen

Unsere Schwierigkeit war, der DWD bietet keine Gesamt-Daten an, nur die von Einzelstationen, die man dann zeitraubend addieren muss.

Zum Grafikbeginn 1947: Bei einer Einzelstationen wäre ein Grafikbeginn 1943 möglich, weil etliche die T-max/, T-min Werte vor dem Kriegsende mitgemessen haben und auch 1945 nicht fehlt. Aber in der Summe? Es gibt viel weniger als 100 DWD-Stationen, auf die man zurückgreifen könnte, denn aufgrund des Kriegsendes und der damit verbundenen neuen Außengrenzen würden seit 1943 deutlich unter 100 Stationen bis heute T-max und T-min mitmessen, und das wäre uns als DWD-Schnitt zu wenig.

Bis 1947 hatte der DWD dann seit Messnetz geändert, neue Stationen an neuen Orten eröffnet, und wir können seit 1947 auf durchschnittlich ca. 550 Stationen durchgehend mit T-Min und T-Max zurückgreifen.

Die nächste Grafik zeigt somit den Zeitraum erst ab 1947 mit den Tag/Nachttemperaturen.

Grafik 3: Die beiden grauen Temperaturverläufe oben geben den Durchschnitt aller 365/366 T-Max-Werte für jedes Jahr an. Die beiden blauen Verläufe unten samt Steigung stehen für die Durchschnitte aller 365/366 Tmin-Werte jeden Jahres. Dazwischen in braun die Tagesmittelwerte aller Tage eines Jahres, gemessen nach der Mannheimer Methode oder später Stundenmittel oder sogar 10 Min.-Mittel.

Auswertung mit Überraschung:

  1. Von 1947 bis 1987 sind vor allem die Temperaturen tagsüber deutlich kälter geworden. Die Nachttemperaturen nicht.
  2. Die Schere der Steigungslinien schließt sich in diesem 40 Jahre Betrachtungszeitraum
  3. Alle drei Grafikverläufe zeigen den Temperatursprung von knapp einem Grad von 1987 auf 1988
  4. Danach werden die Tage wärmer, siehe Steigungsformel, die Nachttemperaturen nicht.
  5. Die Schere der Tag/Nachttemperaturen öffnet sich seit 1988
  6. Diese Temperaturgrafik seit 1947 bis heute zeigt keinerlei Übereinstimmung mit der CO₂-Steigungsgrafik

Erkenntnis 2: Die Daten des Deutschen Wetterdienstes sind das endgültige „Aus“ für alle Behauptungen, CO₂ wäre der Haupttemperaturtreiber.

Merke: Nur die Temperaturen tagsüber haben sich seit 1947 in Deutschland geändert, zuerst 40 Jahre lang eine Abkühlung tagsüber, und nach dem Temperatursprung eine deutliche Erwärmung tagsüber.

Und nun die Betrachtung desselben Zeitraumes in England (CET, Midlands)

Grafik 4: ziemlich ähnlich wie in Deutschland, nur nicht so ausgeprägt

Wäre CO₂ wie stets behauptet, der Haupttemperaturtreiber, dann müsste dieses Gas überall Tag wie Nacht gleich wirken, und folgt man dieser Hypothese des CO₂-Treibhausexperten Häckl, dann sogar nachts deutlich stärker als am Tage (Aufgestellt vor 3 Jahren). Natürlich hat der CO₂-Klimaexperte Häckl für seine Hypothese keine Versuchsbeweise, einfach so nach der eignen Treibhaus-Glaubenslogik als Medienexperte dahergeschwätzt wie übrigens die ganze CO₂-Treibhaustheorie auf keine bestätigenden Versuchsbeweise für die IPPC behauptet hohe Klimasensitivität und auf keinerlei technische Anwendungen zurückgreifen kann. Es handelt sich um ein Geschäftsmodell

Die Realität ist: CO₂ kann nicht 40 Jahre lang bis 1987 vor allem tagsüber abkühlend wirken, dann einen Temperatursprung verursachen und ab 1988 plötzlich stark erwärmend wirken. Und auch noch tagsüber viel stärker als nachts. Solche Gaseigenschaften gibt es nicht.

Somit können wir jetzt schon schlussfolgern: CO₂ wirkt höchstens in homöopathischen Dosen. Das Klima wird von vielen anderen Faktoren bestimmt.

Die Aufgliederung der Grafiken nach Jahreszeiten. Der Winter

Wenden wir uns nun den Jahreszeiten zu und deren Verlauf von T-min/T-max über fast 80 Jahre. Der Winter besteht aus den Monaten Dezember und dem Januar und Februar im darauffolgenden Jahr, d.h. beim Winter 1948 zählt der Dezember 1947 mit. Die braune Grafik bedeutet: 90 Tagesrundum-Messungen ergeben jeweils ein Winterjahr.

Grafik 5: Der Temperatursprung ist bei allen drei Wintergrafiken gleich hoch und doppelt so hoch wie beim Jahresschnitt. Er beträgt beim Winter etwa 1,5 Grad im Gegensatz zu den 0,8 Grad bei den Jahrestemperaturen. Noch interessanter sind die Steigungsverläufe der Regressionslinien vor und nach dem Temperatursprung.

Auswertung: 1) Von 1948 bis 1987 sind alle drei Steigungen negativ, die Winter wurden bis 1987 kälter, und zwar tagsüber nur unmerklich mehr als nachts. (Vergleiche blaue und graue Steigungsformeln)

2) Nach dem Temperatursprung, also ab 1988 wurden die Wintermonate geringfügig wärmer, T-max unwesentlich mehr als T-min in der Nacht.

3) Insgesamt hat sich der Winter nach dem hohen Temperatursprung jedoch sehr wenig weitererwärmt, wobei die braune Steigung beim Gesamtwinter etwas ungewöhnlich ist.

Der Frühling seit 1947: die Frühlingsnächte werden in der Gegenwart kälter

Grafik 6: Der erste Zeitraum unterscheidet sich vollkommen vom Zeitraum nach dem Temperatursprung. Der Temperatursprung ist tagsüber höher als nachts.

Temperaturverlauf: Nächte: von 1947 bis 1987 gleich, nach dem Sprung von 0,8 Grad, deutlich abkühlend. Die Frühlingsnächte werden kälter, das spürt auch die Vegetation

Tagsüber (T-max): von 1948 bis 1987 deutlich abkühlend, Temperatursprung 1,6 Grad, dann leichte Erwärmung der Frühlingstage tagsüber. Insgesamt seit 1988 keine Erwärmung mehr, sieh braune Steigungslinie

Der Sommer seit 1947: Die ersten 40 Jahre kälter, seit 1988 deutlich wärmer, und zwar tagsüber, besonders aber seit 1992.

Grafik 7: Etwas übersichtlicher als beim Frühling, der Temperatursprung ist am Tage (T-max) etwas höher als nachts. Beim Gesamtschnitt (braun) etwa 0,6 Grad.

Nachts: ab 1947 keine Erwärmung, leichter Temperatursprung, leichte Weitererwärmung.

Tagsüber: zunächst Abkühlung tagsüber, Temperatursprung, dann sehr starke Weitererwärmung tagsüber.

Nähere Auswertung siehe unseren Artikel über den Sommer.

Der Herbst: es zeigt sich 87/88 kein Temperatursprung.

Nur der September hatte noch einen Temperatursprung 1987 auf 1988, die beiden anderen Monate nicht, deshalb zeigt der Herbst auch keinen Klimasprung 1988, sondern erst in den mittleren 1990er Jahren. Aktuell erwärmt sich der Herbst besonders stark, auch der von 2023 wird mit mehr als 11,5°C diesen Trend noch fortsetzen.

Grafik 8: Herbst, ganz anders wie in den restlichen Jahreszeiten

Nachts: kaum Erwärmung, kein Temperatursprung, ab 1988 wärmere Nächte

Tags: zuerst leichte Abkühlung, dann leichter Sprung nach unten, anschließend kräftige Weitererwärmung.

Für die genaue Auswertung verweisen wir auf den noch anstehenden Herbstartikel, ebenso auf die weiteren Monatsartikel und Jahreszeitenartikel der Zukunft

Erkenntnisse:

  1. Die Temperatursprünge sind von Jahreszeit zu Jahreszeit verschieden hoch
  2. Die Temperatursprünge sind tags und nachts selbst bei derselben Jahreszeit verschieden
  3. Die ersten 40 Jahre bis 1987 wurden kälter, wobei hauptsächlich die tagsüber gemessenen Tmax niedriger wurde. Die Schere Tmax/Tmin schließt sich
  4. Nach dem Temperatursprung wurde es ab 1988 wärmer, wobei vor allem die Sommer tagsüber wärmer wurden. Die Schere t-max/t-min öffnet sich.

Wo ist die angebliche Treibhauswirkung von CO₂ versteckt?

Wäre CO₂ der allein bestimmende Temperaturtreiber, dann müssten bei allen 2500 DWD- Wetterstationen die Tag/Nachtsteigungen dieselben Steigungsformeln haben. d.h. es dürfte keine Abkühlung bis 1987 geben, sondern alle drei Regressionslinien müssten tags/nachts und bei jeder Station dieselben Steigungen haben. Um die Temperaturerwärmung zu bestimmen, könnte man jede beliebige Station nehmen, egal ob mitten in der Stadt, am Flughafen oder im Schwarzwald. Die Steigungsformel und die Regressionslinien müssten bei allen Stationen dieselbe sein. Außerdem dürfte es keinen Temperatursprung von 1987 auf 1988 geben.

Die Temperaturdaten des Deutschen Wetterdienstes der letzten 80 Jahre zeigen: Es gibt keine Klimakatastrophe durch sog. Treibhausgase und somit auch keinen Klimanotstand wegen steigender CO₂-Konzentrationen.

Die deutsche Regierung mitsamt den Medien und die Panikmacher übertreiben maßlos. Die Temperaturverläufe Deutschlands wurden in den letzten 80 Jahren von vollkommen anderen Ursachen bestimmt.

Deshalb ist auch diese vom Mainstream verkündete Definition von Klimawandel falsch: Der Begriff Klimawandel bezeichnet langfristige Temperatur- und Wetterveränderungen, die hauptsächlich durch menschliche Aktivitäten verursacht sind, insbesondere durch die Verbrennung fossiler Brennstoffe

Richtig ist der erste Teil der Definition, falsch ist der Schluss: „insbesondere durch die Verbrennung fossiler Brennstoffe

Welche Gründe den abkühlenden Temperaturverlauf tagsüber in den ersten vier Jahrzehnten bis 1987 bestimmten, das zu ergründen wäre eine Aufgabe der teuer bezahlten Klimaforscher beim PIK und bei den Medien, aber auch von den Meteorologen beim Deutschen Wetterdienst. Und diese Erklärungen müssen wir einfordern.

Für uns kämen für den Zeitraum 1947 bis 1987 mehrere Ursachen in Betracht – vor allem die enorme Luftverschmutzung, welche mehr tiefe Wolken und Nebel entstehen ließ; das wirkte besonders tagsüber im Sommerhalbjahr kühlend. Die Luftverschmutzung verschleierte lange Zeit die Erwärmungswirkung des EDDY-Sonnenzyklus – seit 1988 schlägt dieser mit dem Aufklaren infolge der Luftreinhaltung nun voll durch. Dann die AMO-Kaltphase von etwa 1960 bis in die späten 1980er Jahre. Und die Häufigkeit der besonders erwärmend wirkenden SW-Lagen; diese traten in den 1960er bis 1980er Jahren seltener auf. Und im Winter gab es eine Negativ-Phase bei der NAO; einhergehend mit wenige und schwächeren Westwetterlagen; man denke nur an die Strengwinter 1962/63, 63/64, 69/70, 78/79, 84/85 und 86/87 mit vielen Ostwetterlagen; diese fehlen in den heurigen Mildwintern nahezu völlig.

Gerne warten wir auch auf die vermuteten Anregungen aller Leser dieses Artikels, also warum wurden die Tmax bis 1987 niedriger?

Was hingegen die plötzliche Änderung des Klimas ab 1987 in Mittel- und Westeuropa herbeiführte, das haben wir des öfteren schon beschrieben, z.B. hier.

In aller Kürze nochmals wiederholt: Zeitraum 1988 bis heute

1) Die Umstellung der Luftzufuhr von NW auf SW -Wetterlagen, also auf südliche Windrichtungen in ganz Mittel- und Westeuropa

2) Laut DWD die Zunahme der Sonnenstunden seit 1988,

3) Laut DWD die Abnahme der Bewölkung

4) Stetige Zunahme der Wärmeinselflächen in Deutschland, dazu gehören:

4a) Die ständige weitere Bodenversiegelung und Asphaltierung einstiger Grünflächen, die Städte und Gemeinden fressen sich in die grüne Landschaft hinein – derzeit 60 ha je Tag in Deutschland, siehe Versiegelungszähler, Stand: 50 803 km2 von 358 000 km2

4b) Die ständige Trockenlegung Deutschlands in Feld, Wald, Wiesen und Fluren durch Drainagen und Entwässerungsgräben. Das Wasser der einst viel nässeren deutschen Sumpf-Landschaften landet im Meer. Damit wird Deutschland im Sommer zu einer Steppe. Es fehlt zunehmend die kühlende Verdunstung an heißen Sommertagen. Insbesondere die T-Max tagsüber steigen kontinuierlich. Die gesetzlichen Luftreinhaltemaßnahmen seit 40 Jahren verstärken diesen Prozess.

6) Die AMO-Warmphase, die aber auch zyklisch ein Ende finden wird.

7) Die Verringerung der Albedo seit 30 Jahren, dadurch wird weniger Sonnenenergie ins Weltall zurückreflektiert.

Und ohne die Zunahme der Wärmeinseln – siehe Versiegelungszähler – wäre die Erwärmung seit 1988 vor allem im Sommer viel moderater ausgefallen:

Grundforderung von uns Natur- und Umweltschützern:

Die werbe- und geschäftsmäßig geplante und regierungsgewollte CO₂-Klimaangstmacherei vor einer angeblichen Erdüberhitzung muss sofort eingestellt werden.

Wir sind deshalb gegen teure technische CO₂-Reduzierungsmaßnahmen, die dem Klima nichts nützen, sondern der Natur und Umwelt oft zusätzlich schaden. Wir lehnen auch jede Luftbesprühung aus Flugzeugen mit weißen Chemikalien-Staubwolken ab, um die Sonneneinstrahlung zu reflektieren und die Albedo wieder zu vergrößern.

Was man gegen heiße Sommertage und gegen die Trockenlegung Deutschlands vorgehen sollte, haben wir hier in 15 Punkten beschrieben.

Aber diese Hilfsmaßnahmen, die tatsächlich helfen, würden der CO₂-Treibhaustheorie widersprechen, deshalb entscheidet sich die Politik lieber für die teure CO₂-Bodenverpressung oder CO₂ aus der Luft ausfiltern und andere vollkommen sinnlose CO₂-Reduzierungsmaßnahmen. Unsere Vorschläge im obigen link würden nicht nur helfen, sondern wären zugleich ein Beitrag zum Naturschutz, die Vielfalt und die Ökologie der Landschaft würde sich verbessern.

Wir brauchen mehr CO₂ in der Atmosphäre!

Eine positive Eigenschaft hat die CO₂-Zunahme der Atmosphäre. Es ist das notwendige Wachstums- und Düngemittel aller Pflanzen, mehr CO₂ führt zu einem beschleunigten Wachstum, steigert die Hektarerträge und bekämpft somit den Hunger in der Welt. Ohne Kohlendioxid wäre die Erde kahl wie der Mond. Das Leben auf der Erde braucht Wasser, Sauerstoff, ausreichend Kohlendioxid und eine angenehm milde Temperatur. Der optimale CO₂-gehalt der Atmosphäre liegt etwa bei 800 bis 1000ppm, das sind 0,1%. Nicht nur für das Pflanzenwachstum, also auch für uns eine Art Wohlfühlfaktor. Von dieser Idealkonzentration sind wir derzeit weit entfernt. Das Leben auf der Erde braucht mehr und nicht weniger CO₂ in der Luft. Untersuchungen der NASA bestätigen dies (auch hier) Und vor allem dieser Versuchsbeweis.

Das Leben auf dem Raumschiff Erde ist auf Kohlenstoff aufgebaut und CO₂ ist das gasförmige Transportmittel, um den Wachstumsmotor Kohlenstoff zu transportieren. Wer CO₂ vermindern will, versündigt sich gegen die Schöpfung dieses Planeten.

Es wird Zeit, dass endlich Natur- und Umweltschutz in den Mittelpunkt des politischen Handelns gerückt werden und nicht das teure Geschäftsmodell Klimaschutz, das keinerlei Klima schützt, sondern über gesteuerte Panik- und Angstmache auf unser Geld zielt. Gegen die Terrorgruppe „letzte Generation“ muss mit allen gesetzlichen Mitteln vorgegangen werden, da die Gruppe keine Natur- und Umweltschützer sind, sondern bezahlte Chaosanstifter. Abzocke ohne Gegenleistung nennt man das Geschäftsmodell, das ähnlich wie das Sündenablassmodell der Kirche im Mittelalter funktioniert. Ausführlich hier beschrieben.

Josef Kowatsch, Naturbeobachter, aktiver Naturschützer, unabhängiger, weil unbezahlter Klimaforscher

Matthias Baritz, Naturwissenschaftler und Umweltschützer.

Stefan Kämpfe, Diplomagraringenieur, Botaniker, unabhängiger Natur- und Klimaforscher

 




Auf der New Yorker „Krazy-Klimate-Konferenz“*

Francis Menton, MANHATTAN CONTRARIAN

[*Nettes, aber unbersetzbares Wortspiel]

Am Donnerstag (16. November) veranstaltete eine Organisation namens City & State (die sich auf die Berichterstattung über den Staat New York und die Kommunalverwaltung spezialisiert hat) eine Konferenz mit dem Titel „2023 Clean Energy in New York Summit“: Nennen wir sie die „New York Krazy Klimate Konference“. Ich war vor Ort, um die Feierlichkeiten zu beobachten und darüber zu berichten, zusammen mit einem anderen prominenten Skeptiker, nämlich Roger Caiazza vom Blog Pragmatic Environmentalist of New York.

An der Krazy Klimate Konference nahm eine Schar hochrangiger New Yorker Bürokraten und Gesetzgeber teil, die über die aufregenden Fortschritte New Yorks auf dem Weg zum Net Zero-Nirvana berichten wollten, sowie eine noch größere Schar von Trickbetrügern und Schmarotzern, die von den großen Haufen staatlicher Beute profitieren wollen, die auf dem Weg dorthin verteilt werden. Die Ko-Vorsitzende des New Yorker Climate Action Council – Doreen Harris – hielt die Hauptrede. Zu den weiteren Rednern gehörten mehrere Mitglieder der Staatsversammlung sowie Bürokraten, die im Stab des Gouverneurs, in der staatlichen Energieforschungs- und Entwicklungsagentur New York State Energy Research & Development Agency (NYSERDA), im städtischen Umweltschutzministerium, im städtischen Bauamt usw. für die so genannte „Energiewende“ zuständig sind. Auch die Wind- und Solarenergie-Schwindler waren prominent vertreten.

Wie die Leser hier wahrscheinlich wissen, soll der erste große Schritt beim Übergang New Yorks zu kohlenstofffreier Energie der Bau von Offshore-Windturbinen mit einer Nennleistung von etwa 9000 MW im Atlantik vor Long Island sein. Die Verträge für etwa die Hälfte davon wurden nach einem Ausschreibungsverfahren vergeben. Leider kündigten zwischen Juli und Oktober fast alle Auftragnehmer für die Offshore-Windkraftanlagen an, dass sie von den Verträgen zurücktreten würden, da sie die Preise nicht massiv erhöhen würden. Die Public Service Commission lehnte daraufhin die Preiserhöhungen ab, aber zum Zeitpunkt der Konferenz hatte noch niemand eine Lösung für den nächsten Schritt gefunden. Als wir den Rednern zuhörten, war New Yorks wichtigste Initiative zur Umstellung auf kohlenstofffreie Energie buchstäblich im Wasser versunken.

Man könnte meinen, dass der Schwerpunkt einer Konferenz wie dieser auf der Beseitigung der schwerwiegenden Hindernisse liegen sollte, die der erhofften Energiewende im Wege stehen. Dazu gehören nicht nur die ausufernden Kosten für den Bau von Windkraftanlagen, die zu den Vertragskündigungen geführt haben, sondern auch Dinge wie der Umgang mit der unsteten Stromerzeugung aus Wind und Sonne und die Lösung des Problems der Energiespeicherung. Wenn Sie glauben, dass diese Konferenz sich auch nur halbwegs ernsthaft mit einem dieser Themen auseinandergesetzt hat, liegen Sie falsch.

Stattdessen gab es im Wesentlichen nur hirnloses, fröhliches Gerede.

Wie bereits erwähnt, war die erste Rednerin eine Doreen Harris.

Frau Harris sprach die Worte „Ich war Mit-Vorsitzende unseres Klima-Aktionsrates“. Das ist der Rat, der im letzten Dezember den so genannten „Scoping Plan“ herausgegeben hat, der uns sagt, wie wir kohlenstofffreie Energie erreichen können – ein „Scoping Plan“, der auf rund 700 Seiten nicht einmal herausfinden konnte, dass Energiespeicherung in Wattstunden und nicht in Watt gemessen werden muss. Bei einem Unterfangen, das nach erheblichem technischen Sachverstand schreit, bringt Frau Harris einen Koffer voller Luft mit. Hier sind einige Auszüge, die den Tenor ihrer Präsentation reflektieren: „Wir sind führend in der Nation … Wir sehen, dass die Industrie in außergewöhnlicher Weise reagiert … Es gibt kurzfristige Herausforderungen [es wird nicht erwähnt, welche das sein könnten] … Wir haben es mit einem massiven Ausbau des Netzes zu tun … Wir brauchen viel Wind und Sonne … Wir haben einen 10-Punkte-Plan, um diese Herausforderungen zu meistern …“ Harris‘ Rede war gespickt mit Zeilen, die Applaus hervorrufen sollten („Wer liebt keine Wärmepumpen?!“), also nutzte ich diese Gelegenheiten, um laut zu buhen. In ihrer etwa 25-minütigen Rede schaffte es Frau Harris gerade einmal, ein paar Zeilen zum Thema der kürzlichen Stornierungen aller Offshore-Windprojekte zu sagen. Ihr Beitrag war, dass „wir zwei RFI [requests for information]“ an potenzielle Bieter herausgegeben haben und „wir erwarten bald Antworten“.

Damit liegt Frau Harris weit vor Gregory Lampman, dem Direktor für Offshore-Windkraft bei NYSERDA. NYSERDA ist die staatliche Behörde, die für das Offshore-Windprojekt zuständig ist und die die Verträge ausgestellt hat, die alle gerade gekündigt wurden. Irgendwie schaffte es Lampman, eine ganze Präsentation durchzuziehen („Wir sind führend … Wir haben eine Tendenz zum Handeln. … langfristige Nachhaltigkeit … etwas, worauf wir stolz sein können“), ohne jemals zu erwähnen, dass sein gesamtes Programm gerade gestrichen wurde, ohne dass er eine Vorstellung davon hat, wie es weitergehen soll. Es ist ihm hoch anzurechnen, dass der Moderator Lampman, wenn auch auf sehr sanfte Art und Weise, bat, auf das Thema der Absagen einzugehen. Lampman antwortete, dass seine Mitarbeiter im Büro schon während der Konferenz hart daran arbeiteten, eine Lösung zu finden. Er sagte auch, dass er das Thema mit seinem 6-jährigen Sohn besprochen habe, der daraufhin geantwortet habe: „Papa, du schaffst das.“

Für mich war der Höhepunkt der Konferenz die Präsentation eines Mannes namens Luke Falk am Nachmittag, der sich als COO einer Firma namens Clean Path NY ausgab, die anscheinend Übertragungsleitungen entwickelt, um Wind- und Solarenergie im ganzen Bundesstaat zu transportieren. Falk fing an, darüber zu sprechen, wie großartig es wäre, wenn alle ihre Häuser auf elektrische Heizung umstellen würden, weil dies eine Verwendung für die riesigen Mengen an Wind- und Sonnenstrom bieten würde, die bald anfallen würden. An diesem Punkt drehte ich durch und fing an, unkontrolliert zu lachen. Nach seinem Vortrag kam Falk auf mich zu und beschuldigte mich, unhöflich zu sein. Ich erwiderte, dass ich dachte, der Sinn einer Comedy-Routine sei es, die Zuschauer zum Lachen zu bringen.

Aus dieser Konferenz geht eindeutig hervor, dass die Leute, die New Yorks angebliche Energiewende leiten, nicht den geringsten Hauch von Kompetenz besitzen. Ich nehme an, das ist besser so, denn Leute, die tatsächlich kompetent wären, könnten die Scharade noch viel länger aufrecht erhalten. Mit diesen Leuten wird der Zusammenbruch früher kommen, wenn auch nicht annähernd früh genug.

Link: https://wattsupwiththat.com/2023/11/19/at-the-new-york-krazy-klimate-konference/

Übersetzt von Christian Freuer für das EIKE