Bemerkungen zur Hitzewelle in Kanada

Über 40°C in Kanada? Vielleicht in der Sonne? Bild: Rike / pixelio.de

Dipl.-Met. Christian Freuer

Bereits im jüngsten Kältereport (Nr. 15) hatte der Autor auf die Wärme im Nordwesten der USA und in Kanada hingewiesen. Weil nun aber ein gewaltiges Trara in den Medien darum im Gange ist, soll das Ganze hier in einem Kurzbeitrag in einen globalen Zusammenhang gestellt werden.

Das Bohei in den Medien ist natürlich kein Wunder, musste doch die Alarmisten-Szene jetzt schon sehr lange auf ein Ereignis dieser Art warten. Keine Frage ist auch, dass im Nordwesten der USA und im Westen Kanadas eine extreme Hitzewelle im Gange ist. Möglicherweise, ja sogar wahrscheinlich sind auch hier und da neue Hitzerekorde aufgestellt worden.

So what? Dem seriösen Beobachter stellt sich jedoch folgende Frage: Globale Erwärmung soll ja eben das sein – global! Ist die Hitzewelle dort global?

Eine Antwort auf diese Frage zeigt Abbildung 1:

Abb 1: Temperaturabweichung im 850-hPa-Niveau vom 1. Juli 2021, 00 UTC (15 Uhr Ortszeit). Quelle

Die Wärmeblase in der Region tritt deutlich hervor, aber global – nanu, nirgendwo auf der gesamten Nordhemisphäre findet sich eine Abweichung ähnlicher Größenordnung mit positivem Vorzeichen.

Zum Vergleich hier die absolute Temperaturverteilung in dieser Druckfläche:

Abb. 2: Absolute Temperatur im 850-hPa-Niveau (gleicher Zeitpunkt wie Abb. 1). Quelle

Betrachten wir nun Nordamerika. Die Temperaturabweichung im 850-hPa-Niveau als Ausschnitt aus Abbildung 1 sieht so aus:

Abb. 3: Wie Abbildung 1, aber im Ausschnitt Nordamerika. Quelle

Auch hier der Vergleich mit der absoluten Temperatur:

Abb. 4: Wie Abb. 2, aber im Ausschnitt Nordamerika. Quelle

Wie schon im Kältereport Nr. 15 erwähnt, steht der Hitze im Nordwesten des Kontinents eine ziemlich beachtliche negative Abweichung im sonst so heißen Südwesten der USA gegenüber. Aber das wird niemals in irgendwelchen Schlagzeilen auftauchen, da viel zu unspektakulär. Was soll daran auch besonders sein, wenn die Höchsttemperaturen in einer Region, die normalerweise um oder etwas über 40°C erreichen, plötzlich unter der 30-Grad-Marke verbleiben, und das mindestens eine Woche lang?

Hierzu die Darstellung der Bodentemperatur als Graphik. Das sieht alles viel unspektakulärer aus als bei einer Darstellung der Abweichung. Allerdings muss bei einer solchen Darstellung berücksichtigt werden, dass lokale Spitzen beiderlei Vorzeichens herausgefiltert werden. Das jedoch ist eigentlich kein Mangel, denn das Herauspicken einzelner Punkte mit besonders hoher (oder niedriger) Temperatur ist nicht repräsentativ für die ganze Region. Da kommt eine Flächendarstellung schon wesentlich besser daher:

Temperatur in 2 Metern Höhe über Grund, 15 Uhr Ortszeit. Quelle.

Eine Graphik mit der Temperaturabweichung am Boden wird leider nicht angeboten. Der Südwesten der USA liegt aber zumeist über 1000 m hoch, so dass die Temperaturverhältnisse im 850-hPa-Niveau auch den Verhältnissen am Boden recht nahe kommen.

Ein Temperaturniveau zwischen 35 und 40 Grad in einer normalerweise recht kühlen Gegend ist schon eine Hausnummer. Nun erscheinen aber in den Medien Bilder Anzeigen auf Reklametafeln an Parkplätzen und Einkaufszentren mit einer Anzeige deutlich über 40 Grad. Nun ja, was da gemessen wird, wo der Messfühler steht usw. usf. wird natürlich nicht gezeigt – was das Ganze zu reiner Effekthascherei macht.

Sieht so seriöser Journalismus aus?

Schauen wir uns der Vollständigkeit halber nun einzelne Messungen der täglichen Höchsttemperatur an amtlichen Stationen in Kanada an:

Tabelle 1: Höchstwerte an einigen Stationen in Kanada am 30. Juni 2021 Quelle: Verein Berliner Wetterkarte e. V.

Tabelle 2: Wie vor, aber am 29. Juni 2021

Die höchsten Werte meldet also die Station der Stadt Calgary. Inzwischen geht die Hitzewelle dort wie in den anderen Gebieten der Region auch zu Ende:

Tabelle 3: Erwartete Wetterentwicklung in Calgary ab dem 30. Juni 2021. Quelle

Fazit: Eine starke Hitzewelle über 2 Wochen in einem im globalen Maßstab vergleichsweise kleinen Gebiet – das soll nun ein Zeichen der globalen Erwärmung sein! Kein weiterer Kommentar!

————————————-

Anmerkung: Die folgende Graphik zeigt die Eisbedeckung. Man erkennt, dass die Hudson Bay Anfang Juli noch in etwa zur Hälfte mit Eis bedeckt ist. Das ist für die Jahreszeit außerordentlich viel:

Abb. 6: Eisbedeckung Nordamerika (Ausschnitt). Quelle

Redaktionsschluss für diesen Beitrag: 1. Juli 2021, 10.00 Uhr

 




Ein weiterer Fake-Klimareport macht für globale ‚Abkühlung‘ die globale ‚Erwärmung‘ verantwortlich

Bild: aus dem Beitrag

Cap Allon

Trotz des Verbots von Ozon abbauenden Gasen – wie FCKW und HFCKW-Kühlmittel – und trotz jüngster Berichte, dass sich das Ozonloch verkleinert, behauptet eine neue Studie eines internationalen Wissenschaftlerteams, dass die globale Erwärmung zu einem größeren Ozonverlust führt.

Die Forschung argumentiert, dass extrem niedrige Wintertemperaturen hoch in der Atmosphäre über der Arktis aufgrund von Klimamustern, die mit der globalen Erwärmung verbunden sind, häufiger und extremer werden.

In einem perfekten Beispiel für das, was George Orwell Doublethink nannte, behauptet die AGW-Partei, dass globale „Erwärmung“ auch globale „Abkühlung“ bedeuten kann – d. h. dass die CO2-Emissionen (d.h. Ihre Existenz) für ALLE Dinge des Klimas verantwortlich sind; sogar für die starke Abkühlung, die wir seit 2016 erlebt haben.

Die Studie geht aber noch weiter und besagt, dass diese extrem niedrigen Temperaturen angeblich Reaktionen mit den verbleibenden Ozon abbauenden Chemikalien verursachen und zu größeren Ozonverlusten führen.


Die neue Studie von UMD, dem Helmholtz-Zentrum für Polar- und Meeresforschung des Alfred-Wegener-Instituts und dem Finnischen Meteorologischen Institut wurde in der Zeitschrift Nature Communications veröffentlicht.

Ross Salawitch, Professor am UMD Department of Atmospheric and Oceanic Science, dem Department of Chemistry and Biochemistry und dem Earth System Science Interdisciplinary Center sagte: „Wir befinden uns in einer Art Wettlauf zwischen dem langsamen und stetigen Rückgang der FCKW, die erst in 50 bis 100 Jahren verschwinden, und dem Klimawandel, der die Temperaturextreme des Polarwirbels in rasantem Tempo sinken lässt.

Die zunehmend niedrigen Temperaturen“, so Salawitch weiter, „schaffen Bedingungen, die den Ozonabbau durch FCKWs fördern. Obwohl diese Verbindungen also langsam verschwinden, nimmt der Ozonabbau in der Arktis im Zuge des Klimawandels zu.“

Neue Daten aus der Studie zeigten die kältesten arktischen Polarwirbel-Temperaturen und die höchsten Ozonverluste im Jahr 2020, was die bisherigen Rekorde von vor neun Jahren im Jahr 2011 übertrifft (eine Art von Sonnenminimum-Korrelation ist hier sehr wahrscheinlich – nicht, dass die Forscher es wagen, die Möglichkeit zu erwähnen, dass ein natürliches Phänomen hinter ihren Ergebnissen stehen könnte).

Nach diesen Wissenschaftlern ist das Chlor normalerweise nicht reaktiv innerhalb des arktischen Polarwirbels, aber Wolken bieten die richtigen Bedingungen für das Chlor, um die Form zu ändern und mit Brom und Sonnenlicht zu reagieren, um Ozon zu zerstören.

Aus der Antarktis hört man Ähnliches.

Das Erdbeobachtungsprogramm der Europäischen Union gab Ende 2020 bekannt, dass das Ozonloch über der Antarktis auf die größte Größe und den tiefsten Stand seit mindestens 15 Jahren angeschwollen ist und damit zu den bemerkenswertesten jemals aufgezeichneten gehört.

Clare Nullis von der wärmesüchtigen WMO erklärt, dass sich das Ozonloch jedes Jahr im August – zu Beginn des antarktischen Frühlings – auszudehnen beginnt und um den Oktober herum einen Höhepunkt erreicht.

„Die Luft ist unter minus 78 Grad Celsius kalt, und das ist die Temperatur, die man braucht, um stratosphärische Wolken zu bilden – was ein ziemlich komplexer Prozess ist“, sagte Nullis bei einem U.N.-Briefing im Oktober 2020. „Das Eis in diesen Wolken löst eine Reaktion aus, die dann das Ozon zerstören kann. Das ist also der Grund, warum wir dieses Jahr das große Ozonloch sehen.“

Aber diese Ergebnisse widersprechen dem absurden Konsens, dass die globale Erwärmung die globale Abkühlung verursacht, und sie widersprechen wiederum der sogenannten „Wissenschaft“ hinter dem internationalen Abkommen (dem Montreal-Protokoll), das entwickelt wurde, um diese Ozon abbauenden Substanzen (OSDs) – wie FCKW- und HFCKW-Kühlmittel – auslaufen zu lassen.

OSDs sind seit ihrem Höchststand im Jahr 2000 rückläufig (siehe unten), und die Löcher, die über den Polen wachsen, zeigen zwei Jahrzehnte später, dass die Korrelation zwischen OSDs und Ozon nicht mehr besteht. Es spielt einfach keine Rolle, dass reduzierte OSDs auf einmal einen noch nie dagewesenen Einfluss auf die Ozonschicht haben. Nein, der Mechanismus hier scheint ein Nnatürlicher zu sein und ist wahrscheinlich in irgendeiner Weise mit der historisch niedrigen Sonnenaktivität verbunden, die seit über einem Jahrzehnt beobachtet wurde.

Abbildung: Vergangene und vorhergesagte Werte von kontrollierten Gasen in der antarktischen Atmosphäre, angegeben als äquivalente effektive stratosphärische Chlorwerte (EESC), ein Maß für ihren Beitrag zum stratosphärischen Ozonabbau.

Diese Ergebnisse bestätigen auch, was die NASA schon seit Jahren sagt – dass sich nämlich die obere Atmosphäre abkühlt.

Die Bildung von stratosphärischem Ozon wird durch die von der Sonne kommende ultraviolette (UV) Strahlung initiiert.

Folglich erhöht ein Anstieg der Strahlungsleistung der Sonne die Ozonmenge in der Erdatmosphäre.

Die Strahlungsleistung der Sonne und die Anzahl der Sonnenflecken variieren über den gut dokumentierten 11-jährigen Sonnenzyklus. Beobachtungen über mehrere Sonnenzyklen seit den 1960er Jahren zeigen, dass die globalen Gesamt-Ozonwerte zwischen dem Maximum und dem Minimum eines typischen Zyklus um 1 bis 2 % schwanken.

Allerdings sind die „globalen“ Gesamt-Ozonwerte nicht unbedingt das, was uns hier interessiert. Es gibt Hinweise darauf, dass der Ozonabbau in Zeiten geringer Sonnenaktivität über den Polen viel stärker ist als anderswo auf dem Planeten. Dies ist ein Phänomen, das wir heute sowohl in der Antarktis als auch in der Arktis beobachten.

Dies könnte durchaus die wahre Ursache für die Polar Amplification sein.

Klima-Alarmisten behaupten natürlich gerne, dass CO2 die Arktis überproportional erwärmt, aber sie haben keinen anerkannten Ansatz, wie dies geschehen könnte.

Es ist Phantasie.

Andererseits passt eine positive Korrelation zwischen abnehmender Sonnenaktivität und Ozonabbau über der Arktis sehr gut, ebenso wie die negative Korrelation zwischen Ozonabbau und steigenden Temperaturen.

Es gibt noch einen weiteren wichtigen Faktor, der bei all dem eine Rolle spielt, und das sind Vulkanausbrüche.

Explosive Vulkanausbrüche injizieren Schwefelgase direkt in die Stratosphäre, wodurch neue Sulfatpartikel gebildet werden. Die Partikel bilden sich zunächst in der Stratosphäre im Windschatten des Vulkans und verbreiten sich dann über die gesamte Hemisphäre oder global, da die Luft von stratosphärischen Winden transportiert wird.

Ein Verfahren, um das Vorhandensein vulkanischer Partikel in der Stratosphäre nachzuweisen, nutzt Beobachtungen der Durchlässigkeit der Sonnenstrahlung durch die Atmosphäre. Wenn große Mengen neuer Partikel in der Stratosphäre über einer ausgedehnten Region gebildet werden, wird die solare Durchlässigkeit messbar reduziert (wie auch die terrestrischen Temperaturen).

Die Ausbrüche von Mt. Agung (1963), El Chichón (1982) und Mt. Pinatubo (1991) sind die jüngsten größeren Beispiele für Schwefelinjektionen, die die Sonnendurchlässigkeit vorübergehend reduzierten. Der chilenische Vulkanausbruch des Calbuco (2015) ist ein weiteres Beispiel – diese stratosphärische Injektion spielte eine Rolle bei der Vergrößerung des Ozonlochs im Jahr 2015:

Abbildung: Durchschnittliche Ozonkonzentrationen über der südlichen Hemisphäre während des Zeitraums vom 1. bis 15. Oktober 2015, als das Ozonloch in der Antarktis für dieses Jahr fast seine maximale Ausdehnung hatte. Die rote Linie zeigt die Grenze des Ozonlochs.

Bei seiner maximalen Ausdehnung war das Ozonloch 2015 das viertgrößte, das jemals beobachtet wurde. Es gehörte zu den oberen 15 % in Bezug auf die Gesamtmenge des abgebauten Ozons. Nur in den Jahren 2006, 1998, 2001 und 1999 war es hzu einem noch stärkeren Ozonabbau gekommen, während andere spätere Jahre (2013, 2014 und 2016) in der Nähe der Mitte des beobachteten Bereichs lagen.

Das Loch von 2020 scheint sogar noch größer zu sein als das von 2015, ein klarer Hinweis darauf, dass andere Faktoren als ODS der Schlüssel zum Ozonabbau über den Polen sind – nämlich, Überraschung, Sonnen- und Vulkanaktivität.

Leider bleibt die UNO und ihr betrügerischer kleiner Ableger – die WMO – an das Montreal-Protokoll gekettet.

Clare Nullis kommt zu dem Schluss, dass sich die Ozonschicht trotz der immer größer werdenden Löcher nach Ansicht von Experten langsam erholt, nachdem das Abkommen 1987 verabschiedet wurde, und sie drängt die Nationen, sich an die Maßnahmen zu halten, indem sie Klimaprognosen zitiert, die besagen, dass die Ozonschicht im Jahr 2060 wieder das Niveau von 1980 erreichen wird.

Sie müssen denken, dass wir Idioten sind; aber ich befürchte, dass wir es als Kollektiv sind.

„Wenn Sie ein Bild von der Zukunft wollen, stellen Sie sich einen Stiefel vor, der auf einem menschlichen Gesicht herumtrampelt – für immer.“ – George Orwell, 1984

Link: https://electroverse.net/climate-report-blames-cooling-on-warming/

Übersetzt von Christian Freuer für das EIKE

 




Die wahren Kosten von Wind und Solar

Werden immer viel teurer als fossile Energie sein: Wind und Solar! Bild: Erich Westendarp / pixelio.de

Willis Eschenbach

Ich lese immer wieder, dass Wind und Solar endlich billiger sind als fossile Brennstoffe … und jedes Mal, wenn ich das lese, heben sich meine Augenbrauen bis zum Haaransatz.

Das liegt zum Teil daran, dass der Markt sehr effizient darin ist, Energiequellen auf der Basis ihrer Kosten zu erkennen. Hier, zum Beispiel, ist die Geschichte von Kerosin, Hervorhebung von mir:

Als 1857 eine von Michael Dietz erfundene, sauber brennende Kerosinlampe auf den Markt kam, hatte das sofortige Auswirkungen auf die Walfangindustrie. Kerosin, damals unter dem Namen „Kohleöl“ bekannt, war einfach herzustellen, billig, roch bei der Verbrennung besser als tierische Brennstoffe und verdarb nicht im Regal wie Walöl. Die Öffentlichkeit gab die Walöllampen fast über Nacht auf. Bis 1860 wurden in den Vereinigten Staaten mindestens 30 Kerosinfabriken in Betrieb genommen, und Walöl wurde schließlich vom Markt verdrängt. Als 1895 der Preis für Walöl aufgrund mangelnder Nachfrage auf 40 Cents pro Gallone fiel, wurde raffiniertes Petroleum, das sehr gefragt war, für weniger als 7 Cents pro Gallone verkauft. …

Quelle

Meine Frage lautet: wenn Wind und Solar so billig sind, warum ersetzen sie nicht über Nacht die traditionellen Energiequellen?

Dieser Frage wollte ich nachgehen. Die wichtigste Zahl zur Beurteilung, wie teuer eine Energiequelle sein könnte, wird „LCOE“ genannt, die Levelized Cost Of Energy. Dabei werden alle Kosten für neue Kraftwerke berücksichtigt – Kapitalkosten, Betriebs- und Wartungskosten, Brennstoffkosten, Finanzierungskosten, die ganze Bandbreite der Ausgaben für diese Energiequelle. Nun … bis auf einen Kostenpunkt, aber dazu kommen wir später.

Hier sind die neuesten Informationen zu den Stromgestehungskosten für verschiedene Energiequellen aus dem Bericht 2021 der U.S. Energy Information Administration (EIA) mit dem Titel Levelized Costs of New Generation Resources.

Abbildung 1. Nivellierte US IEA Stromkosten, 2021.

Und ja, das sagt eindeutig, dass Onshore-Wind und Solarenergie billiger sind als jede andere Energiequelle.

Nun ja, ich habe mir das angeschaut – und meine Augenbrauen hoben sich … warum?

Wegen der Zahlen in der ersten Spalte, dem „Kapazitätsfaktor“. Der Kapazitätsfaktor für ein Stromerzeugungssystem ist der Prozentsatz der „Typenschild“-Erzeugung, den es tatsächlich erzeugt. Wenn zum Beispiel das Leistungsschild eines Windrades besagt, dass es 16 Gigawattstunden (GWh, oder 109 Wattstunden) pro Jahr erzeugt, wenn es rund um die Uhr läuft, und aufgrund der intermittierenden Natur des Windes erzeugt es nur ein Viertel davon, dann wäre sein „Kapazitätsfaktor“ 25%.

Ich habe mir die behaupteten Kapazitätsfaktoren für Wind- und Solarenergie angesehen, die nach Angaben der US EIA bei über 40 % bzw. 30 % liegen. Das war völlig unmöglich!

Ein Teil des Fehlers im solaren Kapazitätsfaktor wird nun durch die Fußnote 4 erklärt, und zwar:

Die Technologie wird als Photovoltaik (PV) mit einachsiger Nachführung angenommen. Das Solar-Hybridsystem ist ein einachsiges PV-System, das mit einem Vier-Stunden-Batteriespeichersystem gekoppelt ist.

Warum ist das ein Problem? Nun, weil Nachführsysteme jedes einzelne Solarmodul während des Tages mit einer gleichmäßigen Rate bewegen müssen, damit die Module immer der Sonne zugewandt sind. Dann, am Ende des Tages, drehen sie das Paneel zurück in seine Ausgangsposition. Im Gegensatz zu feststehenden Systemen erfordern diese eine komplexe Installation von Motoren, Zeitsensoren, Lagern, Hebeln und dergleichen, um die Paneele zu drehen.

Da solche mechanischen einachsigen Nachführsysteme teuer in der Installation, im Betrieb und in der Wartung sind und zudem witterungsbedingt beschädigt werden können, werden solche Systeme nur in den seltensten Fällen in einem Solarpark eingesetzt. Fast ausnahmslos handelt es sich um Systeme mit festem Winkel, bei denen die Paneele fest an einem (theoretisch) windfesten Rahmen montiert sind, wie bei der unten abgebildeten Topaz Lake Solar Farm:

Abbildung 2: Fest montierte Solarmodule, Topaz Lake Solar Farm, eine der größten der Welt.

Wenn man sich die notwendigen Motoren, Getriebe, Hebel und anderen Mechanismen vorstellt, die für ein einachsiges Nachführsystem erforderlich sind, um jedes einzelne dieser neun Millionen Solarmodule so zu drehen, dass es den ganzen Tag über der Sonne folgt, wird sofort klar, warum fest installierte Solarmodule die Norm für Installationen im Netzmaßstab sind.

Auf jeden Fall wollte ich die echten Daten zu dieser Frage der Kapazitätsfaktoren finden. Die wunderbare Quelle Our World In Data hat alle nötigen Informationen. Hier ist der aktuelle Durchschnitt aller realen Wind- und Solaranlagen der Welt im letzten Jahr, für das wir Daten haben, 2019.

Abbildung 3. Tatsächliche und theoretische (Nameplate) Erzeugung, Daten für 2019.

Wie man sieht, liegt die US IEA mit den Kapazitätsfaktoren von Wind- und Solarkraftwerken weit im Phantasiereich. In beiden Fällen behauptet sie weitaus größere Kapazitätsfaktoren als wir hier draußen in der realen Welt haben.

In Abbildung 1 sind die Kosten in US-Cent pro Kilowattstunde wie folgt angegeben:
Gas-Kombikraftwerk – 3,45 Cent pro kWh

● Solarenergie – 2,90 Cent/kWh

● Onshore-Windkraft – 3,15 ¢ pro kWh

Das ist die Grundlage für die Behauptung, dass erneuerbare Energien jetzt die billigsten Stromquellen sind. Angesichts der tatsächlichen Kapazitätsfaktoren sind diese Kosten jedoch in Wirklichkeit:

● Gas-Kombikraftwerk – 3,45¢ pro kWh

● Solarenergie – 6,21 Cent/kWh

● Onshore-Windkraft – 4,97 ¢ pro kWh

„Billigste Quellen“? Keineswegs.

Und was Offshore-Wind angeht, liegen sie genauso weit daneben. Sie behaupten 11,5¢ pro kWh, aber der neue Offshore-Windpark Block Island berechnet dem Versorger, nicht dem Kunden, sondern dem Versorger, 24,4¢ pro kWh …

Und schließlich gibt es noch einen riesigen Elefanten im Raum der US EIA … die Notstromversorgung. Das sind die fehlenden Kosten, die ich oben erwähnt habe.

Wenn man ein Gigawatt unzuverlässiger, intermittierender „erneuerbarer“ Wind- oder Solarenergie zu einem System hinzufügt, muss man auch ein zusätzliches Gigawatt zuverlässiger, planbarer Energie hinzufügen, wobei „planbar“ bedeutet, dass man es nach Belieben hoch- oder herunterfahren kann, um „erneuerbare“ Energien zu ersetzen, wenn kein Wind weht oder die Sonne nicht scheint. Das oben verlinkte Dokument der US EIA über nivellierte Kosten erwähnt zwar die Notwendigkeit eines Backups … aber es geht nicht einmal auf die Kosten des Backups ein. Alles, was es sagt, ist:

Da die Last kontinuierlich ausgeglichen werden muss, haben Erzeugungseinheiten mit der Fähigkeit, die Leistung entsprechend der Nachfrage zu variieren (disponierbare Technologien), im Allgemeinen einen höheren Wert für ein System als weniger flexible Einheiten (nicht disponierbare Technologien), die intermittierende Ressourcen für den Betrieb nutzen. Die LCOE-Werte für disponierbare und nicht-disponierbare Technologien werden in den folgenden Tabellen separat aufgeführt, da ein Vergleich sorgfältig vorgenommen werden muss.

Sie sagen, dass disponierbare Technologien „mehr Wert für ein System“ haben … aber sie versäumen es zu erwähnen, dass „mehr Wert“ zu höheren realen Kosten für nicht-disponierbare erneuerbare Technologien führt.

Wie viel höher? Nun … das sagen sie nicht. Aber mit Sicherheit kommt das nicht umsonst. Zumindest werden die Kapitalkosten des abschaltbaren Backup-Generators plus ein Teil der anderen fixen, variablen und Übertragungskosten anfallen … und das bedeutet, dass es aufgrund der Kosten für die benötigten Backup-Generatoren kaum eine Chance gibt, dass Solar- und Windenergie jemals mit anderen Methoden konkurrenzfähig sein werden.

TL;DR Version: Weder Wind noch Solar sind bereit für die Prime-Time, und aufgrund ihrer Notwendigkeit für Backup-Power können sie nie bereit sein.

Link: https://wattsupwiththat.com/2021/06/25/the-real-cost-of-wind-and-solar/

Übersetzt von Christian Freuer für das EIKE

 




Karlsruhe contra Freiheit der Wissenschaft

Wenn sie denn könnte würde Justitia in Tränen ausbrechen ob der Art und Weise, wie in D „Recht“ gesprochen wird! Bild: Thomas Max Müller / pixelio.de

Fred F. Mueller

Wenn die „Klimaschützer“ erstmal an der Macht sind, ist es mit ihrem Motto „follow the science“ schnell vorbei. Der Beschluss des Bundesverfassungsgerichts zum sogenannten Klimaschutzgesetz vom 24.März 2021 wird sicherlich in die Geschichtsschreibung eingehen. Obwohl das Wort „Klima“ in der aktuellen Fassung des Grundgesetzes nirgendwo vorkommt, werden „Klimaschutz“ und darüber hinaus sogar die „Herstellung der Klimaneutralität“ quasi zu Verfassungszielen erhoben. Nach Ansicht des höchsten deutschen Gerichts rechtfertigt die Einhaltung des „2-Grad-Ziels“ und möglichst sogar des „1,5 -Grad-Ziels“ des Pariser Klimaabkommens sogar erhebliche staatliche Eingriffe in die im Grundgesetz verankerten Freiheitsrechte.

Als erstes Freiheitsrecht haben Gerichtspräsident Stephan Harbarth und seine sieben Richterkollegen in der ersten Kammer schon mit der Urteilsbegründung die Freiheit von Forschung und Lehre ins Visier genommen: Das Bundesverfassungsgericht sieht sich befugt, über naturwissenschaftliche Fragen durch Richterspruch statt wie sonst üblich durch naturwissenschaftlichen Nachweis zu entscheiden. Man könnte dies geradezu als eine Art Rückfall ins Mittelalter ansehen. Auch den religiösen und politischen Machthabern jener Epoche waren Menschen, die auf ihren eigenen Verstand vertrauten, ein Dorn im Auge. Diese unabhängigen Geister wagten es doch glatt, all das anzuzweifeln, was dem Volk von Fürsten und Priestern vorgesetzt wurde. In den jahrhundertelangen Auseinandersetzungen zwischen Naturwissenschaften einerseits und den religiösen sowie weltlichen Eliten andererseits markierte das Urteil der Inquisition gegen Galileo Galilei – einen der wesentlichen Begründer der modernen Naturwissenschaften – in gewisser Weise einen Wendepunkt. Bei diesem Prozess ging es im Grunde darum, ob es einem Untertanen erlaubt sei, die Vorgänge in der Natur durch Experiment und Logik zu klären oder ob die Machthaber – damals die Kirche mithilfe von Inquisitionsgerichten, die auch weltliche Macht bis hin zu Scheiterhaufen und Kerkerhaft ausübten – auch hier das letzte Wort hatten. Nach dem Skandalurteil gegen Galilei verlor die Kirche mehr und mehr an Ansehen. Die Naturwissenschaften konnten sich dagegen in langem, zähen Ringen nach und nach durchsetzen, auch wenn es bei der katholischen Kirche bis 1992 dauerte, bevor Galileo Galilei offiziell rehabilitiert wurde. Weltliche Gerichte hatten sich dagegen schon sehr viel länger davor gehütet, naturwissenschaftliche Fragen juristisch „klären“ zu wollen. In Fächern wie Physik, Chemie oder Mathematik gelten weder Mehrheitsmeinungen noch Gerichtsurteile, sondern ausschließlich Logik, Experiment und Beweisführung.

Bild 1. Das Henry-Gesetz in Aktion: Unter Druck in Sprudelwasser gelöstes CO2 gast beim Einschenken unter Blasenbildung aus (Foto: Autor)

Umso mehr überrascht es, wenn sich in der heutigen Zeit ein weltliches Gericht daranmacht, die Auffassungen von lediglich zwei akademischen Gremien zu quasi verbindlichen Verfassungsgeboten zu erheben. Hierbei handelt es sich zum einen um das IPCC (UN Intergovernmental Panel on Climate Change), das seit Jahren als Weltautorität in Klimafragen dargestellt wird. Zweiter Ideengeber des Karlsruher Urteils ist sodann der Sachverständigenrat für Umweltfragen (SRU). Dieses Gremium wurde von der Regierung mit handverlesenen Spezialisten besetzt, die allesamt Professortitel führen. Sie verfügen über Kompetenzen auf zahlreichen Gebieten wie Medizin, Biologie, Abfall und Recycling, Umweltrecht und Umweltforschung sowie Politikwissenschaft. Allerdings weist nur ein einziges Mitglied – ein Physiker und Geograf – die zur Beurteilung von Fragen der Klimawissenschaften erforderliche Ausbildung auf. Stellvertretende Vorsitzende des SRU ist Fr. Prof. Kemfert. Diese telegene und wortgewandte blonde Wirtschaftswissenschaftlerin wird in Presse und Medien gern interviewt beziehungsweise zu Talkshows eingeladen. Zwar wird sie dort als kompetent in Energiefragen dargestellt, doch ist sie de facto eine vehemente Lobbyistin der Solar- und Windenergiebranche. Auch fällt sie gelegentlich durch den Gebrauch von Begriffen aus dem Vokabular einer obskuren neomarxistischen Sekte auf.

Henrys Gesetz höchstrichterlich für unzutreffend erklärt

Naturwissenschaftliches Opfer des Karlsruher Urteils ist das Henry-Gesetz, das kaum jemand kennen dürfte, wenn er auf der Straße danach gefragt würde. Dabei sind seine Auswirkungen allgemein bekannt, denn es wirkt sicht- und hörbar jedesmal, wenn man eine Flasche Sprudelwasser oder eine Dose mit Erfrischungsgetränken öffnet: Unter intensivem Zischen bilden sich im Getränk über einen längeren Zeitraum Gasblasen. Bei diesem Gas handelt es sich um CO2, welches der Abfüller vorher dem Getränk unter hohem Druck zugefügt hatte, wobei es in der Flüssigkeit in Lösung ging. Beim Öffnen sinkt dieser Druck, und das CO2 drängt aus der Flüssigkeit wieder in Form von Gasblasen heraus.

Bild 2. Diese Aussage des Bundesverfassungsgerichts steht nicht im Einklang mit dem Henry-Gesetz

 

Das gleiche Gesetz erklärt auch, warum Fische im Hochsommer ersticken, weil im warmen Wasser zuwenig Sauerstoff enthalten ist, oder warum Taucher schwere Gesundheitsschäden durch Stickstoffblasen im Blut erleiden, wenn sie zu schnell auftauchen.

Bild 3. Henry erkannte, dass an der Grenzfläche zur Luft ein ständiger Gasaustausch stattfindet, so dass sich ein Gleichgewicht zwischen dem „inneren Druck“ des Gases in der Flüssigkeit und seinem Teildruck in der Atmosphäre einstellt (Grafik: Autor)

Das Henry-Gesetz ist nicht schwer zu verstehen: Die Grenzfläche zwischen Wasser und Luft ist für Gasmoleküle gut durchlässig, so dass ständig Moleküle aus der Atmosphäre ins Wasser wandern bzw. umgekehrt aus dem Wasser in die Atmosphäre. Dabei bildet sich nach einiger Zeit ein Gleichgewicht, sobald die Zahl der pro Zeiteinheit in die jeweilige Richtung wandernden Moleküle gleich ist. Man kann sich das Ganze so vorstellen, dass das Gas in der Flüssigkeit unter einem „inneren Druck“ steht, der den Ausgleich mit seinem Druckanteil (Partialdruck) in der Atmosphäre herbeiführt. Würde man den Stickstoffanteil der Atmosphäre plötzlich erhöhen, so würde sich solange zusätzlicher Stickstoff im Wasser lösen, bis das Gleichgewicht wieder hergestellt ist. Dieses Gesetz gilt auch für alle anderen Gase in der Atmosphäre. Berechnen kann man das Ganze recht einfach mithilfe der sogenannten Henry-Konstanten. Darüber hinaus hat auch die Temperatur einen großen Einfluss.

Erkannt und naturwissenschaftlich untersucht wurden diese Zusammenhänge bereits 1802/03 von dem englischen Arzt und Chemiker William Henry (1774 bis 1836). Das nach ihm benannte Henry-Gesetz beschreibt den Einfluss von Drücken und Temperaturen auf die Menge von in Wasser gelösten Gasen. Er hätte es sich wahrscheinlich nie träumen lassen, dass seine Erkenntnisse mehr als 200 Jahre später im fernen Deutschland höchstrichterlich angezweifelt werden könnten. Doch genau das ist in Karlsruhe geschehen.

Bild 4. Auch diese Aussage widerspricht den Erkenntnissen von William Henry

Kernaussagen des Karlsruher Urteils

Entscheidende Aussagen im Karlsruher Urteil sind:

  • Nur kleine Teile der anthropogenen Emissionen werden von den Meeren und der terrestrischen Biosphäre aufgenommen…
  • Der große Rest anthropogener CO2-Emissionen verbleibt aber langfristig in der Atmosphäre, summiert sich, trägt dort zur Erhöhung der CO2-Konzentration bei und entfaltet so Wirkung auf die Temperatur der Erde.
  • Im Gegensatz zu anderen Treibhausgasen verlässt CO2 die Erdatmosphäre in einem für die Menschheit relevanten Zeitraum nicht mehr auf natürliche Weise. Jede weitere in die Erdatmosphäre gelangende und dieser nicht künstlich wieder entnommene (unten Rn. 33) CO2-Menge erhöht also bleibend die CO2-Konzentration und führt entsprechend zu einem weiteren Temperaturanstieg.

Je mehr Wasser, desto mehr Gas kann es aufnehmen

Das Verhältnis der Gesamtmengen des Gases in der Atmosphäre und im Ozean hängt dabei von den Gesamtmengen des Gases im Wasser und in der Atmosphäre ab. Das ist einfach zu verstehen: Erhöht man die Wassermenge, so erhöht sich auch die Menge an Gas, die es bei gleichen Druck- und Temperaturverhältnissen aufnehmen muss, um das Druckgleichgewicht wieder herzustellen. Da unsere Ozeane im Verhältnis zur Atmosphäre riesig sind, enthalten sie um ein Vielfaches mehr an Gasen als die Atmosphäre selbst.

Bild 5. Je mehr Wasser, desto größer die Gasmenge, die in die Ozeane strömen muss, bis das Gleichgewicht wiederhergestellt ist (Grafik: Autor)

Bild 6. Mit seiner Aussage befindet sich das Karlsruher Gericht im Widerspruch nicht nur zum Henry-Gesetz, sondern auch zu Erkenntnissen der NOAA (National Oceanographic and Atmospheric Organisation) der USA

Da bekannt ist, welche Mengen an CO2 in der Atmosphäre bzw. im Meer enthalten sind, kann man bei Annahme konstanter Temperatur- und Luftdruckverhältnisse recht einfach berechnen, welche Anteile einer vom Menschen zusätzlich in die Atmosphäre freigesetzten Menge CO2 in der Atmosphäre verbleiben und wieviel davon im Ozean in Lösung gehen werden. Im Jahr 2008 enthielt die Erdatmosphäre angenähert 3.000 Gigatonnen CO2 (1 Gigatonne = 1 Milliarde Tonnen). Die Menge des in den Meeren gelösten CO2 liegt mit rund 140.000 Gigatonnen um etwa den Faktor 50 darüber. Daraus ergibt sich ein Verhältnis von 98 zu 2. Nach Henry werden somit von jeder zusätzlich in die Atmosphäre eingebrachten Tonne CO2 rund 98 % bzw. 980 kg in den Ozeanen dauerhaft in Lösung gehen. Behauptungen über Klimakatastrophen aufgrund einer „Vermüllung der Atmosphäre durch CO2“ mit der Folge einer „Selbstverbrennung“ sowie darauf fußende Berechnungen von „CO2-Restbudgets“ widersprechen elementaren naturwissenschaftlichen Erkenntnissen. Dies gilt auch für die Urteilsbegründungen deutscher oder niederländischer Gerichte. Die dadurch ermutigten Klima-NGO’s haben schon angekündigt, die „böse“ Industrie in ganz Europa mit einer Klagewelle zu überziehen. Die Klimakids von „Fridays for Future“ werden in voraussichtlich wenigen Jahren in einem Alptraum aufwachen und sich fragen, wie sie da nur hineinrutschen konnten. Wie sagte man dazu früher in China: „Mögest du interessante Zeiten erleben“.

Bild 7. Der Austausch von CO2 zwischen Ozean und Atmosphäre wird von Wissenschaftlern wie z.B. Prof. Andrew Watson ganz anders bewertet als vom Bundesverfassungsgericht, das seiner Interpretation allerdings quasi Verfassungsrang verliehen hat

Quellen

https://www.bundesverfassungsgericht.de/SharedDocs/Entscheidungen/DE/2021/03/rs20210324_1bvr265618.html

www.gesetze-im-internet.de/gg/BJNR000010949.html

https://ec.europa.eu/clima/policies/international/negotiations/paris_de https://www.un.org/en/global-issues/climate-change

https://www.ipcc.ch/

https://www.umweltrat.de/DE/SRU/Ratsmitglieder/ratsmitglieder_node.html

https://de.wikipedia.org/wiki/Galileo_Galilei

https://de.wikipedia.org/wiki/Henry-Gesetz

https://www.pmel.noaa.gov/co2/story/Ocean+Carbon+Uptake#:~:text=It%20takes%20about%20one%20year%20to%20equilibrate%20CO,the%20oceans%20due%20to%20biology%20and%20ocean%20circulation

https://de.wikipedia.org/wiki/Kohlenstoffdioxid_in_der_Erdatmosph%C3%A4re

https://worldoceanreview.com/en/wor-1/ocean-chemistry/co2-reservoir/

https://phys.org/news/2020-09-ocean-carbon-uptake-widely-underestimated.html

https://uitspraken.rechtspraak.nl/inziendocument?id=ECLI:NL:RBDHA:2021:5339




Kältereport Nr. 15

Kühle Sommer im Vormarsch! Foto: © Chris Frey

Einführung des Übersetzers: Hier werden wieder einige Meldungen über Kalt-Ereignisse präsentiert, aber auch von einer Hitzewelle ist weiter unten die Rede. Dazu unten mehr.

Ende Einführung

Rekord-Junikälte: Frost in Teilen von UK

22. Juni: Westeuropa hat in letzter Zeit noch mehr unter ungewöhnlichen Kältegraden gelitten, die das bisher historisch kühle Jahr noch vervollständigen. Bei mir in Portugal zum Beispiel lagen die Tageshöchsttemperaturen in der letzten Woche etwa 10 bis 12 Grad unter der saisonalen Norm.

In England wurde in Ravenseat, North Yorkshire ein Tiefstwert von –1,4°C gemessen.

In den schottischen Highlands wurden Messwerte von bis zu -3,3°C registriert, was den kältesten 22. Juni in der Geschichte Großbritanniens bedeutete und die bisherige Rekordmarke von –0,7°C in Braemar, Aberdeenshire im Jahr 1999 brach.

Außerdem war der Messwert von heute Morgen der zweitniedrigste, der jemals in Großbritannien so spät in der Saison gemessen wurde.

Seit dem 24. Juni 1957 mit -3,3 °C (26 °F) war es in Großbritannien nicht mehr so spät so kalt.

Link: https://electroverse.net/rare-summer-frosts-sweep-the-uk-as-record-june-cold-sets-in/

———————————-

Antarktische Luft sucht West-Australien heim

22. Juni: Während der Osten Australiens in letzter Zeit für Kalt-Schlagzeilen sorgte, wird nun auch der Westen von antarktischer Luft heimgesucht. Perth, die Hauptstadt von Westaustralien, bekam am Dienstagmorgen, 22. Juni, einen brutalen Schuss antarktischer Kälte ab.

Perth erlebte gerade die kälteste Nacht seit zwei Jahren, verursacht durch Winde aus der Antarktis, berichtet abc.net.au.

Das Bureau of Meteorology (BOM) registrierte einen nächtlichen Tiefstwert von 1.9°C – die niedrigste Temperatur in der Stadt seit Mai 2019. Während ein Tiefstwert von 0.5C Am Flughafen Perth wurde ein Tiefstwert von 0,5°C aufgezeichnet – der niedrigste Wert seit 2015.

Link: https://electroverse.net/antarctic-air-engulfs-western-australia/

———————————-

Rekord-Kälte zum Sommeranfang in Saskatchewan, Kanada

23. Juni: Es war ein historisch kalter Start in den Sommer für Zentral- und Ostkanada, mit den Städten Lucky Lake, Rosetown und Leader in Saskatchewan unter den Orten, die diese Woche Rekord-Tiefsttemperaturen verzeichneten.

In Lucky Lake sank das Quecksilber am Montag, dem 21. Juni, auf 1 Grad Celsius, was den bisherigen Rekord von 3,5 Grad Celsius aus dem Jahr 2020 unterbot.

Im Leader-Gebiet wurde am Montag ein Tiefstwert von 2°C beobachtet, was kalt genug war, um den alten Richtwert von 3.3°C aus dem Jahr 1951 zu brechen.


Darüber hinaus haben historische Sommerfröste auch die Provinzen Manitoba, Ontario und das südliche Quebec heimgesucht.

[Link siehe nach der nächsten Meldung]

———————————-

Sommer in West-Virginia bringt stellenweisen Frost mit

24.Juni: Auf dem Kalender steht zwar Sommer, aber das Thermometer und die niedrige Luftfeuchtigkeit deuteten auf Winter im Canaan Valley hin, mit einem Wert von -0,6 °C am Mittwoch – einer der tiefsten Werte in den USA für diesen Tag.

Es war ein kühler, knackiger Morgen am dritten vollen Sommertag in Washington und am gesamten Mittelatlantik.

Und 125 Meilen westlich der Hauptstadt der Nation fühlte es sich tatsächlich wie Winter an.
Eine Wetterstation auf dem Boden des Canaan Valley in West Virginia registrierte mit einem morgendlichen Tiefstwert von –0,6°C eine der niedrigsten Juni-Messungen überhaupt.

Außerdem wurde am Washingtoner Reagan National Airport ein Tiefstwert von 13,9°C aufgezeichnet, während am Dulles International Airport 9,4°C) registriert wurden – das sind die niedrigsten Temperaturwerte an diesen Standorten für dieses Datum seit fast 3 Jahrzehnten (seit 1992).

Sieht das nach einer „katastrophalen globalen Erwärmung“ aus?

Link: https://electroverse.net/freezing-summer-lows-invade-west-virginia-as-polar-change-looms-for-nz/

———————————-

Rekord-Schnee- und Eis-ZUWACHS in Grönland

25. Juni: Nach den historischen SMB-Zuwächsen von Ende Mai hat Grönland nun ein enormes WACHSTUM verzeichnet, und das zu einer Zeit, in der es normalerweise Schnee und Eis verlieren würde.

Ein Blick auf die offiziellen Zahlen des Dänischen Meteorologischen Instituts (DMI) zeigt, dass gestern, am 24. Juni, ein Tageszuwachs von 4 Gigatonnen verzeichnet wurde – erstaunlich für die Jahreszeit: Nie zuvor in der aufgezeichneten Geschichte hat Grönland so spät in der Saison so viel Schnee und Eis ZUGEWONNEN.

[DMI]

Eine so große Ansammlung wurde zu dieser Jahreszeit noch nie dokumentiert – zumindest nicht seit Beginn der DMI-Aufzeichnungen im Jahr 1981. Ein Wachstum dieser Größenordnung würde im November bis Februar als normal gelten, aber nicht Ende Juni.

Laut den Klimaalarmisten sollte das Grönlandeis mittlerweile geschmolzen sein und in Vergessenheit geraten.

Und doch sind wir hier und verzeichnen rekordverdächtige Zuwächse:

[DMI]

Link: https://electroverse.net/yesterday-greenland-gained-a-record-breaking-amount-of-snow-and-ice/

———————————-

Und hier mal ein Musterbeispiel für Alarmismus bei www.wetteronline.de:

Spitzenwerte bis nahe 50 Grad: Rekordhitze im Nordwesten der USA

Auf noch nie dagewesene Temperaturen bis nahe 50 Grad müssen sich der Nordwesten der USA und die kanadische Provinz British Columbia einstellen. Zum Start in die neue Woche steigen die Temperaturen in den US-Bundesstaaten Washington und Oregon verbreitet über 40 Grad, vielfach wird sogar die 45-Grad-Marke geknackt. Selbst die nächtlichen Tiefsttemperaturen sinken dann kaum noch unter 25 Grad.

Link: https://www.wetteronline.de/wetterticker/1ee5930a-32fb-4953-af02-63758f3d52c5

Kommentar von Christian Freuer dazu: Soweit wetteronline.de dazu. Die Abweichung der Temperatur im 850 hPa-Niveau zeigt tatsächlich eine erhebliche positive Abweichung im Nordwesten der USA und dem angrenzenden Pazifik. Dem steht jedoch ein gewaltiges Defizit in weiten Teilen der USA gegenüber, wie diese Graphik zeigt:

Die simulierte Temperatur am Dienstag Nachmittag (Ortszeit) in den USA sieht so aus:

Schon im letzten Kältereport war von einer gewaltigen negativen Temperaturabweichung die Rede gewesen, damals aber in weiter östlich gelegenen Gebieten. Natürlich gibt es dabei nicht mehr Schnee und/oder Frost, aber eine Temperatur um rund 10 K unter dem Üblichen wird man sicher bemerken.

Zwar war ich nie im Nordwesten der USA, aber es ist doch sehr zu bezweifeln, ob das wirklich Rekordwerte sind. Die negative Temperaturabweichung im größten Teil der USA ist viel bedeutsamer. – Ende Kommentar

———————————-

wird fortgesetzt …

Zusammengestellt und übersetzt von Christian Freuer für das EIKE