Arctic Tales and Fails*

Abschmelzendes Arktis-Eis? Von wegen! Bild: Erwin Lorenzen / pixelio.de

[*Schwer übersetzbares Wortspiel. Etwa: Arktische Märchen und deren Scheitern]

Joseph D’Aleo, CCM

Berichte der letzten Jahrzehnte über den Rückgang des arktischen Eises haben die Diskussion über die Möglichkeit der Eröffnung einer Schiffspassage für Russland durch seine nördlichen Gewässer wieder in Gang gebracht, die es in den Mittelpunkt einer neuen globalen Handelsschifffahrtsroute stellen könnte. Nichts daran ist neu für diejenigen, die sich darum kümmern und genug über diese Angelegenheit wissen.

Die Nordwestpassage ist ein Seesweg, der den Atlantischen und den Pazifischen Ozean durch die Inseln des kanadischen Arktischen Archipels und entlang der nördlichsten Küste Nordamerikas verbindet. Die Europäer suchten 300 Jahre lang nach einer brauchbaren Seehandelsroute nach Asien. Kolumbus sowie andere europäische Seefahrer begannen, eine westliche Route zu suchen. Prominent in dieser Suche waren Namen wie Jacques Cartier, Gaspar und Miguel Corte-Real, Sir Martin Frobisher, John Davis, Henry Hudson und William Baffin. Sehen Sie hier das rege Interesse Großbritanniens zu Beginn des 19. Jahrhunderts.

Dr. Gary Sharp schlug folgende geschichtliche Darstellung vor: „Die Nordwestpassage ist ein Seeweg zwischen dem Atlantik und dem Pazifischen Ozean. Mehr als drei Jahrhunderte lang hatten Forscher versucht, die Route zu finden, bevor sie schließlich 1906 vom norwegischen Entdecker Roald Amundsen (1872-1928) entdeckt wurde. Als Amundsen die Nordwestpassage erfolgreich navigierte, stellte er fest, dass sie sich zwischen dem Festland des nördlichen Kanadas und den arktischen Inseln Kanadas schlängelte. Die Reise an Bord seines kleinen Schiffes Gjoa dauerte mehr als drei Jahre, weil er und seine Mannschaft gezwungen waren, drei Winter lang zu kampieren. Die erste erfolgreiche kommerzielle Reise wurde 1969 von dem Eis brechenden Tanker SS Manhattan unternommen. Diese Reise folgte der Entdeckung großer Ölvorkommen in Alaska, was die Eröffnung einer kürzeren Route zur Ostküste der Vereinigten Staaten beeinflusste.“

Wie lebensfähig ist eine sich jedes Jahr öffnende, zuverlässige Nordroute? Einige glauben, dass der durch CO2 induzierte Klimawandel eine solche mit sich bringen wird. Aber kann man das Abnehmen und Zunehmen des Eises mit den natürlichen atlantischen und pazifischen Zyklen von Wärme und Kälte erklären.

In den späten 1990er Jahren fand die US-Fischereiabteilung an der UWA heraus, dass die Erwärmungs- und Abkühlungszyklen des Pazifischen Ozeans sich darauf auswirken, wohin die Fischbestände wandern. In den 1990er Jahren fanden Forscher einen ähnlichen Zyklus im Atlantikbecken.

Beide Zyklen haben einen großen Einfluss auf die globalen Temperaturen, einschließlich der arktischen Temperaturen, da das Wasser (warm oder kalt) von den Strömungen unter dem arktischen Eis transportiert wird.

Wenn sich der Pazifik erwärmt, gelangt warmes Wasser aus der Beringsee westlich von Alaska in die Arktis und fördert die Eisschmelze früh in der Saison und verzögert das Einfrieren und verringert die Eisdicke. Hier erkennt man die höheren jährlichen Durchschnittstemperaturen in der warmen PDO, die mehr El Ninos begünstigt (links) und die niedrigen, wenn die PDO in die Kaltphase wechselt, was kühlere La Ninas begünstigt (rechts):

Wenn sich der Atlantik erwärmt, wird das warme Wasser von den Strömungen unter das Eis transportiert (das schwimmt) und die Arktis erwärmt sich (links). Dieses warme Wasser hat einen erheblichen Einfluss auf die Eisbedeckung während der Sommersaison. Wenn der Atlantik abkühlt, nimmt die Schmelze ab und das Eis wird dicker und hartnäckiger. Abkühlung ist die Folge (rechts):

Mehr Eis bedeutet niedrigere Temperaturen. Die Summe der mittleren PDO und AMO zeigen eine sehr gute Übereinstimmung mit den arktischen Mitteltemperaturen (von Polyokov, UAF):

Dies wird durch die Forschung unterstützt. Francis et al. (GRL 2007) zeigten, wie die Erwärmung in der Arktis und das schmelzende Eis mit warmem Wasser (+3C) in der Barentssee zusammenhängt, das sich langsam in die sibirische Arktis bewegt und das Eis schmilzt. Sie bemerkte auch die positive Rückkopplung von veränderter Rückstrahlung durch offenes Wasser, das dann die Erwärmung weiter verstärkt.

Das Internationale Arktis-Forschungszentrum an der Universität von Alaska, Fairbanks, zeigte, wie die arktischen Temperaturen mit dem Eindringen von atlantischem Wasser zyklisch schwanken – zwischen kalt und warm:

Bevor das NSIDC in seiner Objektivität zum Schweigen gebracht wurde [!], schrieben sie nach 2007: „Ein prominenter Forscher, Igor Polyakov von der Universität von Fairbanks in Alaska, weist darauf hin, dass Impulse von ungewöhnlich warmem Wasser vom Atlantik in den Arktischen Ozean eindringen, die mehrere Jahre später im Ozean nördlich von Sibirien zu sehen sind. Diese Wasserimpulse tragen zur Erwärmung des oberen Arktischen Ozeans bei, was zur sommerlichen Eisschmelze beiträgt und das Eiswachstum im Winter reduziert.“

Ein anderer Wissenschaftler, Koji Shimada von der Japan Agency for Marine-Earth Science and Technology, berichtet über Hinweise auf Veränderungen der Ozeanzirkulation auf der pazifischen Seite des Arktischen Ozeans. Durch eine komplexe Wechselwirkung mit dem abnehmenden Meereis wird warmes Wasser, das im Sommer durch die Beringstraße in den Arktischen Ozean gelangt, von der Küste Alaskas in den Arktischen Ozean geschoben, wo es den weiteren Eisverlust fördert.

Viele Fragen müssen noch beantwortet werden, aber diese Veränderungen in der Ozeanzirkulation könnten wichtige Schlüssel zum Verständnis des beobachteten Verlustes des arktischen Meereises sein.

Beachten Sie, dass sich die nordpolare Atmosphäre seit des Wechsels der AMO in die Warmphase im Jahre 1995 erwärmt hat. Beachten Sie auch, dass es jetzt Anzeichen für eine Abkühlung zeigt, die der verstorbene große Hurrikan-Experte Dr. Bill Gray für das Jahr 2020 erwartet hatte (Atlantik-Temperaturen beeinflussen die Hurrikan-Saison). Beachten Sie den Rückgang nach 2016 mit einigen Monaten, die 3°C kälter sind als der Super-Nino-Höchststand 2016.

Dr. Willie Soon wies nach, dass die Temperaturen der Arktis viel besser mit solaren Zyklen korrelieren als mit CO2:


Die Sonne scheint der Treiber hinter der globalen Temperatur und ozeanischen Zyklen zu sein.

Die einzige Folge des zunehmenden CO2-Gehaltes ist die Zunahme des Wohlstands der Welt durch Pflanzendüngung – sogar die Flächenausdehnung der Sahara-Wüste ist um 8% zurückgegangen. Die Kälte wird zurückkehren und das Eis auch. Die Menschheit wird ärmer und stark gehandicapt zurückbleiben, um damit umzugehen.

Link: http://icecap.us/index.php/go/new-and-cool/arctic_tales_and_fails/

Übersetzt von Christian Freuer für das EIKE




Lange Leitungen gefährden die Stromversorgung

von Hans-Günter Appel

Wenn jemand eine lange Leitung hat, braucht er lange bis zur richtigen Erkenntnis. Das gilt wohl auch für die vielen Politiker, die lange Stromleitungen von Nord nach Süd fordern, um den Windstrom von der Küste zu den Verbrauchern in Hessen, Bayern und Baden-Württemberg zu leiten. Denn dort sollen bald alle Kern- und Kohlekraftwerke abgeschaltet und durch Wind- und Solarstrom ersetzt werden. Die Schwächen und die Gefahr eines Blackouts durch lange Stromleitungen haben sie wohl nicht begriffen.

Teure Leitungen

Neue Übertragungsleitungen mit einer Spannung von 380 Kilovolt (kV) kosten als Drehstrom-Freileitungen etwa eine Million Euro / Kilometer. Als Gleichstromleitungen in die Erde verlegt steigen die Kosten um das 6 bis 8-fache. Dazu kommen die Kosten für die Umspannwerke mit Konvertern zum Wechsel von Drehstrom auf Gleichstrom und umgekehrt an beiden Leitungsenden. Die Übertragungsnetzbetreiber haben für die geplanten Leitungen bereits viele Milliarden Euro eingeplant.

Reparaturen an den Leitungen sind aufwendig. Bei den Überlandleitungen dauern sie nach Angaben der Netzbetreiber Stunden bis Tage. Die erdverlegten Leitungen sind erst nach Tagen bis Wochen wieder betriebsklar. 

Teurer Transport

Doch auch der Stromtransport selbst ist nicht zum Nulltarif zu haben. Die Verluste in den Umspannwerken werden mit etwa 2 Prozent angegeben. Die Leitungsverluste für 100 Kilometer liegen bei 1 – 2 Prozent. Die Leitungen erwärmen sich bei maximaler Leistung bis auf 60 Grad Celsius. Als Faustregel kann man mit Stromverlusten von 10 Prozent rechnen, wenn Strom von der Küste in den Süden geleitet wird.

Darin sind die Aufwendungen für die Kompensation des Blindstroms nicht enthalten. Blindstrom entsteht auf dem Leitungsweg durch Induktionsvorgänge des Wechselstroms, die zum Verschieben der Spannung gegen die Stromstärke führen. Im Idealfall sollten die beiden Phasen  synchron mit der gleichen Sinusfrequenz schwingen. Dann ist die Leistung, das Produkt aus Spannung mal Stromstärke, am höchsten. Durch eine Verschiebung nimmt die Wirkleistung ab, weil dann zeitweise eine positive Stromstärke mit einer negative Spannung im Netz ist. Durch sogenannte Phasenschieber (Kondensatoren, Generatoren) können die Phasen wieder in Einklang gebracht werden.

Die Phasenschieber führen zu weiteren Leitungsverlusten und Kosten. Für die Stromwirtschaft gilt seit vielen Jahrzehnten die Faustregel: Es ist wirtschaftlicher, die Brennstoffe zum Verbraucher zu bringen und dort zu verstromen, wenn die Entfernung mehr als 200 Kilometer beträgt. Diese Erkenntnis ist der Energiewende zum Opfer gefallen. Für die Wendeideologen und die Profiteure ist der Stromtransport offensichtlich kostenlos und ohne Verluste.

Stromqualität nimmt ab

Für die Wechselstromleitungen ist nicht nur die Phasenverschiebung zwischen Spannung und Stromstärke ein Problem. Die Korrektur des Blindstroms wie auch Einspeisungen und Ausspeisungen an Knotenpunkten führen zur Deformation der Sinusschwingungen und zu hochfrequenten Oberschwingungen. Letztere erschweren oder verfälschen Signale, die über die Leitungen zum Steuern des Netzes geschickt werden. Die Fachleute sprechen von einem Verschmutzen des Netzstromes.

Netzkosten für Großabnehmer

Die Netzkosten für Großabnehmer richten sich nach der Entfernung zum nächsten Kraftwerk, das die benötigte Leistung bereitstellen kann. Die Wendepolitik zeigt, dass durch das Abschalten von Kohle- und Kernkraftwerken Betriebe plötzlich deutlich höhere Netzgebühren zahlen müssen, weil das nächstgelegene Kraftwerk abgeschaltet wurde. Ein Beispiel ist nach einem Bericht in Die Welt das Trimet-Aluminiumwerk in Hamburg  mit einer Anschlussleistung von rund 300 Megawatt (MW). Das ist fast die halbe Leistung eines Blockes des Kohlekraftwerks Moorburg. Das Werk hat zwei Blöcke mit je 800 MW Leistung. Bis zum Kraftwerk Moorburg sind es nur wenige Kilometer. Die Netzgebühren waren moderat. Zum 1. Januar 2021 wurde das Kraftwerk nach dem Kohleausstiegsgesetz abgeschaltet. Damit steigen die Netzgebühren, denn das nächste leistungsfähige Kraftwerk ist das etwa 60 Kilometer entfernte Kernkraftwerk Brokdorf. Für Trimat steigen dadurch die Netzgebühren um einen zweistelligen Millionenbetrag. Mit der geplanten Abschaltung von Brokdorf noch in diesem Jahr nimmt die Entfernung zum nächsten Kraftwerk nochmals kräftig zu. Trimet wird dann nicht mehr wirtschaftlich produzieren!

Stromnetz wird geschwächt

Der Transport von Strom über lange Strecken ist nicht nur teuer und technisch aufwendig. Er bedroht auch eine sichere Stromversorgung und kann zum Zusammenbruch des Netzes führen. Dies zeigen die Ereignisse am 8. Januar 2021. Es wurde Strom vom Balkan nach Frankreich geschickt, um dort Elektroheizungen zu versorgen. Die Hauptleitung wurde defekt. Darauf wurden auch die Umleitungen im Verbundnetz überlastet und schalteten sich automatisch ab. Es kam zu einem dramatischen Frequenzanstieg zunächst auf dem Balkan, der zum Trennen der osteuropäischen Regelzone vom übrigen Europa führte. Darauf fiel die Frequenz in den westlichen Regelzonen ab, weil dort Leistung fehlte. Zum Glück waren vor allem in Deutschland viele Dampfkraftwerke am Netz, da der Wind schwach war. Sie verhinderten mit ihrer Momentan-Reserve eine kritische Frequenzminderung und konnten durch Erhöhen ihrer Leistung die Sollfrequenz in kurzer Zeit wieder sichern.

Die Schilderung zeigt, es wird sehr kritisch, wenn Wind- und Solarstrom über große Strecken geleitet werden. Kommt es hier zu einem Leitungsausfall, gibt es im Zielgebiet zu wenig Strom. Die Frequenz fällt. Im Zielgebiet Süddeutschland gibt es aber mit der fortschreitenden Abschaltung der Kern- und Kohlekraftwerke immer weniger Momentan-Reserve und Regelenergie. Die Momentan-Reserve ist die Rotationsenergie der schweren Generatoren, die kurzfristig in Strom umgewandelt wird und so Spannungsschwankungen mildert. Um die Momentan-Reserve zu sichern, sollen daher die Generatoren der abgeschalteten Kraftwerke weiter laufen, angetrieben mit Netzstrom. Das ist ein weiterer Kostenfaktor. Es fehlt aber weiterhin die Regelenergie, die nur durch Dampfkraftwerke verlässlich erzeugt werden kann. Wind- und Solarstromanlagen  kann man zwar herunterfahren, aber nicht auf höhere Leistungen bringen. Ohne Dampfkraftwerke ist eine kritische Unterversorgung in Süddeutschland programmiert, die zum Blackout führt, wenn das dortige Übertragungsnetz abgeschottet wird. Die angrenzenden Netze werden durch Strommangel oder Überfluss instabil und können gleichfalls kollabieren. Ein europaweiter Blackout wäre die Folge.

Es zeigt sich immer mehr, wir können auf die Dampfkraftwerke quer durch Deutschland nicht verzichten. Eindrucksvoll wurde das demonstriert während der Krise am 8 Januar. Das Kohlekraftwerk Heyden in Ostwestfalen wurde zum Jahresanfang abgeschaltet und bereits eine Woche später wieder reaktiviert, um einen Netzzusammenbruch an den Folgetagen zu vermeiden. Inzwischen war es weitere fünfmal am Netz. Es wird spannend. Wenn weitere Kraftwerke abgeschaltet werden, wird ein Blackout unvermeidlich. „Experten“ der Regierung überlegen zurzeit, wie man durch gezielte Abschaltungen von Industriebetrieben und Versorgungsbereichen bei Dunkelflauten den Zusammenbruch des Netzes verhindern kann, wenn die Regelenergie aus Dampfkraftwerken nicht mehr ausreicht. Wir müssen uns wohl auf Strommangel wie in der früheren DDR einstellen.

Prof. Dr.-Ing. Hans-Günter Appel

Pressesprecher

Stromverbraucherschutz NAEB e.V.




33. Jahr der globalen Erwärmung: Ein Festival gescheiterter Prophezeiungen

Erwärmungs-Phantastereien: Durch die Bank Nieten! Bild: brit berlin / pixelio.de

Larry Hamlin

Die Klima-Alarmisten feiern die 33 Jahre, welche seit dem 23. Juni 1988 vergangen sind. Damals gab es seitens des Committee on Energy and Natural Resources eine Anhörung, auf welcher die Tür zum Alarmismus der globalen Erwärmung aufgestoßen wurde, und zwar in Gestalt von Vorträgen der Demolkraten-Senatoren und vermeintlicher „Experten“, die ihren sensationalisierten Untergangs-Prophezeiungen freien Lauf ließen, zu welchem es unausweichlich kommen würde infolge der Zunahme der globalen CO2-Emissionen.

Eine detaillierte Überprüfung der Behauptungen aus dieser Anhörung nach 33 Jahren aufgezeichneter Klimageschichte zeigt eine Kakophonie falscher und gescheiterter Spekulationen, Vermutungen und Vorhersagen bzgl. des Klimas auf dieser Anhörung. Dies belegt die Tatsache, dass die Anhörung von Anfang bis Ende alles falsch gemacht hat und in der Tat eine Feier einer außergewöhnlichen Anzahl gescheiterter Vorhersagen darstellt.

Zum Zeitpunkt der Anhörung herrschte in einigen Regionen des Mittleren Westens und des Südostens eine schwere Dürre, was viele demokratische Senatoren und andere „Experten“ dazu veranlasste, diesen Umstand auszunutzen (wie sie es immer mit normalen Wetterereignissen tun, einschließlich der Dürren im Westen der USA in diesem Jahr) und umfangreiche spekulative Behauptungen anzubieten, wonach die USA in der Zukunft weitere Dürren und Hitzewellen aufgrund der zunehmenden globalen CO2-Emissionen erwarten könnten.

Die seitdem vergangenen 33 Jahre haben bewiesen, dass diese demokratischen Senatoren und „Experten“ falsch liegen, belegen doch die Daten der EPA und der NOAA eindeutig, dass die Dürren in den USA und weltweit in diesem Zeitraum nicht zugenommen haben, ebenso wenig wie Hitzewellen in den USA. Die Daten unten zeigen, dass selbiges auch für praktisch jeden anderen Klimabereich der Fall ist, der bei dieser Anhörung angesprochen worden war, wobei die spezifischen Informationen für jeden dieser weiter unten angesprochenen Bereiche folgen.

Zahlreiche demokratische Senatoren und „Experten“ hatten behauptet, dass die globale Temperaturanomalie bis zum Jahr 2021 um etwa 1,4 Grad Celsius gegenüber 1986 steigen würde, basierend auf einem NASA-GISS-Klimamodell, wenn die Emissionen nicht sofort reduziert würden. UAH-Satellitenmessungen der globalen Temperatur seit 1979 zeigen jedoch, dass die globale Temperaturanomalie seit diesen Anhörungen nur um 0,49 Grad Celsius bis zum Jahr 2021 gestiegen ist, fast dreimal weniger als die fehlerhafte Spekulation bei diesen Anhörungen. Die gescheiterten Projektionen des Klimamodells sind hier den tatsächlich von der UAH gemessenen Temperaturwerten gegenüber gestellt:

Darüber hinaus sind die globalen CO2-Emissionen seit 1988 signifikant gestiegen, angetrieben durch einen enormen Anstieg der CO2-Emissionen der Entwicklungsländer, die 65% des gesamten globalen CO2 ausmachen. Dennoch behauptet das NASA-GISS-Modell, dass der Anstieg der globalen Temperaturanomalie nicht stattgefunden hat. Dies deutet eindeutig darauf hin, dass natürliche Klimaschwankungen das globale Klima antreiben und nicht die vom Menschen verursachten CO2-Emissionen.

Im Anschluss an die Senatsanhörung von 1988 über die globale Erwärmung hat das UN IPCC eine Reihe von Klimaanalyseberichten durchgeführt und kam zu dem Schluss, dass es erhebliche Einschränkungen für Klimamodelle gibt, die in der Lage sind, genaue zukünftige Klimavorhersagen zu liefern, wobei diese Einschränkungen nicht behoben werden können.

Der Dritte Sachstandsbericht des UN IPCC (AR3) wurde im Jahr 2001 veröffentlicht, mehr als ein Jahrzehnt nach der Anhörung von 1988. Dieser Bericht räumte schließlich ein, dass es nicht möglich ist, Klimamodelle zu entwickeln, die das globale Klima genau modellieren und zukünftige Klimavorhersagen liefern können.

Konkret stellt der Bericht in Abschnitt 14.2.2.2 fest:

Zusammengefasst muss eine Strategie erkennen, was möglich ist. In der Klimaforschung und -modellierung sollten wir erkennen, dass wir es mit einem gekoppelten nichtlinearen chaotischen System zu tun haben und daher die langfristige Vorhersage zukünftiger Klimazustände nicht möglich ist. Das Höchste, was wir erwarten können, ist die Vorhersage der Wahrscheinlichkeitsverteilung der zukünftigen möglichen Zustände des Systems durch die Generierung von Ensembles von Modelllösungen.“

Darüber hinaus werden die Klimamodell-Szenarien, die zur Bewertung des zukünftigen Klimaverhaltens verwendet werden, als unsicher charakterisiert (definiert als „plausibel“ oder „illustrativ“), was deren Ergebnisse zu reinen Spekulationen und Vermutungen macht und für massiv eingreifende und kostspielige politische Maßnahmen ungeeignet ist.

Zahlreiche demokratische Senatoren und „Experten“ behaupteten, dass die Rate des Meeresspiegelanstiegs an den Küsten aufgrund des steigenden CO2-Gehalts auf 6 cm pro Jahrzehnt ansteigen würde, aber die NOAA-Gezeitenmessdaten bis zum Jahr 2020 (33 Jahre nach den Senatsanhörungen) zeigen, dass die globale absolute Rate des Meeresspiegelanstiegs nur etwa 1,8 cm pro Jahrzehnt beträgt, was deutlich unter den übertriebenen und erwiesenermaßen fehlerhaften Behauptungen der Anhörungen zum Meeresspiegelanstieg liegt. Darüber hinaus zeigen die Daten der NOAA-Gezeitenpegel an hunderten von Küstenstandorten in den USA keine Veränderung des Meeresspiegelanstiegs an diesen Standorten, wie der längste US-Gezeitenpegel mit 164 Jahren am Standort Battery Park in New York zeigt (siehe unten). Auch hier haben sich die übertriebenen Behauptungen über den Anstieg des Meeresspiegels an der Küste als falsch erwiesen.

Während der Anhörung im Senat wurden viele spekulative Behauptungen aufgestellt, wonach steigende CO2-Emissionen zu mehr Waldbränden auf der ganzen Welt führen, aber wieder einmal haben sich diese Behauptungen als falsch erwiesen, zeigen doch NASA-Satellitenmessungen, dass die weltweiten Waldbrände einen abnehmenden Trend aufweisen:

Bei der Anhörung im Senat wurden Spekulationen über angebliche negative Auswirkungen auf die globale Begrünung durch zunehmende Treibhausgasemissionen geäußert, aber NASA-Satellitenbeobachtungen spiegeln das Gegenteil wider, wie in der Studie unten erwähnt, die zeigt, dass ein Viertel bis die Hälfte der Vegetation der Erde in den letzten 35 Jahren aufgrund steigender CO2-Werte eine deutliche Ergrünung gezeigt hat. Darüber hinaus werden die in den Anhörungen behaupteten negativen Auswirkungen von Treibhausgasen auf die globalen Wälder durch eine aktuelle Studie der University of Maryland widerlegt, die das Gegenteil zeigt, wie ebenfalls unten angemerkt:

Zahlreiche demokratische Senatoren und „Experten“ behaupteten, dass steigende CO2-Emissionen zu verheerenden Einbußen bei der weltweiten Nahrungsmittelproduktion führen würden. Nach 33 Jahren Geschichte zeigen die Daten weltweit rekordverdächtige Produktionsmengen von Getreide, Weizen, Mais, Reis, Sojabohnen usw., wie die folgende Graphik zeigt. Die übertriebenen Weltuntergangs-Prophezeiungen der demokratischen Senatoren und „Experten“ bei der Anhörung haben sich also ebenfalls als durchweg falsch erwiesen:

Die Senatsanhörung vom 23. Juni 1988 zur globalen Erwärmung hat nach 33 Jahren Geschichte bewiesen, dass die übertriebenen Behauptungen der Anhörung fehlerhaft, falsch und gescheitert sind. Die 33-jährige Geburtstagsfeier dieses traurigen Ereignisses seitens der Klimaalarmisten ist in Wirklichkeit eine Feier des Scheiterns der globale-Erwärmung-Propaganda.

Link: https://wattsupwiththat.com/2021/06/30/global-warming-33-year-birthday-a-celebration-of-failures/

Übersetzt von Christian Freuer für das EIKE

 




Ozonloch: Jetzt soll der Klimawandel schuld sein

von Alex Reichmuth, Nebelspalter

Trotz des Verbots schädlicher Fluorchlorkohlenwasserstoffe geht die Ausdünnung der Ozonschicht über den Polgebieten kaum zurück. Immer wieder zeigen sich Forscher überrascht darüber. Doch nun hat die Wissenschaft scheinbar eine Erklärung gefunden: Es liegt an der Erderwärmung.

Das Ozonloch war in den 1980er- und 1990er-Jahren, was der Klimawandel heute ist: Anlass für Weltuntergangsstimmung. 1985 entdeckten Forscher erstmals, dass die Ozonschicht über der Antarktis deutlich ausgedünnt ist. Die Ozonschicht liegt in der Stratosphäre in einer Höhe zwischen 15 und 25 Kilometern und schirmt die Erde massgeblich vor ultravioletter Strahlung ab. Nun beobachteten Wissenschaftler, dass die Ozonkonzentration im antarktischen Frühling regelmässig massiv abnimmt.

Angst vor Hautkrebs und anderen gesundheitlichen Folgen der Strahlung machte die Runde und sorgte für Panikschübe auf der ganzen Welt. Das amerikanische Worldwatch Institute sagte «Millionen von zusätzlichen Toten» wegen Krebs voraus. Die Umweltorganisation Greenpeace sprach vom «letzten Akt für das Leben auf dem Planeten».

Verbot von FCKW rasch durchgesetzt

Der Schuldige am Ozonloch war scheinbar schnell gefunden: der Mensch. Der Ausstoss an Fluorchlorkohlenwasserstoffen (FCKW) galt als Ursache des Ozonabbaus. FCKW wurden etwa in Sprühdosen, Kühlschränken und Feuerlöschern verwendet. Ihre Anreicherung in der Stratosphäre baut die Ozonmoleküle in der Stratosphäre ab, lautete die Erklärung.
Die Welt reagierte rasch und beschloss 1987 im Abkommen von Montreal, die Verwendung von FCKW schrittweise zu verbieten. Das Verbot konnte in relativ kurzer Zeit durchgesetzt werden. Heute gilt das koordinierte Vorgehen zum Schutz der Ozonschicht als Präzedenzfall, wie die Staaten ein Umweltproblem angehen und gemeinsam lösen können.

Der Berner Klimaforscher Thomas Stocker sprach von einer «Erfolgsstory». Man erkenne, «was bewirkt werden kann, wenn die Wissenschaft auf ein Problem hinweist und die Politik und die Industrie dann darauf reagieren, indem sie gewisse Produkte verbieten».

Der frühere Uno-Chef Kofi Annan bezeichnete das Montreal-Abkommen als «vielleicht erfolgreichsten internationalen Vertrag überhaupt». Auch der renommierte Berner Klimaforscher Thomas Stocker sprach von einer «Erfolgsstory». Man erkenne, «was bewirkt werden kann, wenn die Wissenschaft auf ein Problem hinweist und die Politik und die Industrie dann darauf reagieren, indem sie gewisse Produkte verbieten». Stocker wollte damit sagen, dass auch beim Problem Klimawandel internationales Handeln gegen den Ausstoss von Treibhausgasen nötig sei.

Rekord-Ozonloch 2006 über der Antarktis

Doch es gibt ein Problem bei der scheinbaren Erfolgsstory: Das Ozonloch über der Antarktis existiert noch immer, und über der Arktis ist sogar noch ein zweites dazugekommen – trotz des Abkommens von Montreal. So stieg die saisonale Ozonausdünnung über der Antarktis 2006 auf ein bis dahin noch nie gesehenes Mass. 2015 erreichte das Ozonloch über der Südhalbkugel die zweitgrösste je gemessene Grösse. 2011 wurde auch über der Arktis eine Ozonausdünnung mit Rekordwerten registriert.
2015 musste die Uno-Weltorganisation für Meteorologie eingestehen, dass es keine Belege für eine Erholung der Ozonkonzentration gebe. Man habe zwar «erste Hinweise auf eine Wende» gefunden, aber diese seien statistisch noch nicht signifikant. Forscher wiesen darauf hin, dass der Abbau der FCKW in der Stratosphäre möglicherweise länger dauert als in den Modellrechnungen angenommen. «Die Physik der Atmosphäre ist komplex, und viele Prozesse sind nicht vollständig oder ausreichend verstanden», sagte der deutsche Wissenschaftler Michael Bittner gegenüber der «Zeit».

«So etwas haben wir noch nie gesehen»

Trotzig hielten die meisten Wissenschaftler daran fest, dass die Bekämpfung des Ozonlochs eine Erfolgsgeschichte sei. «Das von Menschen gemachte FCKW-Problem ist gelöst, diese Gefahr ist definitiv gebannt», behauptete der deutsche Geophysiker Martin Dameris gegenüber der «Frankfurter Allgemeinen Zeitung». Die Medien applaudierten jedes Mal, wenn Forschungsresultate ein baldiges Ende des Ozonabbaus plausibel machen wollten. «Ozonloch über der Antarktis schliesst sich», verkündete 2016 die «Neue Zürcher Zeitung». «Geht doch!», schrieb die «Zeit».

2018 und 2020 nahm das Ozonloch über der Antarktis wiederum riesige Ausmasse an. Und über der Nordhalbkugel erreichte die Ozonausdünnung letztes Jahr erneut einen Rekordwert.

Doch das Ozonloch blieb. 2018 und 2020 nahm es über der Antarktis wiederum riesige Ausmasse an. Und über der Nordhalbkugel erreichte die Ozonausdünnung letztes Jahr erneut einen Rekordwert. «So etwas haben wir noch nie gesehen», gab sich Wissenschaftler Martin Dameris überrascht. Andere Forscher gestanden ein, dass ein starker Ozonabbau über der Arktis noch für mehrere Jahrzehnte möglich bleibt.

Abkühlung der Stratosphäre als Ursache

Doch jetzt scheint es eine Erklärung zu geben, warum sich das Ozonloch trotz des angeblich erfolgreichen Montreal-Abkommens hartnäckig hält: Der Klimawandel ist schuld. Das ist das Fazit einer Studie des deutschen Alfred-Wegener-Instituts in Zusammenarbeit mit der amerikanischen University of Maryland. Die Studie ist im Fachblatt «Nature Communications» erschienen.
«Damit es zu einem Abbau von Ozon in der Arktis kommt, muss sich die Stratosphäre im Bereich der Ozonschicht stark abkühlen», erklärte Erstautor Peter von der Gathen vom Alfred-Wegener-Institut. Die Analyse meteorologischer Daten der letzten 56 Jahre zeige einen Trend hin zu tieferen Temperaturen in den kalten stratosphärischen Wintern. Die Auswertung von Klimamodellen ergebe klar, dass dieser Trend Teil des Klimawandels sei, so von der Gathen. Denn Treibhausgase wie CO2, die an der Erdoberfläche zur globalen Erwärmung führten, würden eine Abkühlung der höheren Luftschichten in der Stratosphäre fördern.

Katastrophen-Warner können sich bestätigt fühlen

Die Forscher warnten, der Ozonabbau über der Arktis könne sich bis zum Ende des Jahrhunderts noch intensivieren, wenn eine schnelle und konsequente Reduktion der globalen Klimagasemissionen ausbleibe. Dies werde auch in Europa, Asien und Nordamerika die UV-Strahlungsbelastung erhöhen, wenn jeweils Teile des Polarwirbels nach Süden vordringen würden. «Es gibt viele Gründe, die Treibhausgasemissionen schnell und umfassend zu reduzieren», betonte Markus Rex, Co-Autor der Studie. «Eine drohende Verschärfung des Ozonabbaus über der Arktis kommt jetzt noch dazu.»

Wer gerne vor Umweltkatastrophen warnt, darf sich bestätigt fühlen: Das Abkommen von Montreal kann weiterhin als Erfolgsstory gelten. Und der Klimawandel ist scheinbar noch gefährlicher als angenommen.

Gemäss dieser Erklärung ist also wiederum der Mensch schuld, dass das Ozonloch nicht weicht. Er hat zwar den Austoss von FCKW eliminiert, nicht aber den von Klimagasen wie CO2. Mögliche natürliche Ursachen der Ozonausdünnung treten in den Hintergrund. Wer gerne vor Umweltkatastrophen warnt, darf sich bestätigt fühlen: Das Abkommen von Montreal kann weiterhin als Erfolgsstory gelten. Und der Klimawandel ist scheinbar noch gefährlicher als angenommen.



ENDE DER FAHNENSTANGE

von Hans Hoffmann-Reinecke

Wenn die Menschheit demnächst sich dessen gewahr wird, dass sie Corona überlebt hat, dann werden Politik und NGOs neue, und noch schlimmere Szenarien zum Klima auspacken. Ein bekannter Physiker hat nun errechnet, dass zusätzliches CO2 kaum weitere Erwärmung verursachen wird.  Natürlich wird er vom Establishment diskreditiert und angefeindet. Aber vermutlich kann ein Physiker, auch wenn er kein Diplom in Sachen Klima hat, wesentlich mehr zu dem Thema beitragen, als zertifizierte Klimaforscher, die nichts von Physik verstehen.

Wellenlängen und Nobelpreise

Jeder Gegenstand strahlt permanent Energie ab; er glüht gewissermaßen, auch wenn wir das nicht immer sehen. Das „Licht“, welches der Körper von sich gibt, ist für unsere Augen nicht wahrnehmbar. Erst wenn wir den Gegenstand auf ca. 500°C erhitzen, dann sehen wir ein rötliches Leuchten. Ab jetzt beinhaltet seine Strahlung auch Wellenlängen, für die unsere Augen gebaut sind, und erst einmal ist das rot. Die längerwellige, unsichtbare Strahlung, die vorher schon üppig da war, wird als Infrarot bezeichnet, sozusagen „Unter-Rot“.

Der alte weiße Mann Max Planck hat sich über diese Verteilung der Wellenlängen den Kopf zerbrochen und bekam dafür 1918 den Nobelpreis; nebenher trat er dabei auch die Entwicklung der Quantenphysik los.

Vortrag von Will Happer am 21.6.21 im Umweltausschuss zur Sättigung nach Planck & Schwarzschild der CO2 Infrarotaufnahmefähigkeit

Während unser Gegenstand also vor sich hin strahlt verliert er Energie, und zwar umso mehr, je heißer er ist; d.h. er kühlt sich ab. Wie kalt würde er, wenn er ganz alleine für sich im Vakuum des Weltalls unterwegs wäre? Er würde sich langsam aber sicher dem absoluten Nullpunkt nähern, das sind -273°C.

Das freundliche Zentralgestirn

Aber Moment, wir sitzen doch alle auf einer Kugel, die durchs Vakuum des Weltraums fliegt und per Infrarot jede Menge Energie abstrahlt– und diese Kugel wird keineswegs kälter! Im Gegenteil; uns wird doch laufend gepredigt, dass die sich über alle Maßen erwärmen wird, wenn wir nicht sofort aufs Lastenfahrrad umsteigen und unsere Flugreisen stornieren.

Der Grund ist: wir sind nicht mutterseelenallein im All. Da ist die liebe Sonne, die uns zuverlässig mit ihrer freundlichen Strahlung verwöhnt. Sie führt uns großzügig Wärme zu, die genau so bemessen ist, dass die von der Erde in Form infraroter Strahlung abgegebene Energie andauernd ersetzt wird.

Das ist nun wirklich rücksichtsvoll von der Sonne, oder? Nun die Erde hilft dabei mit. Würde die Sonne uns weniger Energie spenden, dann würde auch die Erde ihre eigene Strahlung reduzieren, bis wieder Gleichgewicht herrscht; sie würde einfach ihre Temperatur herunter drehen.

Also, und das ist wichtig: die mittlere Temperatur der Erde wird sich immer so einpendeln, dass die abgestrahlte Energie auf die Dauer gleich der von der Sonne empfangenen ist.

An der Temperatur braucht man nur ein kleines Bisschen zu drehen und die Strahlung ändert sich gleich gewaltig. Würde die Erde nur von 15°C auf 5°C abkühlen, dann ginge die abgestrahlte Energie um 20% zurück. Das ist eine ganze Menge.

Die Pandemie-freundlichen, kontaktlosen Fieberthermometer übrigens nutzen diese Temperatur-Sensibilität, um an der IR Strahlung unserer Haut den winzigen Unterschied zwischen 36,0 und 36,5°C zu erkennen. Die mathematische Beschreibung dafür ist, dass die Strahlungsleistung proportional zur vierten Potenz der absoluten Temperatur ist.

Sie fragen, was das alles mit Klimawandel zu tun hat? Da geht es doch um CO2 & Co. Einverstanden, ich schlage vor, wir schauen und das mal an.

 

Packman, der Photonenschreck

Wir hatten so salopp von der IR-Strahlung gesprochen, welche Energie von der Erde in den Weltraum trägt. Das ist aber nicht so einfach, denn die Strahlen müssen sich ihren Weg erst durch diverse Luftschichten bahnen, vorbei an Molekülen unterschiedlichster Bauart. Die meisten dieser Moleküle sind harmlos, aber unter ein paar Tausend ist auch eines vom Typ „Packman“; das schnappt sich ein Lichtteilchen, ein so genanntes Photon, so wie sich der gute alte Packman ein Pixel schnappte.

Unter den unendlich vielen verschiedenen Photonen, die vorbeirauschen, schnappen sich diese Moleküle nur solche, die eine ganz bestimmte Energie haben, d.h. die zu einer ganz bestimmten Wellenlänge gehören. Nach einer kurzen Weile lassen sie das Photon dann wieder frei. Dieses fliegt ganz erlöst davon, mit Lichtgeschwindigkeit, aber in irgendeine Richtung – nicht unbedingt Richtung Weltraum. Und so wird ein gewisser Anteil dieser Photonen niemals seinen Weg ins All finden. Ihre Energie bleibt letztlich in der Atmosphäre hängen.

Napoleon hatte kein Problem

Die Packman Moleküle, von denen wir hier sprechen, sind vom Typ CO2. Deren Konzentration ist seit vorindustrieller Zeit, etwa seit Napoleon, bis heute um 40% angestiegen: von 280 CO2 Molekülen unter einer Million Luftmolekülen auf gut 400. Eine plausible Erklärung dafür ist der Verbrauch fossiler Brennstoffe durch die Menschheit. Da wird Kohlenstoff, der seit Äonen unter Tage ruhte, an die Oberfläche gebracht und zu CO2 verbrannt, welches in die Luft entweicht.

Wenn nun die Energie, die wir laufend von der Sonne bekommen, nicht mehr so leicht ins All abgestrahlt werden kann wie früher, dann wird die Erde sich erwärmen, um mehr Photonen auf die Reise zu schicken. Sie wird sich so weit erwärmen, bis genügend Photonen an den Packman Molekülen vorbei ihren Weg in den Weltraum finden, und damit die Energiebilanz der Erde wieder ausgeglichen ist.

Das ist des Pudels Kern in Sachen Global Warming.

Der Temperaturanstieg betrug seit Napoleon ca. 1,5°C, wobei die Zunahme in den vergangenen 50 Jahren stärker war. Und auch wenn diese Erwärmung wohl kaum von jemandem als Problem wahrgenommen wurde, so ist da die legitime Frage: wie soll es weiter gehen? Die Apokalyptiker der Klimaszene wissen natürlich, dass jedes zusätzliche Molekül CO2 in der Atmosphäre nur den Untergang bringen kann. Mathematische Betrachtungen aber zeigen, dass bereits heute vermutlich das Ende der Fahnenstange in Sachen Erwärmung durch CO2 erreicht ist.

Der Wald und die Bäume

Stellen Sie sich vor, jemand schießt mit einem Gewehr auf eine Baumgruppe. Da werden einige Kugeln in den Stämmen abgefangen und andere fliegen vorbei. Ein bestimmter Prozentsatz der abgefeuerten Geschosse wird also auf der anderen Seite herauskommen. Wenn Sie jetzt die Bäume immer dichter aufstellen, dann kommen irgendwann gar keine Kugeln mehr durch. Und wenn Sie jetzt die Dichte der Bäume weiter verdoppeln, dann ändert sich nichts mehr am Ergebnis: keine Kugel kommt mehr durch.

So ist das auch mit den Photonen (= Geschossen) und den CO2-Molekülen (= Bäumen). Die Konzentration von CO2 ist heute schon hoch genug , dass die Photonen aus dem besagten engen Energieband kaum noch durchkommen. Würde sich also die CO2-Konzentration von aktuell ca. 400 ppm auf 800 ppm verdoppeln (auch dann hätten wir nicht einmal ein einziges CO2 unter tausend Luftmolekülen), dann hätte das auf die globale Temperatur kaum eine Auswirkung. Aber bevor wir bei den 800 ppm ankommen, würden uns vermutlich die fossilen Brennstoffe ausgehen.

 

Eine gute Nachricht, aber nicht für jeden

Dazu hat der Physiker William Happer genauere Rechnungen angestellt. Er ist ein renommierter Experte auf den Gebieten Atomphysik, Optik und Strahlung. Unter anderem erfand er den „Laser Guide Star“, ein Instrument, welches der Astronomie hilft, die Störungen ihrer Beobachtungen durch die Ablenkung des Lichtes in der Atmosphäre zu korrigieren.

Professor Happer hat also gerechnet und kam zu dem Ergebnis, dass die globale Temperatur ganz ohne CO2 (und andere Treibhausgase) bei neun Grad Celsius unter Null läge (Hier sein Vortrag), weil die Abstrahlung ungehindert ins All ginge. Diesen Planeten Erde hat es vermutlich nie gegeben, ein Leben auf ihm wäre jedenfalls nicht möglich gewesen – aus diversen Gründen.

Die heutige mittlere Temperatur mit der aktuellen CO2-Konzentration ist 15°C, und würde sich die Konzentration verdoppeln, dann würde es nur um weniger als ein Grad wärmer! Das ist doch eine gute Nachricht; nur ein Bruchteil von einem Grad ist also der Worst Case in Sachen Global Warming. Dafür ruinieren wir heute die Wirtschaft der westlichen Welt, dafür traumatisieren wir unsere Schulkinder, dafür verunstalten wir die Landschaft mit Windmühlen und Photovoltaik, dafür finanzieren wir einen milliardenschweren Klimazirkus.

Natürlich wird Happer von Klima-Establishment angefeindet, und wie üblich kritisiert man ihn persönlich und nicht seine Forschung. Man wirft ihm vor, dass er die Regierungen Bush und Trump beraten hat. Und er sei kein Klimaforscher, sondern nur Physiker. Aber ich glaube, dass ein Physiker, der kein Diplom in Sachen Klima hat, wesentlich mehr zu dem Thema sagen kann, als zertifizierte Klimaforscher, die nichts von Physik verstehen.

(Die hier wiedergegebenen Überlegungen beziehen sich auf ein Szenario,

  • In dem man so etwas wie eine „mittlere Erdtemperatur“ T messen kann;
  • Dass T in den vergangenen Jahrzehnten angestiegen ist;
  • Dass die Zunahme von CO2 in der Atmosphäre die wesentliche Ursache dafür ist.

Keine dieser Thesen ist aus wissenschaftlicher Sicht bewiesen, aber sie sind das Fundament, auf dem die heutige Klimapolitik aufbaut. Mein Artikel soll beschreiben, dass auch innerhalb dieses – keineswegs gesicherten – Szenarios die Prognose eines bedrohlichen Temperaturanstiegs alles andere als plausibel ist).

Dieser Artikel erschien zuerst im Blog des Autors Think-Again. Sein Bestseller „Grün und Dumm“ ist bei Amazonerhältlich.