Erste Erkennung von Klimawandel auf einem anderen Planeten?

Falschfarbenbild der Nachtseite der Venus, aufgenommen mit der IR2-Kamera auf Akatsuki bei 1,735 µm (blau) und 2,26 µm (rot) und Mischung der beiden (grün). Auf der Nachtseite der Venus beobachtet IR2 das Infrarotlicht, das aus der unteren Atmosphäre durch die Wolken kommt, und der Schatten der Wolken ist im Bild zu sehen. Hier werden Hell und Dunkel umgekehrt, um Wolken in weißlicher Farbe anzuzeigen. (Bildnachweis: JAXA / PLANET-C-Projektteam –http://cosmos.isas.jaxa.jp/?p=700)

Akatsuki hat möglicherweise entdeckt, warum sich die Atmosphäre der Venus so schnell dreht. Der Grund kann für die Bewohnbarkeit erdgroßer Exoplaneten eine entscheidende Rolle spielen.

Die Venus ist ein Planet, der in Größe und Masse fast wie die Erde ist. Dies ist eine wesentliche Studie, um die möglichen Bedingungen auf felsigen Planeten zu verstehen. Ein bestimmendes Merkmal unserer Nachbarwelt ist eine dichte, dicke Atmosphäre, deren reflektierende Eigenschaften die Astronomen dazu verleiteten, den Planeten nach der mythologischen Göttin der Schönheit zu benennen – die Fähigkeit der Atmosphäre Wärme einzufangen, treibt jedoch die Oberflächentemperatur bis zum Schmelzpunkt von Blei.

Ausgewählte Werte zum Vergleich der Planeten
Quelle: Mark A. Garlick, „Der große Atlas des Universums“, Kosmos Verlag, 2011, 2. Ausg.

Erde Venus
Durchschnittlicher
Sonnenabstand
149,6 Mio km (1AE) 108,2 Mio km (0,72 AE)
Sonneneinstrahlung
gemittelt
1361 Watt/m² (max,
oberer Rand der Atm.)
(Erde = 1) 1,91
Äquatordurchmesser 12.756 km 12.104 km
Rotationsdauer (siderisch, d.h. vollständige Umdrehung) 23,93 h 243 Tage (retrograd = rückläufig)
Masse 5,974 x 10^24 kg (Erde = 1) 0,82
Volumen 1,08 Bill km³ (Erde = 1) 0,86
Gravitation an Oberfläche 1 g (9,8 m/s²) (Erde = 1) 0,91
Durchn. Dichte 5,5 (Wasser = 1) 5,24
Druck an der Oberfläche 101,4 kP (Erde = 1) 92
Höchsttemperatur 58°c 464 °C
Tiefstemperatur -88°C (~-94°C akt. !)

Ergänzung durch den Übersetzer

 

Die seltsamste Erscheinung der venusianischen Atmosphäre ist vielleicht ihre Geschwindigkeit. Winde peitschen um den Planeten bis zu 60-mal schneller als sich die Oberfläche dreht; ein Phänomen, das als atmosphärische Superrotation bekannt ist.

Die Windgeschwindigkeiten auf der Venus sind in den oberen Wolkenschichten mit mehr als 100 m/s (360 km/h) recht hoch. Die Oberfläche des Planeten dreht sich jedoch extrem langsam. Der Planet umkreist die Sonne in 225 Erd-Tagen, benötigt jedoch 243 Erd-Tage, um sich um seine Achse zu drehen, wodurch der Venus-Tag (eine vollständige Umdrehung) länger dauert als ein Venus-Jahr.

Abbildung der Gezeiten- Verriegelung. Die grüne Region des Satelliten (Mond oder Planet) ist niemals von der Oberfläche des Zentralkörpers (Planet oder Stern) aus sichtbar. (Bildnachweis: en.wikipedia/)

Eine solche langsame Rotation kann ein übliches Merkmal von Exoplaneten in Erdgröße sein, wie dem TRAPPIST-1-System und Proxima Centauri-b, deren enge Umlaufbahnen zu ihrem Stern wahrscheinlich zu Blockierung der Rotation geführt haben. Wie der Mond, der die Erde umkreist, dreht sich eine tidally locked world [Gezeitensperre] einmal pro Umlaufbahn, so dass eine Seite permanent dem Stern (der Sonne) zugewandt ist, während die andere eine ewige Nacht erlebt. Planeten mit langsamer Rotation und erdähnlichen Atmosphäre müssen die Wärme effizient um den Planeten transportieren, oder sie riskieren den Zusammenbruch der Atmosphäre, wenn auf der kalten Nachtseite die Welt gefriert. Ein solch katastrophales Ende könnte vermieden werden, wenn tidally-locked Welten typischerweise die schnellen Winde einer superrotierenden Atmosphäre haben.

Also, was ist die Ursache für die Super-Rotation der Venus?

Klassisch gibt es zwei Hauptthesen für die Super-Rotation. Im ersten Szenario führt der Reibungswiderstand der Atmosphäre über der Planetenoberfläche zu einer Verlangsamung der Rotation des Planeten, um die Winde zu beschleunigen (Gierasch-Rossow-Williams-Mechanismus). Im zweiten Szenario werden die Winde aufgrund der Erwärmung durch die Sonne (so genannte Solarthermie) angeregt.

Modelle des ersten „Surface-Up“ -Mechanismus sind bekanntermaßen empfindlich für die genauen Startbedingungen auf dem Planeten. Geringfügige Änderungen der Temperaturverteilung des Planeten können die Super-Rotation töten oder einleiten. Dies lässt vermuten, dass relativ wenige sich langsam drehende Welten zu atmosphärisch erhaltenden, superdrehenden Winden führen würden, da die Bedingungen auf dem Planeten genau richtig sein müssten.

Künstlerische Gestaltung des Akatsuki Venus Klima-Orbiters, der sich der Venus nähert.

Super-Rotation auf der Venus wurde jedoch sowohl an den oberen Wolkenschichten als auch in Tiefen von mehreren zehn Kilometern beobachtet. Könnte der Einfluss der Sonne angesichts der Tatsache, dass die Venus einen großen Teil des einfallenden Sonnenlichts reflektiert, tatsächlich die Superrotation der mittleren Schichten antreiben?

Die Raumsonde Akatsuki (japanisch „Morgendämmerung“) drang am 7. Dezember 2015 in den Orbit der Venus ein. Am dritten Jahrestag des Orbit-Einsatzes fand in Tokio eine Pressekonferenz statt, um die neuesten Ergebnisse zu diskutieren.

Unter der Leitung des International Top Young Fellow (JAXA’s prestigeträchtiges Postdoc-Stipendienprogramm), Dr. Javier Peralta , präsentierte die Pressekonferenz die Ergebnisse einer neuen Studie, die  im Dezember in dem  Astrophysical Journal Supplement veröffentlicht wurde.

Dr Javier Peralta, ITYF at ISAS/JAXA und Hauptautor dieser Studie.

In dieser Studie verwendete Peralta 466 Bilder der Venuswolken, die von der IR2-Kamera auf Akatsuki bei einer Infrarotwellenlänge von 2,26 Mikrometern zwischen März und November 2016 aufgenommen wurden. Durch den Vergleich von Bildern, die zu verschiedenen Zeitpunkten aufgenommen wurden, konnte Peralta die Wolken verfolgen, während sie um die venusianische Kugel herumschwirrten, um ihre Geschwindigkeit zu messen.

An der Tagseite der Venus wird die Atmosphäre durch das einfallende Sonnenlicht beleuchtet.

Stark reflektiert wird das sowohl in ultravioletten wie auch in infraroten Wellenlängen durch die oberen Wolkenschichten in einer Höhe von 60 bis 70 km oberhalb der Planetenoberfläche. Die nächtliche Beleuchtung wird jedoch durch Infrarotwärme erzeugt, die von Venus ‚heißer Oberfläche ausgeht. Dies wird teilweise durch Wolken in tieferen Höhenlagen zwischen 48 und 60 km blockiert. Da die Wolken für dieses Infrarotlicht unterschiedliche Transparenz haben, werden ihre Formen sichtbar, wenn sie mit der IR2-Kamera von Akatsuki betrachtet werden. Es waren diese tieferen Wolken der Nachtseite, die Peralta aufspürte.

Falschfarbenbild der Nachtseite der Venus unter Verwendung von mit IR2-Kamera aufgenommenen Bildern von 1,735 um (blau) und 2,26 um (rot). (Bildnachweis: JAXA / PLANET-C-Projektteam)

Der Cloud-Tracking-Algorithmus (Wolken-Verfolgung) von Peralta war halbautomatisch und wurde sowohl manuell als auch per Computer durchgeführt. Die Wolken wurden manuell identifiziert und dann per Software kartiert und das Ergebnis erneut von Hand bestätigt.

Das Ergebnis waren 2.947 Windmessungen, die ein interessantes Muster zeigten. Es gab eine deutliche Beschleunigung der Wolken, die an den Standort der Sonne gebunden war. Dies deutet stark darauf hin, dass die Sonnenstrahlung sich auch weit unterhalb der oberen Atmosphäre auf die Wolken auswirkt.

In niedrigeren Höhenschichten war diese Beschleunigung vorwiegend zonenförmig (wickelte sich westwärts um den Planeten), wobei keine meridionalen (Nord-Süd-) Windbeschleunigungen festgestellt wurden. Dies deutete auf ein von der Sonne angetriebenes System hin, da die Oberfläche zu Windströmungen in beide Richtungen hätte führen sollen. Peralta ist jedoch vorsichtig, als er darauf bestand, dass dies „Fall nicht abgeschlossen“ sei.

„Bei den Meridianwinden ist mit Akatsuki kein klarer Trend zu erkennen“, sagte er. „Aber wir sollten das bestätigen, indem wir Windmessungen mit noch höherer Genauigkeit versuchen.“

Peralta hofft, dass die kombinierten Ergebnisse von Akatsuki und Venus Express der Europäischen Weltraumorganisation noch mehr über dieses System enthüllen könnten. Animationen, Bilder und die Windmessungen der Peralta-Studie stehen zum Download zur Verfügung und können von der Community erkundet werden.

Peralta sichtete auch andere Daten als nur von Akatsuki und verglich die Ergebnisse früherer Venus-Missionen bis ins Jahr 1978. Wobei es schwierig ist, die Ergebnisse von Instrumenten verschiedener Raumsonden und Bodenteleskope zu vergleichen,

Peraltas Ergebnisse deuteten darauf hin, dass sich die Windgeschwindigkeiten der Venus in den letzten dreißig Jahren verändert haben. Eine solche Entdeckung stimmt nicht nur mit einem Solartreiber überein, sondern kann auf die erste Erkennung von Klimawandels auf einem anderen Planeten hinweisen.

„Wenn die Gezeiten der Sonne durch superrotierende Winde angetrieben werden, kann dies bedeuten, dass sich die Wolkenalbedo (das Maß der Reflektion) im Laufe der Zeit verändert hat und die Auswirkungen der Sonnenstrahlung beeinflusst hat“, erklärt Peralta.

Ein solches Ergebnis ist eine gute Nachricht für tidally-locked Welten. Wenn der superrotierende Wind der Venus von der Sonne angetrieben werden kann, könnte eine solche schnelle Zirkulation bei langsam drehenden, aber möglicherweise gemäßigten Welten um andere Sterne üblich sein. Während das Wetter unter einer super-rotierenden Atmosphäre sich sehr von dem auf der Erde unterscheiden würde, könnte es dem Planeten ermöglichen, seine Atmosphäre und sogar die gewünschten Oberflächenbedingungen für das Leben zu erhalten.

Durch den Vergleich der beiden erdgroßen Planeten in unserem eigenen Sonnensystem, können wir viel mehr darüber lernen, was es braucht, um eine bewohnbare Welt zu sein.

Weitere Information: The Akatsuki spacecraft homepage

Journal paper by Peralta et al. (uneingeschränkter Zugang)

Nachtwinde an den unteren Venuswolken mit Akatsuki / IR2: Längen-, Ortszeit- und Dekadavariationen aus dem Vergleich mit früheren Messungen

Abstrakt

Wir zeigen Messungen der Windgeschwindigkeiten an den nächtlichen unteren Venuswolken aus Beobachtungen der JAXA-Mission Akatsuki im Jahr 2016, ergänzt durch neue Windmessungen aus bodengestützten Beobachtungen, die mit dem TNG / Near Infrared Camera Spectrometer (NICS) von 2012 und IRTF / aufgenommen wurden. SpeX in den Jahren 2015 und 2017. Die zonalen und meridionalen Komponenten der Winde wurden mittels Cloud-Tracking an insgesamt 466 Akatsuki- Bildern der Venus gemessen, die mit der Kamera IR2 unter Verwendung der 2,26 μ aufgenommen wurden-Filter mit räumlichen Auflösungen von 10 bis 80 km pro Pixel und Abdeckung vom 22. März bis 31. Oktober 2016. Mehr als 149.000 Windvektoren wurden mithilfe einer automatischen Schablonenanpassungstechnik erhalten, und 2947 Windvektoren wurden mithilfe eines manuellen Verfahrens abgeleitet. Die Meridianprofile beider Windkomponenten stimmen mit den Ergebnissen der Venus Express- Mission in den Jahren 2006–2008 überein. Allerdings ist eine stärkere Windvariabilität für die Zonenkomponente in äquatorialen Breiten zu erkennen, in denen Akatsuki- Beobachtungen eine bessere Betrachtungsgeometrie als Venus Express aufweisen. Die zonalen Winde in niedrigen Breiten deuten auch auf eine zonale Variabilität hin, die mit Sonnenfluten oder sich vertikal ausbreitenden orographischen Wellen zusammenhängen könnte. Schließlich deutet die Kombination unserer Windmessungen aus TNG / NICS-, IRTF / SpeX- und Akatsuki- Bildern mit den von 1978 bis 2017 veröffentlichten Daten auf Variationen von bis zu 30 ms −1 im Wind an den nächtlichen unteren Venuswolken hin.

***

Gefunden auf Whatsupwiththat vom  24.01.2019

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2019/01/24/first-detection-of-climate-change-on-another-planet/




KARNEVAL VORVERLEGT? Kohlekommission: Deutschland steigt aus der Vernunft aus

Die Kraftwerke standen bisher nahe an den Zentren, in denen der Strom gebraucht wurde. Er musste nicht verlustreich quer durchs Land transportiert werden. Überlandleitungen dienten als Ringversorgung, um Ausfälle auszugleichen. Das funktionierte hervorragend und zuverlässig, Strom war preiswert. Das soll nicht mehr sein.

Jetzt soll viel Geld verpulvert werden, um irgendetwas anderes zu machen. Was – ist noch nicht so ganz klar, aber neue Lösungen müssen her. Und Geld. Die Rede ist von 40 weiteren Milliarden, die den Milliarden für die Energiewende hinterhergeworfen werden sollen. Wo die künftig herkommen sollen, kann denen egal sein, die jetzt so groß von einer neuen Zukunft erzählen. Dann sind sie schon lange nicht mehr auf ihren Posten.

Stanislaw Tillich (CDU), Co-Vorsitzender der Kohlekommission, meinte, die Leute in den Regionen hätten nun Gewissheit und eine klare Perspektive und fügt im Klartext hinzu, dass sie allerdings auf die »Solidarität aller Deutschen angewiesen« seien. Sprich: Kohle her für Kohle weg.

Für RWE ist klar, dass dieser Beschluß einen »signifikanten Stellenabbau« bedeutet. Bundeswirtschaftsminister Peter Altmaier kündigt schon einmal Milliarden aus den Kassen an: »Wir sind bereit, einen sehr schnellen Start der Finanzierung zu machen. Dafür steht Geld im Bundeshaushalt zur Verfügung.«

Vorzeigeland? Nicht in Fragen der Logik

Heidewitzka, Herr Kapitän! klingts auch aus dem Munde von Finanzminister Olaf Scholz: »Wenn wir uns alle anstrengen und das gemeinsame Ziel nicht aus den Augen verlieren, können wir Deutschland zu einem energiepolitischen Vorzeigeland weiterentwickeln.«

Nur Bundesumweltministerin Svenja Schulze hat – oje – ausgerechnet, dass Studien ihres Ministeriums ergeben hätten, dass »keineswegs« mit einem Preisanstieg zu rechnen sei.

»Wir brauchen Ehrlichkeit«, mahnt Brandenburgs Ministerpräsident Dietmar Woidke (SPD) an. »Wenn wir aus der Kohle aussteigen, dann ist es automatisch, dass der Strompreis steigt. Er wird auf 35, 40 oder auch 50 Cent steigen.«

Ein paar Kilometer weiter in Tschechien kostet der Strom 15 Cent, in Frankreich 16 Cent und in Ungarn 11 Cent.

Spätestens in 20 Jahren soll das letzte Kohlekraftwerk in Deutschland vom Netz gehen. Das hat die Kommission mit dem wohlklingenden Namen »Wachstum, Strukturwandel und Beschäftigung« als Handlungsempfehlung beschlossen. Sie wurde einberufen, »um einen breiten gesellschaftlichen Konsens über die Gestaltung des energie- und klimapolitisch begründeten Strukturwandels in Deutschland herzustellen.«

Der Abschlussbericht hält fest: »Die Mitglieder der Kommission stellen einen breiten Querschnitt der gesellschaftlichen, politischen und wirtschaftlichen Akteure dar. Das schafft die Grundlage für einen tragfähigen gesellschaftlichen Konsens, auf den sich alle Beteiligten in den kommenden Jahren verlassen können.« Genau das ist sie nicht. Sie ist eine manipulativen Einrichtung, die die Beschlüsse des Bundestags vorweg nehmen soll. Demokratie wird von oben verordnet und mit einer gefällig zusammengesuchten Kommission manipuliert.

Unter den 31 Mitgliedern der Kommission saß kein einziger Vertreter, der etwas mit der Energieversorgung eines Noch-Industrielandes zu tun hatte. CDU, SPD und grüne Politiker dominierten neben einem Geschäftsführer der Greenpeace NGO, die gern mal mit gelben Farbanschlägen Bürger in Berlin terrorisiert, daneben eine Aktivistin, die »seit über 12 Jahren bürgerschaftlich und klimabewegt als Netzwerkerin im Rheinischen Revier« aktiv ist, der unvermeidliche Ex-Potsdam Instituts-Mann Hans Joachim Schellnhuber, ein Bundesvorstandsmitglied des DGB (dass es den noch gibt, Gewerkschaft zählt jetzt für „Wirtschaft“), und ein Verdi-Mann. Sie haben alle Mühe, Gigawatt nicht mit Giga-byte zu verwechseln.

Vorbild: Jene unselige Kernenergie-Kommission, die 2011 den Ausstieg als ethisch geboten nachträglich rechtfertigen sollte und in der auch kein einziger Fachmann saß. Ein bewährtes Muster also für eine Regierung, sich Absolution zu holen, ohne das Parlament behelligen zu müssen. Nein, das ist keine Kommission, die einen breiten Konsens widerspiegelt, sondern mit einem klaren politischen Auftrag an die Sache ging. Die Vorsitzende Barbara Praetorius beispielsweise wird indirekt aus dem Bundesumweltministerium finanziert – Unabhängigkeit ist etwas anderes.

Historische Aufgabe: Ein Industrieland abschalten

Die Kommission mit Ronald Pofalla an der Spitze berauschte sich erkennbar an der Größe ihrer Aufgabe: »Die schrittweise Reduzierung und Beendigung der Kohleverstromung ist eine historische Aufgabe.«, schreibt sie in den Bericht.

Immerhin ist zu ihnen vorgedrungen, wie wichtig Kohle ist: »Seit Jahrzehnten ist die Kohle wesentlicher Bestandteil der sicheren Energieversorgung in Deutschland. Sie hatte so entscheidenden Anteil an der wirtschaftlichen Entwicklung Deutschlands zu einer weltweit führenden Industrienation.«

Verwundert schaut man aus dem Ausland auf den Haufen ›absurdes Theater‹ Spielender, die trunken ob ihrer »Vorbildfunktion« für teures Geld Stuss verbreiten: »Die für einen erfolgreichen Klimaschutz notwendige Reduzierung und Beendigung der Kohleverstromung kann nur dann erfolgreich und mit Vorbildfunktion gelingen, wenn eine Reihe von Anforderungen in Einklang gebracht werden.«

Letztlich ist es eine Umverteilung von Geld in irrsinnigen Dimensionen. Vorwand: Klimaschutz. »Die Folgen des Klimawandels sind in Deutschland bereits heute spürbar«, erzählt der Bericht. »Die Zahl extremer Wetterereignisse in Deutschland hat sich in den letzten 50 Jahren mehr als verdoppelt.«

Dann müssen die Märchenerzähler aus Potsdam wieder herhalten: »Wissenschaftliche Studien zeigen, dass infolge der anthropogenen Erderwärmung Wetterextreme zunehmen, sowohl mit Bezug auf Trockenheit und Hitze, als auch auf Starkniederschläge.« (siehe hier, auf Seite 18)

Der Abschlssbericht lobt: »Der Ausbau der Erneuerbaren Energien ist mit einem Anteil von inzwischen gut 38 % am Brutto- Inlands-Stromverbrauch bereits stark vorangeschritten.«

»Der aktuelle Koalitionsvertrag formuliert das Ziel, dass der Anteil erneuerbarer Energien im Jahr 2030 auf 65 % steigt. Der Ausbau der erneuerbaren Energien soll netzsynchron erfolgen. Die erneuerbaren Energien sind das zentrale Element des neuen Stromerzeugungssystems, um das vorhandene, auf fossilen Energieträgern basierende, zu ersetzen.«

An Sprache und Grammatik hapert es lesbar im Bericht, das ficht den Willen zur Veränderung nicht an.

Eine Monsteraufgabe

»Der Zubau installierter Leistung von erneuerbaren Energien allein reicht allerdings nicht aus, um die Nachfrage jederzeit zu decken. Daher ist eine Reihe von Herausforderungen zu bewältigen:

  • Erneuerbare Energien werden stärker Aufgaben konventioneller Kraftwerke übernehmen im Bereich netzdienlicher Systemdienstleistungen, beispielsweise Blindleistung.
  • Es werden ein rascher Netzausbau und optimierter Netzbetrieb sowie Fortschritte bei der Integration von Speichern und Sektorkopplung benötigt (vgl. Kapitel 4.4).
  • Gleichzeitig muss die Flexibilisierung der Nachfrage durch bessere Rahmenbedingungen vorangetrieben werden.«

»Für den Ausbau der erneuerbaren Energien auf 65 % ist eine ausreichende Flächenausweisung notwendig. Insbesondere müssen für Windenergieanlagen und Freiflächen-PV-Anlagen Flächen in relevanter Größe ausgewiesen, akzeptiert und genehmigt werden.«

Im Klartext: Die rund 30.000 Windanlagen, die millionenfach Vögel, Fledermäuse und Insekten umbringen und das Land verschandeln, reichen nicht. Und: „müssen akzeptiert werden“ – heißt das: Gegner der Landschaftsvernichtung werden verbal niedergeknüppelt, um das Phantasiestromland zu retten?

Irgendwie fällt der Kommission auch auf, dass ohne Leitungen kein Strom übertragen werden kann: »Im letzten genehmigten Netzentwicklungsplan (NEP 2017) war der Netzausbau auf einen Anteil erneuerbarer Energien am Bruttostromverbrauch von bis zu 52,5 % (Szenario B) ausgelegt.«

Nur klappt das mit dem Ausbau der Übertragungsnetze mit einer Gesamtlänge von 7.700 km nicht so recht: »Realisiert waren im 3. Quartal 2018 erst 950 km, davon 30 km im Jahr 2017, genehmigt sind 1.800 km, noch zu genehmigen 5.900 km (77 %), noch umzusetzen 6.750 km (88 %). Deshalb sind der weitere Ausbau und die Optimierung der Stromnetze sowie die weitere Flexibilisierung des Energiesystems Voraussetzung dafür, dass die Systemsicherheit auch künftig gewährleistet bleibt.«

Nur wer nach über 10 Jahren festen Glaubens an einen neuen Flughafen auf dessen Fertigstellung hofft, kann von einem Ausbau der Überlandleitungen in diesen Größenordnungen träumen.

Es fallen häufig die Hohlfloskeln »Modernisierung« und »Digitalisierung«, um die vorhandenen Netze besser zu nutzen, »innovative Netzbetriebsmittel« und »flexibler Betrieb fossiler Kraftwerke« ebenso wie das Zauberwort der »Höchstspannungs-Gleichstrom-Übertragungsleitungen«, mit der Windstrom aus dem Norden nach Süden geführt werden soll. Die gibt es noch nicht.

Die Staatssender klatschen jedenfalls begeistert Beifall: »Ein guter Kompromiss« meint eine Tagesschau-Kommentatorin, die Bundesregierung müsse »entschieden dafür einstehen und viel Geld lockermachen.« Klar, das Prinzip ist ihr bekannt, das Geld kommt von Zwangsgebühren.

Die Kraftwerke laufen weiter – nur woanders und mit Kohle

Dazu quillt immer wieder das totalitäre »Verpflichtung« auf: »Deutschland hat sich dazu im Rahmen der EU-Vereinbarungen für das Paris-Abkommen verbindlich verpflichtet.« Sogar verbindlich verpflichtet, ein einfaches »verpflichtet« reicht nicht.

Außer »Vorbild« fällt ihr nicht viel ein: »Es ist ein Kraftakt, wenn ein Industrieland aus Atom und Kohle aussteigt. Ob Deutschland damit gleich wieder »Klimavorreiter« und »Vorbild« für so viele andere werden kann, ist offen. Aber so groß wie jetzt war die Chance selten«, schwärmt sie.

Die stillgelegten Kraftwerke können einem anderen Geschäftsmodell dienen, das schon seit einiger Zeit erfolgreich praktiziert wird: Gebrauchte Kraftwerke abmontieren und nach China exportieren. Die Demontage der modernen Kokerei Kaiserstuhl in Dortmund vor 15 Jahren markierte den Anfang eines neuen Industrie-zweiges, dem Export deutscher Spitzentechnologie. Jetzt sind noch fast neue Dieselautos dazugekommen.

Strom soll nur noch Reichen vorbehalten bleiben, hat sich die SPD auf die Fahnen geschrieben. Umweltministerin Schulze fügte bei Twitter hinzu: »Der Kohleausstieg ist übrigens nur EIN Teil dessen, was insgesamt beim Klimaschutz passieren muss. Auch in anderen Bereichen wie Verkehr oder Landwirtschaft brauchen wir Kompromissfähigkeit und Lösungswillen.« Und drohend: »Das werden wir mit einem Klimaschutz-Gesetz sicherstellen.«

Im Klartext: Verkehr und Landwirtschaft sollen als nächstes teuer gemacht werden.
Und Energiewende üben können jetzt schon mal die Schüler, deren Schule zur Zeit häufig ausfällt, weil zuvor die Heizungen ausgefallen sind. Sind die Kraftwerke weg, gibt es auch keine Fernwärme mehr.

Der Beitrag erschien zuerst bei TICHYS Einblick hier




Das CO2 Derangement Syndrome – eine historische Übersicht

Dies führt dazu, dass die natürliche Klimazyklus-Variabilität als ängstigend und emotional erdrückend wahrgenommen wird. Die Fähigkeit zu kritischem Denken ist schwer beeinträchtigt. Die von der Öko-Linken-Aktivisten-Elite bewohnte Welt der Täuschung wird verkörpert durch die wissenschaftsbasierte Fiktion von Naomi Oreskes bei Harvard: „Der Kollaps der westlichen Zivilisation: Eine Sicht aus der Zukunft“.

Oreskes und Conway stellen sich eine vom Klimawandel zerstörte Welt vor. Intellektuelle Hybris, Voreingenommenheit, Eigeninteresse und die Notwendigkeit, sich sofort mächtig und gleichzeitig moralisch rechtschaffen zu finden, brachte all jene der am schlimmsten Betroffenen, also Politiker, Regierungen, die politisch sich korrekt äußernden Klassen und fast sämtliche Medien in den USA und UK dazu, davon überzeugt zu sein, dass anthropogenes CO2 der Haupt-Klimatreiber ist. Dies ließ Regierungen Maßnahmen ergreifen, durch welche Billionen Dollar verschwendet worden sind in dem weltfremden und vergeblichen Versuch, die Temperatur der Erde mittels Reduktion von CO2-Emissionen zu kontrollieren.

Die Ursprünge dieser Krankheit können auf das Buch von Paul Ehrlich aus dem Jahr 1968 zurückgeführt werden mit dem Titel „The Population Bomb“. Dort schrieb er:

Während der siebziger Jahre werden Millionen Menschen verhungern, ungeachtet jedweder sofort eingeführter Notfallprogramme. Zu diesem späten Zeitpunkt kann nichts mehr eine substantielle Zunahme der Todesrate in der Welt verhindern“.

Derartige apokalyptische Prophezeiungen sind ein primärer Indikator des CO2 Derangement Syndrome. Dem „Die Grenzen des Wachstums“ betitelten Buch aus dem Jahr 1972 zufolge äußerte sich die Krankheit zunächst in Gestalt einer Suche nach „Nachhaltigkeit“ und wandelte sich dann rasch zu einem Krieg gegen CO2 um. Dies ist eine sehr bizarre Wendung, ist doch CO2 die Grundlage allen organischen Lebens, und die CO2-Zunahme allein ist Ursache einer Zunahme der Welt-Nahrungsmittel-Produktion im 20. Jahrhundert um 25%.

Die UN und Schweden organisierten im Jahre 1972 ein Treffen in Stockholm, um über Wechselwirkungen zwischen Mensch und Umwelt zu diskutieren. Maurice Strong wurde von seinem Freund bei den UN U Thant zum Generalsekretär der Tagung ernannt. Strong entwarf einen unglaublich detaillierten 109-Punkte-Plan, um den UN die Macht zu geben, weltweit Einfluss auf die Umweltpolitik individueller Regierungen auszuüben und diese sogar zu kontrollieren. Als Grundlage dieses Programms wurde im Jahre 1973 das United Nations Environmental Program (UNEP) ins Leben gerufen mit Strong selbst als geschäftsführendem Direktor.

Zehn Jahre später wurde offensichtlich, dass die Prophezeiungen sofortiger Todesfälle und Katastrophen falsch waren. Aber Hansen et al. bei der NASA ließen im Jahre 1981 viele dieser Untergangs-Prophezeiungen wieder auferstehen, und zwar in einem Traktat mit dem Titel „Climate Impact of Increasing Carbon Dioxide”:

Ein Anstieg des Meeresspiegels um 5 Meter würde 25% der Landfläche von Florida und Louisiana überfluten, 10% von New Jersey sowie viele andere Tieflandgebiete auf der ganzen Welt. Klimamodelle zeigen, dass eine Erwärmung um 2°C nötig ist, um auf dem Westantarktischen Eisschild eine Erwärmung um 5°C zu verursachen. Eine globale Erwärmung von 2°C wird in allen von uns untersuchten CO2-Szenarien im 21. Jahrhundert überschritten außer unter der Annahme des Auslaufens von Kohle und Null-Wachstum.

Die für das nächste [21.] Jahrhundert projizierte globale Erwärmung ist von fast beispielloser Größenordnung. Auf der Grundlage unserer Modellrechnungen schätzen wir, dass sie 2,5°C betragen wird in einem Szenario mit geringem Energie-Zuwachs und einer Mischung aus fossilen und nicht fossilen Treibstoffen. Dies würde noch über die Temperatur der Minoischen Warmzeit (vor 3500 Jahren) und des Eemian vor 125.000 Jahren hinausgehen und würde sich der Temperatur während des Zeitalters der Dinosaurier annähern. … Die Kohle zu Kraftwerken transportierenden Züge sind Todeszüge. Kohlekraftwerke sind Fabriken des Todes.

falls wir alle fossilen Treibstoffe verbrennen, werden wir den Planeten, so wie wir ihn kennen, zerstören. Der Kohlendioxid-Gehalt würde auf 500 ppm und mehr steigen. Wir würden den Planeten auf den Weg in einen eisfreien Zustand bringen, wobei der Meeresspiegel 75 Meter höher liegt“.

Für politische und eigensüchtige Ziele wollen die UNEP-Bürokraten die Kontrolle über die globale Ökonomie übernehmen. Sie erkannten, dass die UN (und sie selbst) die Kontrolle über die Ökonomie der Welt übernehmen könnten via Kontrolle über die Art der verwendeten Energie und deren Preis, falls sie Hansens Prophezeiungen dazu heranziehen könnten zu zeigen, dass das durch Verbrennung von Kohle und Öl erzeugte CO2 zur Stromerzeugung und zum Auto fahren Regierungen und Menschen derart verängstigt, dass diese die entsprechenden Gesetze auf den Weg bringen.

Um dies in die Wege zu leiten, organisierte das UNEP im Jahre 1985 eine Tagung von Wissenschaftlern in Villach in Österreich um auszuloten, ob es möglich war aufzuzeigen, dass CO2 gefährlich ist. In dem wissenschaftlichen Report liest man:

Obwohl die beobachtete globale Erwärmung während der letzten ~100 Jahre kompatibel ist mit Modellschätzungen der Größenordnung des Treibhauseffektes, ist eine eindeutige, statistisch überzeugende Erkennung der Auswirkung einer Änderung des CO2-Gehaltes und anderer Spurengase auf das Klima noch nicht möglich. Ein bedeutendes Problem der positiven Identifikation des Treibhausgas-Effektes auf das Klima besteht darin, die mittel- und langzeitlichen (d. h. über Jahrzehnte oder mehr) Fluktuationen in den Aufzeichnungen der Vergangenheit zu erklären. Versuche, derartige Änderungen zu modellieren, leiden bis heute unter einer ganzen Reihe von Schwächen.

In der offiziellen Verlautbarung dazu steht jedoch etwas ganz anderes:

Als Folge der zunehmenden Konzentration von Treibhausgasen glaubt man jetzt, dass ein Anstieg der globalen mittleren Temperatur während der ersten Hälfte des nächsten Jahrhunderts stärker ausfallen könnte denn je in der Historie der Menschheit“.

Der Villach-Report gab zwei bedeutende Empfehlungen. Als eine davon wurde das IPCC ins Leben gerufen, welches die passenden Beweise heraussuchen und von Zeit zu Zeit Berichte erstellen sollte, in welchen gezeigt werden würde, dass CO2 der Haupttreiber eines gefährlichen Klimawandels war. Eine zweite Empfehlung führte zu einer Tagung in Rio im Jahre 1992 unter Vorsitz von Maurice Strong selbst, der das United Nations Framework Convention on Climate Change (UNFCCC) erstellte, welches nachfolgend von 196 Regierungen unterzeichnet worden ist.

Das Ziel der Convention ist es, die CO2-Konzentrationen in der Atmosphäre auf einem Niveau zu halten, welches ihrer Ansicht nach verhindern kann, dass der Mensch auf gefährliche Weise das Klimasystem beeinflusst.

Dieser Vertrag ist ein umfassender, politisch getriebener politischer Aktionsplan namens Agenda 21 – darauf ausgelegt, eine zentral gesteuerte globale Gesellschaft zu schaffen, welche jeden Aspekt des Lebens eines jeden Einzelnen auf der Erde kontrollieren würde.

Es heißt darin:

Die Teilnehmer sollten vorsorglich Maßnahmen ergreifen, um den Ursachen des Klimawandels zu begegnen, diese zu verhindern oder zu minimieren sowie dessen negative Auswirkungen abzuschwächen. Wo die Gefahr ernster oder irreparabler Schäden besteht, sollte das Fehlen voller wissenschaftlicher Gewissheit nicht als Grund herangezogen werden, derartige Maßnahmen zu verschieben“.

Apokalyptische Prophezeiungen werden herangezogen als Haupttreiber für Maßnahmen und für enorme Investitionen wie in jene des neuen IPCC SR1.5-Reports und in die Arbeit von William Nordhaus, welcher sich für eine Kohlenstoff-Steuer einsetzt. Die NYT zitiert Nordhaus mit den Worten:

Falls wir während der nächsten 20 Jahre sehr schnell vorgehen, könnten wir in der Lage sein, diese 2 Grad zu vermeiden, aber wenn wir das nicht tun, stehen uns Änderungen im System Erde bevor, die in aller Tiefe zu verstehen wir nicht beginnen können. Eine Erwärmung um 4, 5, 6 Grad wird Änderungen nach sich ziehen, die wir nicht verstehen können, weil sie außerhalb jeder menschlichen Erfahrung liegen während der letzten 100.000 bis 200.000 Jahre“.

Nordhaus‘ wissenschaftliche und ökonomische Grundlage wird diskutiert in „Projections and Uncertainties about Climate Change in an Era of Minimal Climate Policies” (hier), worin zu lesen ist:

Die Klima-Komponenten wurden durchforstet, um jüngste Modelle des Systems Erde zu reflektieren. Die Gleichgewichts-Klimasensitivität (ECS) beruht auf der Analyse von Olsen et al. (2012). Grundlage für dieses Verfahren ist die Arbeit von Gillingham et al. (2018). Die finale Schätzung ist eine mittlere Erwärmung um 3,1°C bei einer CO2-Verdoppelung. Die kurzzeitige Klimasensitivität oder TCS wird adjustiert, damit sie zu den Modellen mit einem ECS von 3,1°C passt, was eine TCS von 1,7°C erzeugt“.

Im IPCC SR1.5 heißt es:

C2: Die globale Erwärmung auf 1,5°C zu begrenzen ohne oder mit nur einem geringfügigen Überschreiten würde rasche und weit reichende Transitionen bzgl. Energie, Landfläche, Städte und Infrastruktur erfordern (einschließlich Transportwesen und Gebäude) sowie industrielle Systeme (hohes Vertrauen). Diese System-Transitionen sind beispiellos hinsichtlich der Größenordnung, aber nicht notwendigerweise hinsichtlich der Geschwindigkeit; und sie implizieren drastische Emissions-Reduktionen in allen Bereichen, ein breites Portfolio von Abschwächungs-Optionen und eine signifikante Aufwertung von Investitionen in jene Optionen (mittleres Vertrauen).

C2.6: [Zusammengefasst vom Übersetzer] Eine Begrenzung der Erwärmung auf 1,5°C bis zum Jahr 2050 würde Investitionen zwischen 180 bis 1800 Milliarden Dollar erfordern, nach anderen Modellen bis zu 3800 Milliarden Dollar. …

Diejenigen, welche das Erwärmungs-Szenario missionieren, folgen eng den Vorgaben des politischen Maßnahmen-Plans Agenda 21 des UNFCCC. Bernie Sanders sagt dazu:

Der Klimawandel ist die größte Bedrohung, vor der unser Planet steht. Die Debatte ist vorüber, und die wissenschaftliche Beurteilung steht: globaler Klimawandel ist real, wird hauptsächlich verursacht durch Emissionen aus der Verbrennung fossiler Treibstoffe und stellt eine katastrophale Bedrohung dar für das langfristige Überleben unseres Planeten. Falls wir nichts tun, wird sich der Planet bis zum Ende dieses Jahrhunderts um 2,5°C aufheizen. Dies würde ausreichen, um den Meeresspiegel infolge schmelzender Gletscher so stark steigen zu lassen, dass Städte wie New York oder Miami unter Wasser stehen werden – begleitet von häufigeren Asthma-Anfällen, höheren Preisen für Nahrungsmittel, unzureichender Versorgung mit Trinkwasser und mehr Infektionskrankheiten“.

Die Abgeordnete der Demokraten Alexandria Ocasio-Cortez schlug vor, den Reichen eine Steuer bis zu 70% aufzuerlegen, um einen Klimawandel-Plan zu finanzieren, den sie den „New Green Deal“ nennt. Sie sagt außerdem, dass die Welt in 12 Jahren aufhören wird zu existieren, falls wir dem Klimawandel nicht begegnen“ (hier).

Glücklicherweise beginnt aber schließlich die Realität in das Memo der gefährlichen globalen Erwärmung einzudringen. Judith Curry schreibt in ihrem Beitrag 2017 mit dem Titel [übersetzt] „Klimamodelle für Laien“:

GCMs sind nicht geeignet, die Ursachen für die Erwärmung während des 20. Jahrhunderts zu ergründen oder globale oder regionale Klimaänderungen in Zeitmaßstäben von Jahrzehnten und Jahrhunderten mit irgendeinem Vertrauensniveau abzubilden. Dies bedeutet, dass GCMs nicht geeignet sind, um politische Maßnahmen auszulösen oder zu rechtfertigen, welche die Sozial-, Wirtschafts- und Energiesysteme der Erde fundamental verändern würden …“

Scafetta et al. (2017) schreiben:

Die erhebliche Diskrepanz zwischen Beobachtungen und modellierten Prophezeiungen … bestätigt einmal mehr …, dass die derzeitigen Klimamodelle den anthropogenen Treibhaus-Erwärmungseffekt erheblich übertrieben haben“.

Hansen et al. (2018) schreiben in ihrem Beitrag „Global Temperature in 2017“:

Allerdings ist die solare Variabilität im Vergleich mit dem Energie-Gleichgewicht nicht vernachlässigbar, wenn es um die globale Temperaturänderung geht. Wegen der Kombination des starken El Nino 2016 und der Phase des Sonnenzyklus‘ ist es möglich, wenn nicht wahrscheinlich, dass die nächsten 10 Jahre der Temperaturänderung den Eindruck eines Stillstands hinterlassen“.

Page (2017) sagte in seiner Studie „The coming cooling: usefully accurate climate forecasting for policy makers“:

Diese Studie zeigt auf, dass die von der etablierten Klimawissenschaft angewendeten Verfahren nicht geeignet sind, um darauf Vorhersagen zu erstellen, und dass ein neues Vorhersage-Paradigma übernommen werden sollte“.

Die Realität ist, dass das Klima der Erde die Folge von Resonanz und Überlagerung ist zwischen verschiedenen quasi-zyklischen Prozessen verschiedener Wellenlängen.

Die Zukunft vorherzusagen ist unmöglich, solange wir nicht verstehen, wo sich die Erde derzeit befindet relativ zu den gegenwärtigen Phasen dieser unterschiedlichen, in Wechselwirkung stehenden Quasi-Periodizitäten, welche sich in zwei Hauptkategorien gliedern:

Die orbitalen langwelligen Milankovitch-Zyklen bzgl. Exzentrizität, Schiefe und Präzession.

Zyklen der Sonnen-„Aktivität“ mit möglichen Zeitmaßstäben von Jahrzehnten bis Jahrzehntausenden.

Wenn man komplexe Systeme mit zahlreichen, miteinander in Wechselwirkungen stehenden Variablen analysiert, ist es nützlich, dem Rat von Enrico Fermi zu folgen, welcher dem Vernehmen nach gesagt hat: „Man mache niemals etwas genauer als absolut nötig“. Die Studie aus dem Jahr 2017 stellte der Klimawissenschaft ein einfaches heuristisches Konzept vor, welches plausibel klärt, dass ein Millenial Turning Point [etwa ein Milleniums-Wendepunkt] und ein Maximum der Sonnenaktivität im Jahre 1991 aufgetreten waren und dass dieser Wendepunkt mit einem Temperatur-Wendepunkt korreliert während der Jahre 2003/4, und dass jetzt ein allgemeiner Abkühlungstrend folgt bis etwa zum Jahr 2650 [?].

Das Memo einer gefährlichen globalen Erwärmung seitens des Establishments, die damit verbundene Reihe von IPCC-Berichten, der gesamte UNFCCC-Zirkus, die jüngsten hysterischen Vorschläge im IPCC SR1.5 und der jüngste Nobelpreis von Nordhaus beruhen auf zwei grundlegenden Fehlern der wissenschaftlichen Beurteilung. Erstens – der Umfang der Stichprobe ist zu gering. Die meisten IPCC-Modellstudien ziehen Rückschlüsse von der Gegenwart nur etwa 100 bis 150 Jahre zurück, obwohl doch die wichtigsten Klimafaktoren, die größte Amplitude der Sonnenaktivitäts-Zyklen im Zeitmaßstab von Jahrtausenden ablaufen.

Dies bedeutet, dass alle Temperatur-Simulationen von Klimamodellen zu warm ausfallen und wahrscheinlich außerhalb der realen zukünftigen Welt liegen. Zweitens, die Modelle machen den fundamentalen wissenschaftlichen Fehler einer direkten Vorhersage über den Milleniums-Wendepunkt und den Höhepunkt der Sonnenaktivität im Jahre 1991 hinaus. Diese Fehler werden verschlimmert durch verzerrte Darstellungen und einen akademischen Gruppendenken-Konsens.

Dr. Norman Page holds a PhD. in Geology and works from Houston, TX.

References:

See the Energy and Environment paper  The coming cooling: usefully accurate climate forecasting for policy makers. http://journals.sagepub.com/doi/full/10.1177/0958305X16686488

And an earlier accessible blog version at http://climatesense-norpag.blogspot.com/2017/02/the-coming-cooling-usefully-accurate_17.html   

See also  https://climatesense-norpag.blogspot.com/2018/10/the-millennial-turning-point-solar.html

and the discussion with Professor William Happer at  http://climatesense-norpag.blogspot.com/2018/02/exchange-with-professor-happer-princeton.html

striche

Link: https://wattsupwiththat.com/2019/01/23/the-co2-derangement-syndrome-a-historical-overview/

Übersetzt von Chris Frey EIKE




Der Hype um die „Quantum Glass“-Batterie

Dieser hinaus posaunte Durchbruch der Batterie-Technologie ist der Jüngste in einer Menge innovativer Ideen, worunter auch „Batterien mit Sand“, „dehnbare Batterien“, „Schaum-Batterien“, „Harn-Batterien“, „lasergestützte Mikro-Super-Kondensatoren“ und weitere sind (13 erstaunliche Batterie-Innovationen, welche die Welt verändern können).

Gerissene Investoren sind am Ball

Obwohl sie sich noch in der Entwicklungsphase von Prototypen befinden, klingt die verkündete Innovation großartig. Einige Innovationen kommen gar nicht so weit. Unnötig zu sagen, dass all die großen Zauberer Bill, Jeff, Mark, Michael, Richard usw. allesamt hinter der neuen Entwicklung stehen.

Sollte man ihnen beispringen?

Mit Schnipseln wie „Todesstoß für Lithium-Ionen-Batterien“ und „BP investiert…“ könnte man denken, dass es eine sichere Sache ist.

Und außerdem, auch nur eine dünne Scheibe dieser (vermuteten) Billionen-Dollar-Revolution könnte einem gut tun. Ist das nicht einen Einsatz wert?

Falls man jedoch immer noch nicht überzeugt ist – wie wäre es, diese neue Batterie das nächste Mal bei Zielübungen auf dem Schießplatz zu nutzen? Der Investor Matthew McCall schreibt:

Also, was passiert, wenn nicht nur eine, sondern DREI Kugeln (Kaliber .22 Remington) den neuen, welterschütternde Batterietyp treffen, welchen Fortuna den „Heiligen Gral“ der Energie-Speicherung nennt?

Nicht nur, dass diese Batterie alle drei Kugeln aufnimmt – sie erzeugt nichtsdestotrotz einwandfrei Energie – ohne einen Herzschlag lang auszusetzen“ (Dabei zeigt er ein Bild mit einer von einer Kugel getroffenen Batterie).

Aber es gibt noch ein weiteres Wunder dieser Innovation, nämlich die Geschwindigkeit, mit der die Batterie wieder aufgeladen werden kann:

McCall weiter:

Insidern der Automobilbranche zufolge kann ein Fahrzeug, welches mit der „Quantum Glass“-Batterie angetrieben wird, ein Elektrofahrzeug innerhalb von 60 Sekunden aufladen“.

Das geht dann schneller als das Auffüllen eines Benzintanks“.

Noch andere behaupten, dass eine volle Ladung ausreicht, mit einem Auto 1000 Meilen weit zu fahren. Rechnen wir das einmal schnell durch. Selbst ein Leichtgewicht-Auto würde auf ebenem Grund eine Minimalenergie von 120 kWh für diese Distanz benötigen. Bei einer vollen Wiederaufladung der verbrauchten Energie innerhalb von 60 Sekunden muss die Energie-Übertragungsrate 2 kWh pro Sekunde betragen (oder 7200 kWh pro Stunde). Ein normal großes Heizelement (Energieverbrauch 1500 W) verbraucht diese Energiemenge innerhalb 1 Stunde. Folglich wäre jene Energie-Übertragungsrate von 2 kWh pro Sekunde äquivalent zu einem Energieverbrauch von etwa 4000 derartiger Elemente. Setzt man die typischen (120/240 V) Haushaltsstrom mit einer Kapazität von 200 amp an, beträgt die maximal daraus entnehmbare Energie 50 kWh pro Stunde (oder 0,012 kWh pro Sekunde). Folglich würde man also zusätzlich weitere Paneele und viel mehr herkömmliche 12-Gauge-Kabel [?] benötigen, um diese Batterien zu hause aufzuladen oder eine deutlich längere Aufladezeit als 60 Sekunden in Kauf zu nehmen.

Und außerdem

Industrie-Insidern zufolge ist die Technologie hinter der Quantum Glass Battery ausgesprochen preiswert zu erzeugen. Sie könnte den Autobauer Kosten von lediglich 30 Dollar pro Kilowattstunde verursachen mit der Weiterentwicklung dieser Technologie“.

Das steht im Vergleich zu etwa 200 Dollar pro kWh Speicherkapazität der gegenwärtig erhältlichen Lithium-Ionen-Batterie, welche in Elektrofahrzeugen und in vielen batteriegetriebenen Einrichtungen im Einsatz sind.

Mann, wenn einen das nicht überzeugt – was dann?

Könnte es sein, dass einen gerade dieses erstaunliche Ausmaß des Hypes zurückhält?

Link: https://canadafreepress.com/print_friendly/the-quantum-glass-battery-hype

Übersetzt von Chris Frey EIKE




Jeder Erwerbs­tätige bezahlt doch gerne bis zu 12.000 EUR für eine Temperatur­reduktion von weniger als 0,001 Grad im Jahr 2100

Die „Kugel Eis im Monat“ wird zur Endlosschleife

Nun ist der Vorschlag der Kohlekommission durch und alle, inklusive unseren Einheitsmedien, überschlagen sich ob des großen Erfolges für das Klima: Deutschland rettet wieder die Welt. Diesmal nicht mittels Mord und Totschlag, sondern friedlich, und vorbildlich, so dass sich alle Politiker wohlig darin sonnen können: mit dem Geld seiner Bürger:
T-Online 26.01.2019: Kohleausstieg kostet 40 Milliarden Euro
Handelsblatt 24.01.2019: DIHK-Präsident warnt vor Kosten für Kohleausstieg von bis zu 170 Milliarden Euro

Die Spanne reicht vom Startwert für die reinen Anfangsmaßnahmen von 40 Milliarden, bis zu vorsichtigen Nennungen der wahrscheinlichen Gesamtkosten von 170 Milliarden EUR.
Wer die Schätzungen für „öffentliche Baumaßnahmen“ und deren in aller Regel explosiven Kostensteigerungen kennt, weiß, dass die wirkliche Summe viel wahrscheinlicher an, wenn nicht über der oberen Summe, unwahrscheinlich dazwischen, schon gar nicht an der unteren Grenze liegen wird.

Doch unsere Umweltministerin glänzt mit einer Vorhersage, welche noch schwachsinniger ist, als die damalige mit der Kugel Eis von Herrn Trittin und belegt damit wieder, dass bei diesem Job das Auswahlkriterium noch nie Intelligenz, oder wenigstens im Ansatz ähnliches war:
WELT 27.01.2019: Kohleausstieg bis 2038 Umweltministerin erwartet keine steigenden Strompreise

Es mag ja sein, dass die Strompreise nicht steigen, wenn künftig – um Proteste zu verhindern, oder weit Schlimmeres: Ankreuzen der falschen Partei durch von unserer Ein(heits)parteienrepublik genervte Wähler*innen – ein von den verbliebenen Steuerzahlern zu finanzierender Stromsozialismus eingeführt wird. Aber irgend jemand bezahlt es doch. Und das werden wieder nicht die diesmal vor dem Klima geretteten Weltbewohner sein.

Ein CO2-Molekül auf 26.316.000 wird es nach der vollständigen Abschaltung nun jedes Jahr weniger

Rechnet man anstelle mit der Temperatur mit der Anzahl eingesparter Moleküle, wird der beschlossene Wahnsinn deutlicher:
Die ab der vollständigen Abschaltung eingesparten, jährlichen 300 Mio t CO2 aus den Braunkohlekraftwerken, ersparen der Atmosphäre jährlich 0,038 ppm von dem aktuellen 400 ppm CO2-Anteil.
Das sind:
– auf 1.000.000.000 (1 Milliarden) CO2-Moleküle 38 Moleküle jährlich weniger,
– auf 26.316.000 (26,316 Millionen) CO2-Moleküle jedes Jahr ein sagenhaftes Molekül weniger,
– in den 81 Jahren bis zum Jahr 2100 dann 81 Mal so viel, also in Summe bereits ein reduziertes Molekül auf „nur noch“ 324.886 CO2-Moleküle, falls sofort abgeschaltet würde

Das Ermitteln der wirklich reduzierten Molekülzahl – es sind leider weniger – spart sich der Autor.
Entsprechend ist der Einfluss auf die globale Temperatur:

0,001 Grad Temperaturrettung bis zum Jahr 2100

Immer neu muss man sich klar machen, um welche Temperaturbeträge es somit bei dieser verkündeten Klimarettung geht.
Berechnet mit dem wahrscheinlichen Forcing in der Größenordnung von 1 K/CO2-Verdopplung (die, welche von 0,6 K oder weniger reden, ganz ausgenommen),
– beträgt die Temperaturverringerung, welche die Erdenbürger im Jahr 2100 (nicht) messen können, sagenhafte 0,00125 °C. Dazu müsste das CO2 allerdings sofort auf Null reduziert werden.
– Mit der aktuellen Ausstiegsplanung liegt der Effekt irgendwo in der Größenordnung von unter 0,001 Grad.
Selbst im gemäßigten Deutschland, welches von allen Wetterextremen verschont ist, beträgt die Spanne der Min-/Max-Temperatur mindestens 60 Grad. Da machen die 0,001 Grad weniger im Jahr 2100 wirklich viel aus, wie es die Kohlekommission für unsere Medien wohl überzeugend dargelegt hat.

Mancher mag einwenden, die Kohlekommission hat ja mit dem IPCC-Forcing gerechnet und dann ist es sinnvoll, wie es Herr Hubert Weiger in einem Interview betonte:
Interview (im BR Inforadio) mit Herrn Hubert Weiger, Vorsitzender des Bunds für Umwelt und Naturschutz und Mitglied in der Kohle-Ausstiegskommission. Seine Aussage: Die Kohle muss weg – darüber wird auch nicht mehr diskutiert, da es beschlossen ist. Das erfordert der Klimaschutz und, weil Deutschland ein Vorbild für die Welt sein muss.

Vielleicht sind manche der Überzeugung, dass 0,003 Grad Klimarettung im Jahr 2100 (gerechnet mit dem IPCC-Forcing von 3 K/CO2-Verdopplung) wirklichen Sinn ergeben und die Kosten rechtfertigen. So viele (27:1), wie in der Kohlekommission werden es im Verhältnis aber wohl nicht sein. Zur Entschuldigung muss man selbstverständlich sagen: In der Kommission war ganz viel von der angeblich staatstragenden Intelligenz – und wenig vom normalen Bürger – versammelt.

Tabelle der Temperaturverringerung durch sofortiges, vollständiges Abschalten aller deutschen Braunkohlekraftwerke bis zum Jahr 2100

Wer bezahlt es

Anbei eine kleine Übersicht, wie sich die Kosten aufteilen könnten. Dabei daran denken: Viele der statistisch Erwerbstätigen, können es auch nicht bezahlen. Es wird also – wie immer – die „Zahlkäftigen“ davon überproportional treffen.

Tabelle Kosten des Kohleausstiegs

Der Autor hofft bei den vielen Nullen (nicht die in der Kohlekommission) keinen Zählfehler gemacht zu haben. Allerdings kommt es auf einige mehr oder weniger wirklich nicht an.