Eine Story der Manipulation von CO2-Daten

Der natürliche Anteil von CO2 in der Atmosphäre liegt bei 0,04%, das ist alles andere als das wichtigste Treibhausgas, geschweige denn das einzige, anders als es der größte Teil der Öffentlichkeit sieht.

Wasserdampf, dem Volumen nach mit einem Anteil von 95% an Treibhausgasen, ist bei weitem das häufigste und bedeutendste Treibhausgas.

Das andere relevante Treibhausgas ist Methan (CH4), aber es macht nur zu 0,000175% aller atmosphärischen Gase aus und 0,036% aller Treibhausgase.

Um die Bedeutung von CO2 aufzublähen, erzeugte man eine Maßzahl, genannt „Klimasensitivität“. Damit ist gemeint, dass CO2 als Treibhausgas „effektiver“ ist als Wasserdampf.

Hier folgt eine Tabelle von Wikipedia, welche Schätzungen der Effektivität der verschiedenen Treibhausgase zeigt. Man beachte die Bandbreite der Schätzungen, welche die Maßzahlen effektiv bedeutungslos macht – es sei denn, man hat eine politische Agenda. Wikipedia räumt ein: „Es ist nicht möglich festzustellen, dass ein bestimmtes Gas einen bestimmten Prozentanteil des Treibhausgas-Effektes auslöst“:

Das Ergebnis der Bestimmung der „Effektivität“ war die Erzeugung einer Karte des Global Warming Potential (GWP). Sie war ähnlich der Karte der Ozone Depleting Substances (ODS) [Ozon zerstörende Substanzen], welche nach der falschen Behauptung konstruiert worden war, dass CFCs das Ozon in der oberen Atmosphäre angreifen.

Schätzungen der Größe der der Atmosphäre hinzugefügten menschlichen CO2-Erzeugung werden vom IPCC erzeugt. Es behauptet, dass es 3% der Gesamtmenge des hinzugefügten CO2 ausmacht.

In den frühen IPCC-Berichten wurde kolportiert, dass die Verweildauer von CO2 in der Atmosphäre mindestens 100 Jahre beträgt. Obwohl die 100 Jahre nicht erwähnt werden, ist diese Angabe nach wie vor auf vielen Websites der Regierung implizit präsent. Zum Beispiel heißt es bei Environment Canada: „Da Kohlendioxid lange Zeit in der Atmosphäre verbleibt, wird sich dessen Niveau durch fortgesetzte menschliche Emissionen immer weiter erhöhen“. Die tatsächliche Verweildauer von CO2 beträgt aber nur 5 bis 7 Jahre. Danach wird es von natürlichen Senken absorbiert wie Pflanzen, Ozeane und Erdboden.

Der Ozean ist der Haupt-Kontrolleur des atmosphärischen CO2, aber dessen Fähigkeit variiert mit der Wassertemperatur. Ein kalter Ozean absorbiert mehr als ein warmer Ozean.

Menschen erzeugen CO2, aber sie entfernen es auch aus der Atmosphäre. Land- und Forstwirtschaft sind die Haupt-Absorber, welche geschätzt 50% der Gesamtproduktion aus der Atmosphäre entfernen.

Antarktische Eisbohrkerne zeigen, dass die Temperatur vor einer Zunahme des CO2-Gehaltes gestiegen war. Eine ähnliche Relation findet sich in jeder Aufzeichnung welcher Dauer auch immer und für alle Zeiträume. Trotzdem sind alle Computer-Modelle so programmiert, dass eine CO2-Zunahme auch eine Temperaturzunahme verursacht.

Kohlendioxid ist für das gesamte Leben auf der Erde unabdingbar. Forschungen belegen, dass der gegenwärtige Anteil von etwa 392 ppm etwa ein Drittel des Optimums für die meisten Pflanzen ausmacht. Empirische Beweise, ermittelt durch Einleitung von CO2 in kommerzielle Gewächshäuser, zeigen das optimale Niveau zwischen 1000 und 1200 ppm. Interessanterweise entspricht dies dem mittleren Niveau der letzten 300 Millionen Jahre.

Die zweite große Datenmanipulation involvierte CO2, die Zielscheibe des gesamten UNEP und des IPCC. Wie kann man „industrialisierte Nationen loswerden“, wie es Maurice Strong fordert. Die Quelle für deren Energie und Erfolg sind fossile Treibstoffe. Man vergleiche die Nation mit einem Auto. Das ist eine gute Analogie, weil viele das Auto dämonisieren als das Symbol der Industrialisierung, besonders in den USA. Man kann das Auto anhalten, indem man die Benzinzufuhr kappt. Das Gleiche kann man mit einer Nation machen, aber es würde augenblicklich eine negative Reaktion nach sich ziehen. Man denke einfach nur an die Reaktion, wenn die Treibstoffpreise explodieren. Man kann das Auto auch anhalten mittels Blockierung der Abgase, und das hat Potential für die Anwendung auf eine Nation. Man zeige, dass das Nebenprodukt des Autos – oder der Nation – das Klima zerstört, und man hat ein mächtiges Zugpferd, um eine Agenda voranzutreiben, das Auto oder die Industrie zu verbannen. Das ist effektiver, wenn man dem Nebenprodukt das Stigma eines Verschmutzers aufdrückt.

Die Isolation begann, als das IPCC den Klimawandel als ausschließlich auf menschliche Ursachen beruhend apostrophierte. Die Definition für Klimawandel stammt aus dem United Nations Environment Programme (Artikel 1) des United Nations Framework Convention on Climate Change (UNFCCC):

„…eine Änderung des Klimas, welche direkt oder indirekt menschlichen Aktivitäten zugeordnet werden kann, wodurch die Zusammensetzung der globalen Atmosphäre verändert wird und welche zusätzlich zur natürlichen Klimavariabilität auftritt, die über längere Zeiträume beobachtet wird“.

In einer weiteren seiner betrügerischen Machenschaften verwarf das IPCC die ursprüngliche Definition von Klimawandel, wie sie von der UNFCCC festgelegt worden war und die in die ersten drei IPCC-Berichte Eingang gefunden hatte, bevor sie im Bericht 2007 ersetzt worden ist. Beschrieben wird dies in einer Fußnote in der Summary for Policymakers: „Klimawandel im Sinne des IPCC meint jedwede Änderung des Klimas mit der Zeit, sei diese nun der natürlichen Variabilität oder menschlichen Aktivitäten geschuldet. Diese Definition unterscheidet sich von derjenigen im UNFCCC, wo Klimawandel sich ausschließlich auf eine Änderung bezieht, die direkt oder indirekt menschlichen Aktivitäten zugeordnet werden kann, wodurch die Zusammensetzung der globalen Atmosphäre verändert wird und welche zusätzlich zur natürlichen Klimavariabilität auftritt, die über längere Zeiträume beobachtet wird“. Das Problem dabei: Man hat den Vierten Zustandsbericht nicht verändert, weil die Berichte kumulativ sind und es daher keine Grundlage für die Einbeziehung der natürlichen Variabilität existiert.

Tabellen mit den vom IPCC herangezogenen Faktoren belegen, dass sich nichts geändert hat. Hier folgt die Tabelle aus dem IPCC-Bericht 2001:

Was darin auffällt:

1. Wasserdampf, das bedeutendste Treibhausgas, ist gar nicht erst aufgeführt.

2. Nur die Sonneneinstrahlung ist gelistet – dabei ist das nicht der einzige Faktor, mit welchem die Sonne das Klima beeinflusst. Falls man ausschließlich menschliche Gründe listet, wie beeinflussen wir dann die Sonneneinstrahlung?

3. Die Spalte rechts zeigt das Level of Scientific Understanding (LOSU).

4. Behauptungen eines „großen“ Verständnisses sind wissenschaftlich nicht gerechtfertigt.

5. Neun Faktoren sind gelistet – davon sind nur zwei hoch, aber vier niedrig und 2 Med-niedrig.

6. Die vom Menschen verursachte Gesamtänderung wird gemittelt mit 1,6 W/m² angegeben (Bandbreite 0,6 bis 2,4)

Im Report 2007 wurde keine neuen Variablen hinzugefügt – trotz der neuen angeblichen Definition. Wie es mit Allem, was das IPCC macht, so geht: das, was fehlt oder verändert wurde, erzählt die Story:

1. Die LOSU-Spalte ist verschwunden.

2. Die Spalte mit der Bandbreite der Schätzungen des Strahlungsantriebs (RF) ist verschwunden.

3. Wasserdampf fehlt immer noch

4. Zahlen für die Bandbreite des menschlichen Antriebs fehlen, aber dem Augenschein nach blieben sie unverändert.

5. Der menschliche Gesamt-Effekt scheint weiterhin bei 1,6 W/m² zu liegen.

6. Dies zeigt, dass die behauptete Zunahme von menschlichem CO2 nicht enthalten ist.

Es verbleibt das Problem: Da man nicht weiß, wie viel CO2 es gibt oder wie stark es sich auf natürliche Weise verändert, kann man nicht bestimmen, welcher Anteil menschlichen Aktivitäten geschuldet ist. Jede einzelne Angabe ist im besten Falle eine grobe Schätzung.

Mittels des Designs unterstreichen alle vom IPCC genannten Zahlen bzgl. CO2-Aufnahmen aus natürlichen Quellen und menschlichen Emissionen:

Emissionen:

Menschen und Tiere                                          45 bis 52

Ausgasen aus Ozeanen (tropische Gebiete)      90 bis 100

Vulkanische und andere Geo-Quellen              0,5 bis 2

Boden-Bakterien, Verrottung und Verfall         50 bis 60*

Waldrodungen und -brände                            1 bis 3

Anthropogene Emissionen (2010)                      9,5

Gesamt:                                                      196 bis 226,5

*Andere veröffentlichte Werte: 26 Gt bzw. 86 bis 110 Gt

Aufnahme

Vegetation auf dem Festland                             55 bis 62

Ozeane                                                               87 bis 95*

Algen, Phytoplankton, Seetang                          48 bis 57

Verwitterung (Silizium-Mineralien)                      3 bis 6

Gesamt                                                          193 bis 220

Andere veröffentlichte Werte: 68 bis 110 bzw. 30 bis 50 Gt

Die Differenz beträgt +1,5 bis 3 Gt pro Jahr, was übereinstimmt mit der jährlichen Zunahme (abhängig von der ENSO-Aktivität)

Man beachte, dass Fehlerbandbreite für Schätzungen der Ausgasungen aus Ozeanen und Bodenbakterien die Gesamt-Emissionen der Menschen übersteigt.

Die menschliche CO2-Erzeugung steht im Mittelpunkt des IPCC, so dass es die Verbreitung von Informationen kontrolliert. Wie fast alles, was das IPCC macht, findet das hinter verschlossenen Türen statt, aber es weiß, dass einige Menschen um die Bedeutung wissen. Man erklärt das Verfahren so:

Welche Rolle spielt das IPCC bei den Treibhausgas-Untersuchungen und berichtet dem UNFCCC?

Das IPCC hat eine Reihe von Verfahrensberichten bzgl. nationaler Treibhausgas-Untersuchungen erzeugt mit dem Ziel, international akzeptable Untersuchungs-Verfahren zu beschreiben. Das IPCC akzeptiert die Verantwortung, wissenschaftliche und technische Ratschläge zu geben bzgl. spezifischer Fragen mit Bezug zu jenen Untersuchungsverfahren, welche in diesen Berichten enthalten sind. Das IPCC hat eine Task Force eingerichtet, welches das National Greenhouse Gas Inventory Programme (NGGIP) betreiben soll, um diese Beratung bzgl. der Verfahren zu erstellen. Mitglieder des UNFCCC haben beschlossen, den IPCC-Leitlinien bei Berichten an die Konvention zu folgen.

Wie erzeugt das IPCC diese Leitlinien? Zur Nutzung der IPCC-Verfahren entwerfen nominierte Experten aus der ganzen Welt die Berichte, welche dann exzessiv zweimal begutachtet werden, bevor sie vom IPCC angenommen werden. Dieses Verfahren stellt sicher, dass die breitest mögliche Bandbreite von Standpunkten in die Dokumente einfließt.

Mit anderen Worten: das IPCC kontrolliert die gesamte Prozedur, von der Verfahrensweise über die Art der technischen Beratung, die Einrichtung von Task Forces, Leitlinien der Berichterstellung, Nominierung von Experten zur Erstellung der Berichte bis zur endlichen Annahme dessen, was die Berichte enthalten. Man stützt sich auf Daten von individuellen UN-Mitgliedsstaaten, aber jedwede Untersuchung der UN-Daten enthüllt sehr schnell deren Unzulänglichkeiten. Beispiel: Man betrachte die Länder welche eine Alphabetisierungs-Rate von 99% oder höher für sich in Anspruch nehmen.

Die IPCC-Zahlen der jährlichen Video, dass der menschliche Anteil keinerlei Auswirkungen hat. Er zeigt, dass Variationen der natürlichen (nicht menschlichen) CO2-Quellen fast alle jährlichen Änderungen erklären. Er zeigt, wie eine Variation um lediglich 5% dieser Quellen mehr ausmacht als die gesamte menschliche Erzeugung.

Teilweise erklärt sich der IPCC-Fehler dadurch, dass die Klimawissenschaft davon ausgeht, dass Änderung und Variabilität ungewöhnlich seien, wie das Diagramm illustriert. Sie zeigen nicht den Fehler in den Schätzungen der Volumina, welche in mindestens drei Bereichen, Atmosphäre, Ozeane und Vegetation/Erdboden, weit über Schätzungen der gesamten menschlichen Erzeugung hinausgehen. Das gilt selbst dann, wenn man die vom IPCC behauptete jährliche Zunahme heranzieht.

Die folgende Abbildung zeigt die Prozentanteile von Treibhausgase in der Atmosphäre:

Ein anderes Diagramm zeigt diese Anteile in anderer Form:

Man vergleiche dieses Diagramm mit dem Folgenden von der Website des ABC News Network. Sie zeigt die Verzerrungen durch den Betrug des IPCC. Wasserdampf, das bei Weitem bedeutendste Treibhausgas, taucht nicht einmal auf. Dies ist ein Beweis für den Erfolg, die gesamte Aufmerksamkeit auf das CO2 zu lenken.

Es gibt viele Missverständnisse über CO2, alle erzeugt, um die Hypothese zu stützen und das Bedrohungsniveau auf verschiedene Weise zu erhöhen. Zum Beispiel lautet eine frühe IPCC-Behauptung, dass die Verweildauer von CO2 in der Atmosphäre mindestens 100 Jahre lang ist. Das war ostentativ dazu gedacht, uns glauben zu machen, dass selbst bei sofortiger Beendigung der CO2-Erzeugung der angerichtete Schaden noch lange Zeit währen wird. Heute wissen wir, dass die Verweildauer etwa 5 bis 6 Jahre beträgt.

Die grundlegende Annahme der Hypothese sagt, dass ein CO2-Anstieg einen Temperaturanstieg verursacht. Nach der Veröffentlichung von Petit et al. (1999) schienen antarktische Eisbohrkerne diesen Befund zu belegen, wie der IPCC-Bericht 2001 meint:

Abbildung: antarktischer Eisbohrkern

Aber nur vier Jahre später erschien der Beweis, dass die grundlegende Annahme der Hypothese falsch war. Ein detaillierterer Blick darauf zeigte nämlich, dass die Temperatur vor einer Zunahme des CO2-Gehaltes gestiegen war, was ein kompletter Widerspruch zur Hypothese war. Irgendwie wurde das aber beiseite gefegt, vermutlich wegen der ablenkenden Behauptung, dass die Verzögerung zwischen 80 und 800 Jahren beträgt. Das spielt jedoch keine Rolle, weil es immer noch der zugrunde liegenden Hypothese widerspricht. Noch überzeugender ist die Tatsache, dass sich die einer CO2-Änderung vorausgehende Temperaturänderung in fast allen Aufzeichnungen für jedwede Periode oder Dauer zeigt. Sehr merkwürdig ist, dass dieser Widerspruch von allen Befürwortern und zu vielen Skeptikern ignoriert wird. Die folgende Abbildung zeigt einen kürzeren Zeitraum der Aufzeichnung bzgl. dieser Relation:

Abbildung: zeitliche Verzögerung über einen kurzen Zeitraum, 1958 bis 2009

Es ist logisch anzunehmen, dass falls eine CO2-Änderung wirklich einer Temperaturänderung in jeder Aufzeichnung hinterher läuft, CO2 kein Treibhausgas sein kann. Und trotzdem ist die Hypothese, dass eine CO2-Zunahme eine Temperaturzunahme bewirkt, in allen globalen Klima-Computermodellen enthalten einschließlich jener, die das IPCC heranzieht.

Das IPCC stand bald vor einer weiteren ernsten Herausforderung aufgrund der Notwendigkeit, die Hypothese zu beweisen anstatt sie zu widerlegen, wie es in der normalen Wissenschaft selbstverständlich ist. Man musste nämlich die Mittelalterliche Warmzeit MWP irgendwie loswerden, weil sie zeigte, dass es auf der Welt schon vor der industriellen Revolution wärmer war als heute. Das war notwendig, um zu belegen oder zu behaupten, dass das vorindustrielle CO2-Niveau niedriger war als heute. Diese Kampagne lief bereits, als die Informationen aus den Eisbohrkernen veröffentlicht worden sind.

Die meisten Menschen denken, dass Eisbohrkerne die einzige Quelle für vorindustrielles CO2 seien. Was die meisten Menschen aber nicht wissen ist, dass Tausende Messungen des atmosphärischen CO2 bereits im 19. Jahrhundert durchgeführt worden waren. Joseph Black studierte die Eigenschaften von CO2 bereits im Jahre 1750, und Joseph Priestly veröffentlichte Untersuchungen über Sauerstoff im Jahre 1775. Versuche, die verschiedenen Volumina atmosphärischer Gase zu messen einschließlich Messungen des CO2-Gehaltes folgten ab dem Jahr 1812. Wissenschaftler nahmen präzise Messungen mit kalibrierten Instrumenten vor, wie Ernst Georg Beck gründlich dokumentiert hat.

In einem Papier, welches anlässlich einer Anhörung vor dem US-Senatskomitee für Kommerz, Wissenschaft und Transportwesen eingereicht worden ist, schreibt Prof. Zbigniew Jaworowski:

Die Grundlage der meisten IPCC-Schlussfolgerungen bzgl. anthropogener Ursachen und Projektionen klimatischer Änderungen ist die Annahme eines niedrigen CO2-Niveaus der Atmosphäre in vorindustrieller Zeit. Diese Annahme ist falsch, wie glaziologische Studien belegen“.

Genauso bedeutend ist diese Feststellung Jaworowskis:

Die Vorstellung eines niedrigen vorindustriellen CO2-Niveaus wurde zu einem weithin akzeptierten heiligen Gral der Klima-Erwärmungs-Modelle, obwohl diese auf so einem ärmlichen Wissen beruhen. Die Modellierer ignorierten die Beweise durch direkte Messungen des CO2-Gehaltes der Luft, welche belegen, dass die mittlere Konzentration im 19. Jahrhundert bei 335 ppmv lag. Es wurden Daten selektiv herausgepickt, um zu zeigen, dass das atmosphärische CO2-Nveau im 19. Jahrhundert 292 ppmv betragen hatte. Eine Studie mittels der Anzahl von Stomata in fossilem Laub bei einem See in Dänemark zeigt, dass das CO2-Niveau vor 9400 Jahren 333 ppmv und vor 9600 Jahren 348 ppmv betragen hatte. Dies falsifiziert das Konzept einer stabilen und geringen CO2-Konzentration in der Luft bis zum Eintreten der industriellen Revolution.

Die Behauptung Jaworowskis, dass die Modellierer die Messungen aus dem 19. Jahrhundert ignoriert hätten, stimmt nicht. Sie wussten sehr wohl um diese Messungen, hat doch T. R. Wigley der klimawissenschaftlichen Gemeinschaft Informationen hinsichtlich der Messungen im 19. Jahrhundert zukommen lassen (Wigley, T.M.L. 1983 The pre-industrial carbon dioxide level.” Climatic Change 5, 315-320). Dann wurde das gemacht, was sehr oft gemacht wurde: man hat die Messungen mit höheren Werten eliminiert und aus den übrigen einen Wert von etwa 270 ppm abgeleitet. Ich denke, dass dies die Modellierer beeinflusst hat, weil Wigley mit ihnen an der CRU bei East Anglia zusammen gearbeitet hat. Er war die Schlüsselperson, welcher alles lenkte, wie aus den durchgesickerten E-Mails der CRU hervorgeht.

Wigley war nicht der Erste, der die Daten des 19. Jahrhunderts missbraucht hatte, aber er hat diese Daten in die Klima-Gemeinde gebracht. Dann wurden nur jene Messungen berücksichtigt, welche zur Hypothese passten.

Die ganze Story steht hier.

Link: https://wattsupwiththat.com/2019/05/01/a-story-of-co2-data-manipulation/

Übersetzt von Chris Frey EIKE




SPIEGLEIN, SPIEGLEIN, mit dem Rücken zur Wand

Unter den reißerischen Überschriften „Murks in Germany“ und „Grüner Blackout“ äußert sich das verdiente Autorenkollektiv Dohmen, Jung, Schultz und Traufetter zum Stand der deutschnationalen Energiewende. Zu offensichtlich führt wohl deren Weg in die Sackgasse, so dass das Projekt medialer Unterstützung des ehemals renommierten Hamburger Hauses bedarf.

Bisherige Veröffentlichungen lassen nichts Gutes ahnen. Bürger Traufetter war schon an einem Beitrag (Spiegel Nr. 41/2016) beteiligt, der ausgemachte Fakes enthielt. Oder sagen wir es deutsch: Lügen. So wurde damals behauptet:

Weil die deutschen Braun- und Steinkohlekraftwerke auch an solchen Tagen (gemeint sind Starkwindtage) praktisch ungebremst weiterlaufen, drückt die deutsche Überproduktion die Strompreise europaweit in den Keller.“

Jeder redliche Journalist hätte recherchieren können, wie die Fahrpläne der Kraftwerke entstehen, wie der Einspeisevorrang grünen Stroms umgesetzt wird, wie der europäische Stromhandel funktioniert, dass es eine „Überproduktion“ von Strom nicht geben kann und welche Standortrestriktionen die Komplettabschaltung mancher Kohlekraftwerke verhindern. Dazu käme das Thema Netzdienstleistungen, aber das hätte die Schreiber dann komplett überfordert.

Viel leichter, bequemer und in jedem Fall Beifall versprechend das flache und klischeebedienende Kohle-Bashing. Wenn in der DDR die Beurteilung oder Einschätzung eines Werktätigen aus fachlicher Sicht nicht gut ausfiel, konnte manchem noch mit dem Hinweis geholfen werden, er habe wenigstens einen festen Klassenstandpunkt.

SPIEGEL-Schreiber wissen, welchen Standpunkt man von ihnen erwartet.

Die Zutaten des Hauptbeitrags im aktuellen Spiegel (19/2019) sind ein paar reale Fakten, angereichert und vermischt mit Szenarien, Optionen und Visionen und einer Prise Klimaziele. Was können wir also von den von gymnasialen Physikkenntnissen offenbar befreiten Autoren lesen?

Zunächst gibt es aktuelle Informationen zum vergangenen Ostermontag, an dem die „Erneuerbaren“ etwa 56 Gigawatt einspeisten und so dafür sorgten, dass der Börsenstrompreis wieder ins Minus drehte (bis zu -8 Cent pro Kilowattstunde), was alle Stromkunden mit bezahlen dürfen. So addierten sich zur EEG-Vergütung an diesem Tag von 115 Millionen Euro noch knapp 17 Millionen Euro, die zusätzlich zum Strom den Nachbarn geschenkt wurden. Negative Strompreise als Perversion der Marktwirtschaft.

Dazu steht im Beitrag natürlich nichts, sondern es werden nur die 56 Gigawatt erwähnt und man hakt das Thema mit einer quasireligiösen Formulierung ab:

Es war ein Zauber, das perfekte Zusammenspiel aus Natur und moderner Technik.“

Mehr Realitätsverweigerung geht kaum. Dann leitet man unvermittelt um auf das Thema Verkehr:

Deutschlands Straßen gehören den Autos von gestern, angetrieben von schweren, benzin- und dieselgetriebenen Motoren.“

Wenn man die Augen schließt, sieht man förmlich die Rußwolken der Mercedes 300D, Baujahr `82, oder den von der Ampel lossprintenden Senator 3,0 ohne Kat.

Es folgt Energiewendekritik aus den Häusern McKinsey und des Bundesrechnungshofes. Merkels wohl größtes Scheitern bestünde darin, so die Spiegler, dass sie klimapolitisch wenig bewegt habe. Könnte das mit der Abschaffung der emissionsarmen Atomstromerzeugung zusammen hängen? Kann man Klimapolitik losgelöst von Energie-, Wirtschafts- und Sozialpolitik denken?

Fragen über Fragen, die der Beitrag nicht thematisiert. Stattdessen ein schräger Vergleich mit Schweden, das aus dem Atomausstieg ausgestiegen ist und heute schon seinen Strom so gut wie emissionsfrei erzeugt. Deshalb haben die Wikinger keine Probleme mit einer CO2-Steuer. Wir hätten sie durchaus.

Dann steigert sich der Beitrag zu fulminantem Unfug. Deutschland hätte versäumt, mit dem Atomausstieg auch den Abschied von der Kohle einzuleiten.

Es wurden Windräder und Solarpaneele errichtet, und die Kohlemeiler liefen fröhlich weiter.“

Und warum?

„Um bloß niemandem wehzutun, keinem Unternehmen, keinem Bürger.“

So einfach ist das. Kein Wort darüber, dass ein sicheres System erhalten bleiben muss, wenn das hippe neue System nur liefert, wenn es Lust hat. Stattdessen weiter hinten der abenteuerliche Satz, Deutschland habe sich „daran gewöhnt“, zwei Systeme, von denen „die Gesellschaft“ nicht so leicht loskomme, laufen zu lassen. Keine Idee der Autoren dazu, wie die grüne Infrastruktur grund- und regellastfähig gemacht werden kann, stattdessen solle man sie weiter ausbauen.

Dann geht es noch ein bisschen um das politische Triumvirat Kanzleramt / Umweltministerium / Wirtschaftsministerium mit Verweisen auf Trittin (der mit der Eiskugel) und den aus dem Amt geflüchteten ehemaligen grünen Staatssekretär Baake, natürlich ohne den Hauch einer kritischen Beurteilung. Weiter zum Thema Netze und einem ausführlichen Lamento über deutsche Genehmigungsverfahren für Windkraftanlagen. Der Schutz von Mopsfledermäusen und Rotmilanen wird kritisch hinterfragt, so als wenn Feldhamster oder Hufeisennasen nicht auch Gewerbegebiete verhindert und Brückenbauten gefährdet hätten. Kein Wort zu den verheerenden Auswirkungen der immer größer werdenden Windkraftanlagen auf Vögel, Fledermäuse und Insekten und auch auf Menschen. Die Themen Infraschall und Gesundheit der Anwohner werden sorgfältig verschwiegen.

Die immer länger dauernden Genehmigungsverfahren werden verantwortlich gemacht, dass es „keinen Wettbewerb“ mehr gäbe. Auch hier systemisches Unverständnis. Unter dem EEG hat es noch nie Wettbewerb gegeben (höchstens um die windhöffigsten Standorte), sondern bis 2017 immer feste Vergütungen. Es gibt sogar Geld für Strom der nicht produziert wird, weil er nicht abtransportiert werden kann. Das katastrophale Missmanagement bei der Koordinierung von Zubau volatiler Erzeugung und Netzausbau ist kein Thema für die Autoren, denn dies zeigt, wer das Sagen hat: Die Ökolobby. 1,4 Milliarden Euro Redispatchkosten im Jahr 2017 werden mit Schulterzucken quittiert. Passiert.

Der Versuch, mit der EEG-Novelle die Windkraft an den Markt heranzuführen, ist nun sichtbar am Scheitern. Keine Angebote aus der Windbranche in der vergangenen Ausschreibung der Bundesnetzagentur zum Stichtag 1. April 2019. Das Vergütungsband von 6,2 bis 8 Cent pro Kilowattstunde ist der Windbranche offenbar zu niedrig.

Absehbare Strafzahlungen sind ein weiteres Thema. Wenn Deutschland die Klimaziele nicht erfüllt, muss es an seine Nachbarn zahlen. So ist das, wenn Politiker EU-Zielen zustimmen in Unkenntnis darüber, wozu man eigentlich in der Lage ist – und wozu nicht. Aber schon mal ein Hinweis darauf, wie die Einnahmen aus der CO2-Steuer verwendet werden könnten.

Dann folgt eine Beschreibung der Sektorziele in Verkehr und Wärme wozu die alte Suppe P2V (Power to Vehicle – Stromspeicherung mittels E-Mobilen) aufgewärmt wird. Man berichtet von einem Fahrzeug des Versorgers Enervie, das auch rückspeisen kann. Da lehnt man sich gelangweilt zurück, denn bereits 2014 wies die

BTU Cottbus in einem Projekt nach, dass und wie man in einem E-Mobil ein- und ausspeisen kann. In einer Woche hätte ein E-Autobesitzer 20 Euro verdienen können mit dieser Stromspeicherung, erwähnt das Autorenkollektiv. Ob er mit dem Gerät nebenbei auch hätte fahren können, wird nicht erwähnt.

Nicht zu vergessen auch der Hinweis auf die „Wasserstoffrevolution“, für die die Zeit jetzt „reif sein sollte“. Das erinnert an Hermann Honnef, der schon in den dreißiger Jahren des letzten Jahrhunderts den überschüssigen Strom seiner im Berliner Stadtgebiet vorgesehenen „Reichskrafttürme“ (vierhundert Meter hoher Windkraftanlagen) „zur Erzeugung billigen Wasserstoffs“ nutzen wollte. Fast achtzig Jahre später die Erkenntnis der SPIEGEL-Autoren, dass sich die Umwandlung von Strom in synthetische Energieträger in gas- oder flüssiger Form nicht rechnet.

Mainstreamkompatibel folgt noch die Kritik am europäischen Emissionshandel (ETS), der angeblich nicht funktioniere und untauglich sei. Natürlich fehlt die Information, dass ETS und EEG gegenläufig arbeiten: Das EEG wirkt nur national und sorgt durch den Einspeisevorrang für die Verdrängung des fossilen Stroms – und der Zertifikate, die dann europaweit gehandelt werden. Damit wird der Preisdruck von den Zertifikaten genommen.

Subtil gibt es noch etwas unterschwellige Werbung für eine „Klimasteuer“ und die Behauptung, dass bis 2050 der Ausstieg aus den Fossilen möglich sei. Die „Studien, Strategien und Anlagen“ stünden bereit. Hier hätte gern etwas ausführlicher beschrieben werden können, welche Anlagen gemeint sind.

Der „zweite Teil“ der Energiewende werde teuer und anstrengend, ähnlich der Wiedervereinigung. Da bin ich anderer Meinung. Sie wird teurer, anstrengender, vor allem aber in dieser Form erfolglos sein.

Anmerkung der Redaktion.

Der SPIEGEL lobt die Ergebnisse des e-SOLCAR Projektes der BTU Cottbus. Auch hier wurde miserabel recherchiert und mit ideologischen Scheuklappen miese Ergebnisse schön geredet.

EIKE hat vor einem Jahr dieses „Leuchtturmprojekt“  der Brandenburger „Energiestrastegie 2030“ untersucht. Das Ergebnis sehen Sie weiter unten. Fazit – wer diesen Leuchttürmen folgt landet todsicher auf einem Riff.

lt Factsheet(https://www-docs.b-tu.de/fg-evh/public/esolcar/FactSheet_esolcar.pdf) der BTU Cottbus lief das Projekt eSOLCAR vom Juni 2011 bis Dezember 2014 und kostete insgesamt 9 233 000 EUR. Es wurde u.a gefördert durch den Europäischen Fonds für Regionale Entwicklung (EFRE).(Vermutlich auch von Vattenfall die 22 der 45 Fahrzeuge betrieben)  Im Rahmen von e-SolCar wurden etwa 10.000 Ladevorgänge durchgeführt. Das entspricht einer Ladeenergie von ca.130 MWh.

Insgesamt waren 45 Fahrzeuge beteiligt mit einer Gesamtfahrleistung von 400.000 km. Das sind pro Monat der Projektdauer von insgesamt 42 Monaten nur ca. 211 km/Monat und Fahrzeug. Völlig ungeeignet, weil viel zu wenig für die Erprobung dieser Technik! Weder für ein Flächenland wie Brandenburg noch eine Großstadt wie Berlin. Denn die durchschnittliche Fahrleistung über alle Altersgruppen und Wohngebiete betrug 2013 rd. 13.000 km p.a das sind 1083 km/Monat. Also rd. das 5 fache der Versuchs-Kfz.

Die ausgegebene Ladeenergie (130 MWh) betrug umgerechnet und im Mittel pro Fahrzeug und Monat nur ca. 69 KWh (das sind 825 kWh p.a.) In etwa soviel wie ein kleiner sehr effizienter Kühlschrank (145 l) pro Jahr[1]verbraucht.

Zum Vergleich: Ein 50 l Dieseltank enthält bei 11,9 kWh/kg rd. 500 kWh, ist in 2 Minuten betankt und erlaubt eine Strecke von 1000 km zu fahren. D.h das ca. 5 fache der Versuchsfahrzeuge mit einer einzigen „Ladung“ Diesel.

Insgesamt wurden mit 130 MWh 400.000 km elektrisch gefahren. Um 130 MWh „Strom“ zu erzeugen mussten 2016 lt Emissionsfaktor  des UBA[2]ca. 527 g/kWh x 130.000 emittiert werden. Hier sind das also 69.510 kg.

Für 400.000 km wären hingegen rd. 20.000 l Diesel erforderlich. Diese hätten bei rd. 3 kg/l CO2 Emissionen rd. 60.000 kg CO2 emittiert. Der reine Dieselbetrieb hätte also rd. 16 % weniger CO2 emittiert.

[1]https://www.stromverbrauchinfo.de/stromverbrauch-kuehlschraenke.php

[2]https://www.umweltbundesamt.de/publikationen/entwicklung-der-spezifischen-kohlendioxid-3




Big Oil goes Big Green

Für das Protokoll: Keiner von uns Skeptikern – Klima-Realisten – bezweifelt oder leugnet gar den Klimawandel. Wir alle wissen und erkennen, dass das Klima der Erde fast ununterbrochen Änderungen und Fluktuationen durchläuft – lokal, regional und global.

Was wir in Frage stellen ist, dass fossile Treibstoffe auf irgendeine geheimnisvolle Art und Weise die Sonne und andere mächtige natürliche Kräfte als Klimatreiber ersetzt haben sollen – Kräfte, die mal zu günstigem und sanftem, dann aber auch schädlichem oder sogar gewaltig destruktivem Klima geführt haben – und zwar während der gesamten Erd- und Menschheitsgeschichte.

Es gab Änderungen wie mindestens fünf Vereisungs-Perioden, welche große Teile Nordamerikas, Europas und Asiens unter Kilometer dicken Eisströmen begraben haben, Warmzeiten dazwischen, die jene massiven Gletscher vollständig abschmelzen ließen. Die Römische und die Mittelalterliche Warmzeit, eine Kleine Eiszeit, die Jahrhunderte währende Anasazi- und Maya-Dürren, die Staubschüssel-Jahre [eine schwere Dürre in den USA während der 1930-er Jahre, Anm. d. Übers.] sowie zahlreiche weitere große und kleinere Klima- und Wetter-Änderungen gehen auf das Konto der Einwirkung dieser natürlichen Kräfte.

Gebetsmühlenartig wird kolportiert, dass ExxonMobil vor dem Jahr 2007 insgesamt einige Millionen Dollar an verschiedene Skeptiker-Gruppen gezahlt hat. Aber das war vor vielen Jahren. Heute haben sie aus Angst vor den alarmistischen Interessengruppen gekuscht und den Klima-Realisten seitdem keinen Cent mehr gezahlt. Tatsächlich ist die Lage heute genau umgekehrt.

Große Ölunternehmen zahlen heutzutage mindestens eine Milliarde Dollar an Klima-Alarmisten, für Projekte und Lobbyismus, um das Narrativ eines vom Menschen verursachten Klima-Chaos‘ voranzutreiben. Warum tun sie das? Dafür fallen mir zwei Gründe ein.

Erstens, typische kommerzielle Gründe. Einige würden es Unternehmensgier nennen oder Eliminierung von Wettbewerb mittels des Gesetzes des Dschungels. Füttern des Klima-Alarmismus‘ hilft den Ölunternehmen, „schmutzige“ Kohle loszuwerden und durch Erdgas zu ersetzen, wird dieses doch als „klimafreundlicher“ erachtet. Schließlich ist Big Oil auch Big Gas.

Zweitens, PR und „greenwashing“. Sie gerieren sich selbst als „grüner“ sowie als sozial und umweltlich „verantwortlicher“ wegen ihrer Unterstützung von Umweltaktivisten und indem sie „saubere“ (oder zumindest weniger „schmutzige“) Alternativen anbieten zu „klimazerstörender Kohle“.

Zentral bei den Flüssen dieser grünen Dollarmilliarden steht eine Gruppe mit einer perfekt gewählten Bezeichnung: die Oil and Gas Climate Initiative (OGCI). Falls die falschen Anklagen korrekt wären, würden „Öl und Gas“ niemals logisch oder ethisch mit einer „Klima-Initiative“ verknüpft werden. Aber sie ist da, diese Vereinigung, und sie ist ziemlich groß. Unter den OGCI-Mitgliedern finden sich die folgenden bekannten Namen:

British Petroleum * Chevron * China National Petroleum Corporation (CNPC) * Eni * Equinor * Exxon Mobil Corporation * Occidental Petroleum * PEMEX (Petróleos Mexicanos) * PETROBRAS (Petroleo Brasileiro) * Repsol * Royal Dutch Shell * Saudi Aramco * Total

Zusammen behaupten all diese, 30% von Öl und Gas der Welt zu erzeugen. Auf ihrer OGCI-Website findet sich eine Auflistung geschäftsführender Direktoren von Big Oil-Unternehmen, nur um zu zeigen wie ach so ernst und verantwortlich sie „grün“ sind. In ihrem jüngsten Jahresbericht ist ein Brief dieser Direktoren abgedruckt. Darin findet sich das folgende kleine Juwel:

Da unsere Ambitionen mit der Größenordnung der Herausforderung zunehmen, trachten wir danach, eng mit Politikern, Gesetzgebern und allen Aktionären zusammen zu arbeiten, um die Hebel in Bewegung zu setzen helfen, welche ökonomisch und nachhaltig das Tempo des Übergangs zu low carbon zu beschleunigen“.

Man muss sich fragen, ob ihre Liste der „Aktionäre“ auch Familien, Unternehmen und Gemeinden umfasst, die verstehen, wie vollkommen abhängig sie und die gesamte moderne industrialisierte Gesellschaft von fossilen Treibstoffen sind, vor allem Öl und Gas. Man betrachte einfach diese Liste und das eingebettete Video.

Noch mehr auf den Punkt gebracht: man betrachte deren Ursprünge. OGCI wurde im Jahre 2014 gegründet, kurz nach dem infamen Chesapeake Energie-Skandal, als die Direktoren dabei ertappt wurden, wie sie dem Sierra Club Millionen Dollar haben zukommen lassen, damit dieser den Krieg von Präsident Obama gegen die Kohle unterstützt. Ironischerweise haben es sogar Club-Mitglieder abgelehnt, das Geld zu nehmen, da sie alle fossilen Treibstoffe als ihre Feinde betrachteten – und nachdem er Kohle ins Aus geschlagen hatte, nahm sich der Club als nächstes Ziel Erdgas vor, also die primäre Einkommensquelle von Chesapeake.

Was geschehen zu sein scheint: die immer hinterlistigen Big Oil-Unternehmen schufen ihre eigene „grüne“ Organisation.Mit den Milliarden an jährlichen Zuwendungen ist Big Oil jetzt einer der größten Finanziers von Big Green, Big Government-Finanzquellen nicht berücksichtigt.

Der Environmental Defense Fund (EDF) ist ebenfalls aktiv mit Big Oil verbandelt, und zwar mittels seines Zweiges EDF+Business. Im Besonderen hat EDF ein gewaltiges Methan-Reduktions-Programm – die Methan-Herausforderung – wobei wenig überraschend auch die OGCI involviert ist. Das Programm besteht an prominenter Stelle aus „Nachhaltigkeits-Berichten“ mehrere großer Ölunternehmen. Der EDF startet sogar seinen eigenen Satelliten mit der schlauen Bezeichnung MethaneSAT.

Der EDF bekommt eindeutig sehr viel Geld hierfür. Er behauptet, kein Geld „direkt“ von den Unternehmen zu erhalten. Stattdessen kommt das Geld von nicht spezifizierten „Philanthropen“. Natürlich steht auf einem anderen Blatt, woher diese Philanthropen das Geld nehmen; sie können leicht Geld von Big Oil waschen. Es ist bezeichnend, dass die OGCI keinen Finanzbericht erstellt – oder irgendwelche transparenten Online-Informationen bzgl. seiner Finanzen.

Space News fragte den EDF tatsächlich nach seiner Finanzierung, prallte aber gegen eine Mauer. Man schrieb:

Allerdings hat der EDF einige wenige Details darüber bekannt gemacht, wie viel MethaneSAT kosten wird und wie das Projekt finanziert wird. Im vorigen Jahr erhielt das Projekt eine Zuwendung von einer neuen Initiative mit der Bezeichnung The Audacious* Project, obwohl die Höhe der Zuwendung nicht bekannt gegeben worden war. Ein EDF-Sprecher hat nicht auf eine Anfrage nach dem finanziellen Status des Projektes geantwortet.

[* Das Adjektiv audacious hat viele Bedeutungen, wobei der Übersetzer nicht sicher ist, welche zutrifft. Daher ist es mit dem Link zu einem Lexikon hinterlegt. Anm. d. Übers.]

Den EDF an seiner Seite zu haben ist sicher ein großes Plus für Big Oil. Aber man spreche über Scheinheiligkeit, und es gilt für beide.

In jedem Falle steht fest, dass Big Oil mindestens eine Milliarde Dollar für den grünen Quatsch berappt, was sehr viel grün ist. (Bares Geld in Gestalt amerikanischer Dollarnoten sind eindeutig das neue Big Green). Es gibt keine Belege dafür, dass Klimaskeptiker irgendetwas davon abbekommen. Aber falls das bei Einigen doch der Fall sein sollte, ist es im Vergleich marginal. Inzwischen erhalten die OGCI und Big Oil Milliarden sowie der EDF viele Millionen.

Eine weitere große Ironie ist, dass die vermeintlichen Alternativen zu reichlichen, zuverlässigen, bezahlbaren und die Zivilisation ermöglichenden fossilen Treibstoffen vermeintlich „sauber, grün, erneuerbar, nachhaltig und verantwortlich“ sind, also Energie aus Wind, Solar und Biotreibstoff. (Hartgesottene Umweltaktivisten wollen auch keine Kern- oder Wasserkraft).

Jene vermeintlichen „Alternativen“ erfordern unvorstellbar riesige Landflächen – nicht nur für Windturbinen, Solarpaneele, Backup-Batterien und Biotreibstoff-Farmen, sondern auch für den Abbau und die Verarbeitung der Milliarden Tonnen Eisen, Kupfer, seltener Erden, Lithium, Kadmium, Kalkstein und anderen Materialien zur Herstellung der Turbinen, Paneele, Batterien, Überlandleitungen, Traktoren, Lastwagen und anderer „nachhaltiger“ Infrastruktur.

All dieser Bergbau, die Verarbeitung, Herstellung und der Transport erfordert fossile Treibstoffe. Und Biotreibstoffe emittieren genauso viel (Pflanzen düngendes) Kohlendioxid wie bei der Verbrennung von Kohle, Öl und Erdgas entsteht.

Noch verstörender ist, dass viele der Rohstoffe mit weit verbreiteter Sklaverei und Kinderarbeit gewonnen werden, unter Gesundheits-, Sicherheits- und Umweltbedingungen, welche Upton Sinclair und andere Reformer des frühen 20. Jahrhunderts hätten denken lassen, dass die unterdrückten Arbeiter, für die sie eintraten, im Grunde im Paradies gelebt hatten.

Hinsichtlich Skeptizismus lautet die einfache Tatsache, dass etwa die Hälfte aller Amerikaner den Klima-Alarmismus nicht akzeptiert, bis hoch zum Präsidenten. Und doch ist dieser weit verbreitete Skeptizismus ohne jede finanzielle Zuwendungen entstanden. Was Big Oil betrifft, so pumpt es Big Money in Big Green und in grüne Klima-Initiativen. Konservative und klimarealistische Gruppen verfügen über Denkfabriken, die es irgendwie schaffen, eine gewisse Finanzierung zu erhalten, aber die stammt nicht von Big Oil.

Dass Big Oil verantwortlich ist für Skeptizismus ist nichts als ein weiteres Märchen der alarmistischen Phantasiewelt.

David Wojick is an independent analyst specializing in science, logic and human rights in public policy, and author of numerous articles on these topics.

Übersetzt von Chris Frey EIKE

Hinweis: Dieser Beitrag ist mir per E-Mail zugesandt worden, so dass kein Link angegeben werden kann. Wer die Übersetzung überprüfen will:

Wojick – Big oil goes big green




Über einen Fehler bei der Bestimmung der Temperatur-Rückkopplung

Kurz gesagt, falls wir recht haben, ist die globale Erwärmung keineswegs problematisch, sondern insgesamt vorteilhaft. Wir haben die zugrunde liegende Theorie verifiziert mit Hilfe eines nationalen Laboratoriums ebenso wie mittels Durchführung einer empirischen Kampagne auf der Grundlage von zehn Schätzungen anthropogener Strahlungsantriebe und der beobachteten Erwärmung.

Folglich konzentrierten wir unsere Untersuchungen auf die Frage der Rückkopplungen und befragten die führenden Experten in diesem Bereich. Einer von uns ist ein fest angestellter Professor der Kontroll-Theorie (also dem Bereich der Ingenieur-Physik, von der die Klimatologie die Mathematik der Rückkopplung entnommen hat), ein anderer ist Statistik-Professor. Unter unseren Mitautoren sind außerdem ein weltweit führender Experte der Stromindustrie, ein Physiker vom MIT, zwei Verfahrenstechniker (spezialisiert in der Anwendung von Rückkopplungs-Mathematik) und ein junger Umweltberater.

Wir kommen zu dem Ergebnis, dass die offizielle Klimatologie nicht einfach nur die Mathematik von Rückkopplungen nicht verstanden hat: sie hat Temperatur-Rückkopplungen falsch bestimmt und sie daher auch falsch angewendet. Im Endeffekt hat die offizielle Klimatologie nicht erkannt, dass derartige Rückkopplungen in einem dynamischen System wie dem Klima zu jeder Zeit wirken und dass diese nicht nur aufgrund irgendeiner willkürlich definierten Störung des Eingangssignals agieren (beim Klima setzt sich das Eingangssignal zusammen aus der Emissions-Temperatur, und die Störungen sind jene durch die Gegenwart natürlicher und anthropogener Treibhausgase), sondern auch auf das gesamte Referenz-Signal (beim Klima ist das Referenz-Signal die Summe von Emissionstemperatur und aller natürlichen und anthropogenen Störungen vor Berücksichtigung der Rückkopplungen).

Da die Emissionstemperatur 255 K, die natürliche Störung durch Treibhausgase 10 K und die anthropogene Störung etwa 1 K beträgt, ist die Rückkopplungs-Reaktion auf die anthropogene Erwärmung von 1 K nur ein sehr kleiner Bruchteil der Gesamt-Reaktion durch Rückkopplung auf die Referenz-Temperatur, welche die Summe dieser drei Größen ist. Und doch hat die Klimatologie die gesamte Rückkopplungs-Reaktion ausschließlich der minimalen anthropogenen Störung zugeordnet. Als Konsequenz daraus hat man sich vorgestellt, dass die Wirkung der die Sensitivität verändernden Rückkopplungen die Referenz-Sensitivität von 1,05 K bei CO2-Verdoppelung etwa um das Dreifache verändern wird, während die Rückkopplungs-Reaktion auf jene Referenz-Sensitivität in Wirklichkeit nur etwa 0,1 K beträgt. Damit lässt sich die Charney-Sensitivität auf lediglich 1,15 K schätzen, nachdem man die die Sensitivität verändernden Rückkopplungen berücksichtigt hat.

Eine weitere bedeutende Konsequenz unserer Forschungen ist, dass das Intervall der Charney-Sensitivitäten, das gegenwärtig um 1,5 K um die erheblich übertriebene mittlere Schätzung von 3,35 K schwankt, auf 0,05 bis 0,1 K auf jeder Seite der korrigierten mittleren Schätzung von 1,15 K reduziert. Da nahezu die gesamte Rückkopplungs-Reaktion im heutigen Klima die Reaktion auf die Emissionstemperatur und auf die von natürlich auftretenden Treibhausgasen getriebene Erwärmung ist, ist die Rückkopplungs-Reaktion auf die minimale anthropogene Störung so gering, dass es kaum Raum für die Unsicherheit gibt in der Schätzung der Charney-Sensitivität insgesamt oder damit der Gleichgewichts-Sensitivitäten allgemein.

Hinsichtlich der Abschwächungs-Ökonomie gibt es in jedem Falle eine bemerkenswert geringe Rechtfertigung für Maßnahmen – wenngleich aus hehren Motiven ergriffen – zur Abschwächung der globalen Erwärmung. Der Stern-Report 2006 führte als sein Worst-Case-Szenario eine imaginäre Erwärmung von 11 K im Verlauf des 21. Jahrhunderts an. Auf der Grundlage dieser beklagenswert stark übertriebenen Schätzung, die sogar noch über das ohnehin schon absurde RCP8.5-Szenario im jüngsten IPCC-Bericht hinausgeht, stellte sich Stern (obwohl er das nicht explizit erwähnte) eine Wahrscheinlichkeit von 10% vor, dass im Jahr 2100 das Ende der Welt herbeigekommen wäre. Dies beruhte auf jener falschen Grundlage, aus der Stern seinen künstlich niedrigen Diskontsatz von 1,4% pro Jahr (ebenfalls nicht explizit in seinem Report erwähnt) ableitete. Der normale Markt-Diskontsatz beträgt 5% bis 10% pro Jahr mit 7% als eine gute mittlere Schätzung. Falls Stern diese 7% auf das 21. Jahrhundert angewendet hätte, würden sich die Gesamtkosten des BIP bei Nichtstun bzgl. globaler Erwärmung von 3% auf lediglich 0,3% reduzieren.

Allerdings zeigt unsere eigene Forschung, dass die bis Ende dieses Jahrhunderts zu erwartende Erwärmung nicht 3 K, sondern wahrscheinlich 1 K betragen wird. Das bedeutet eine Erwärmungsrate von 0,1 K pro Dekade, was in sehr guter Übereinstimmung mit der Beobachtung steht. Und diese Rate ist viel zu gering, um überhaupt irgendwie schädlich zu sein. Tatsächlich ist die EU-Kommission selbst auf der Grundlage einer Erwärmung um 5,4 K schon bis zum Jahr 2080 durch eigene Forschungen zu dem Ergebnis gekommen, dass die vermiedenen Todesfälle durch eine geringere Anzahl von Kältewellen die Todesfälle durch zunehmende Hitzewellen weit überkompensiert. Kurz gesagt, die wirtschaftlichen ebenso wie die sozialen Vorteile, wenn man der Atmosphäre einen kleinen Bruchteil der Konzentration zurück gibt, welcher während der Zeit des Kambriums vorherrschend war, werden die (großenteils imaginären) Nachteile weit überkompensieren.

Wir erklären daher, dass unsere Ergebnisse zeigen, falls sie für korrekt befunden werden, dass es absolut keine Notwendigkeit gibt überhaupt irgendetwas zu tun, um die globale Erwärmung aus der Welt zu schaffen. Sie wird kaum schädlich sein und alles in allem nur Vorteile haben.

Wir würden es sehr begrüßen, wenn die Berater des Climate Change Committee mit größter Sorgfalt unsere Studie durcharbeiten würden. Die Studie ist ziemlich detailliert und zeigt akribisch genau jedes Stadium der Argumentation sowie Beweise Schritt für Schritt. Da unser Verfahren explizit und vollständig dokumentiert wird, sollte es jedermann mit dem nötigen wissenschaftlichen Hintergrundwissen möglich sein, unserer Argumentation zu folgen, und sehr gerne werden wir jedem assistieren, der unsere Ergebnisse noch besser zu verstehen wünscht. Wir hoffen, dass jene, die mit unserer Analyse nicht einverstanden sind, fair genug sind, uns ihre Gründe für die Ablehnung mitzuteilen, damit wir angemessen darauf reagieren können.

Wir folgern, dass es keine legitime wissenschaftliche Grundlage gibt hinsichtlich jedweder Bedenken bzgl. der globalen Erwärmung, und dass der ungeheuer komplexe und teure Maßnahmen-Katalog, um jene Erwärmung zu verhindern, drastisch übertrieben ist und eigentlich vollständig ad acta gelegt werden kann.

Obwohl man sich nicht die Mühe gemacht hat, mit aller Sorgfalt die Wissenschaft auf vernünftige Beine zustellen, hat UK sich selbst völlig unnötig einen enormen kommerziellen Nachteil verschafft im Vergleich zu anderen Ländern, die weniger geneigt sind, getrieben von mächtigen und üppig finanzierten Lobbygruppen in Panik zu geraten und Notfall-Maßnahmen zu ergreifen, die vollkommen unnötig sind. Ganze Industriezweige – Kohle-Erzeugung, Aluminium-Schmelze, Stahlindustrie und viele andere – sind oder werden demnächst zerschlagen oder nach Übersee vertrieben – ohne jede legitime wissenschaftliche oder ökonomische Rechtfertigung. Außerdem dürfte der globale „Kohlenstoff-Fußabdruck“ der Menschheit dadurch eher zu- als abnehmen – aber nicht, dass derartige „Fußabdrücke“ irgendeine Rolle spielen, wenn der physikalische Fehler der Klimatologie erst einmal korrigiert ist.

Die sehr kostspieligen und schädlichen Auswirkungen der Politik zur Abschwächung der globalen Erwärmung haben schon jetzt jedwede nachteilige Auswirkung der globalen Erwärmung selbst – so es solche überhaupt gibt – weit überkompensiert, und die kostspielige Einmischung totalitärer Elemente in den freien Markt unter dem Motto Save The Planet werden auch in Zukunft sehr viel Schaden anrichten, solange nicht eine rationalere wissenschaftliche, soziale und ökonomische Vorgehensweise übernommen wird.

Yours sincerely,

Viscount Monckton of Brenchley

Wer die Übersetzung überprüfen will:

ccc-evidence-2019-apr-29

Hier folgt noch die Kurzfassung der Studie mit den wesentlichen Graphiken. Die ganze Studie ist unten als Anhang beigefügt.

Klimatologen haben vergessen, dass die Sonne scheint

Memorandum von Lord Christopher Monckton, Third Viscount of Brenchley

Klimatologen prophezeien, dass zwei Drittel der globalen Erwärmung nicht CO2, sondern einer zusätzliche Erwärmung durch „Temperatur-Rückkopplungen“ geschuldet sind. Allerdings hat man beim IPCC falsch interpretiert, dass die Reaktion erst bei einer Störung der Temperatur auftritt (IPCC 2013, S. 1450). Rückkopplungs-Prozesse reagieren auch auf die zuvor vorhandene Temperatur einschließlich der Emissions-Temperatur, und zwar aufgrund der Tatsache, dass die Sonne scheint. Dieser große und vitale Sonnenschein-Term durfte nicht bei der Berechnung unberücksichtigt bleiben – blieb er bemerkenswerterweise aber – als die Klimawissenschaftler ihre Rückkopplungs-Mathematik der Kontroll-Theorie entnahmen.

Im Jahre 1850 betrug die globale Referenz-Temperatur (vor Rückkopplungen) 265 K: das heißt, 255 K durch die Sonne und 10 K durch die vorindustriellen Treibhausgase. Die Gleichgewichts-Temperatur (nach Rückkopplungen) betrug 287,5 K (HadCRUT4). Die geschätzte direkte Erwärmung durch menschliche Treibhausgas-Emissionen von 1850 bis 2011 betrug 0,75 K vor Rückkopplungen (Grundlage: IPCC 2013, Tabelle SPM 5) oder 1,0 K nach Rückkopplungen.

Daher wäre der korrekte system-gain factor, also der Multiplikator, der die Temperatur-Rückkopplung berücksichtigt, nicht 3,3 K wie gegenwärtig von den Klimamodellen simuliert, sondern lediglich (287.5 + 1) / (265 + 0.75) oder 1,1. Die Rückkopplung lässt die Referenz-Erwärmung von 1,05°C bei CO2-Verdoppelung zunehmen, jedoch nicht um das Dreifache auf 3,35°C, wie es sich die Klimatologie fälschlich vorstellt. Nach Korrektur des Fehlers der Klimatologen lässt die Rückkopplung die Erwärmung um weniger als ein Drittel zunehmen auf einen überarbeiteten wert von lediglich 1,1 x 1,05 oder 1,15°C.

Sogar noch vor der Korrektur durch Einbeziehung der Emissions-Temperatur in die Berechnung geben die jüngsten IPCC-Schätzungen einen system-gain-factor von 1,0/0,75 oder 1,4°C Erwärmung bei CO2-Verdoppelung. Falls die Klimatologen erkannt hätten, dass Rückkopplungen auf die gesamte Referenz-Temperatur reagieren, hätten sie nicht mehr Erwärmung prophezeit als diese Werte.

Das Team verifizierte die Rückkopplungs-Reaktion auf die zuvor herrschende Temperatur einschließlich der Reaktion auf die vom Sonnenschein getriebene Emissions-Temperatur mittels eines Test-Schaltkreises, um Temperatur-Rückkopplungs-Prozesse nachzubilden. Ergebnisse eines zweiten derartigen Tests in einem regierungsamtlichen Laboratorium waren identisch mit den Ergebnissen des Teams, und zwar nach 23 von 23 Läufen.

Der Leitautor hat viele begutachtete Studien im Bereich Klima veröffentlicht. Er ist Träger der Meese-Noble Medal of Freedom, der CFACT Valiant-for-Truth Award und der Intelligence Medal of the Army of Colombia für seine Arbeiten bzgl. Klima. Seine Mitautoren sind ein Professor der Klimatologie, ein preislich ausgezeichneter Doktor der solaren Astrophysik am Harvard-Smithsonian Observatory, ein Professor der angewandten der Regelungs-Theorie aus Deutschland, ein emeritierter Statistik-Professor aus New York, ein junger Umweltberater, ein Experte der Industrie der globalen Stromversorgung, zwei Ingenieure der Regelungstechnik, sowie ein Doktor der Physik am MIT.

Abbildung 4: NASA-Satelliten zeigen eine substantielle Zunahme der Gesamt-Primärproduktivität von Bäumen und Pflanzen weltweit. Diese Zunahme kann fast ausschließlich dem zusätzlichen CO2 in der Atmosphäre zugeordnet werden und trägt bedeutend zur Verbesserung von Ernteerträgen weltweit bei.

Abbildung 5: (oben) excess-Todesfälle durch Hitze (rot) und vermiedene Todesfälle durch Kälte (grün) bis zum Jahr 2080 bei einer angenommenen globalen Erwärmung von 2,5 K; 3,9 K; 4,1 K und 5,4 K. (unten) Gesamtzahl der geretteten Leben in der EU bis zum Jahr 2080 unter den gleichen angenommenen Erwärmungen. Quelle: EU-Kommission

Abbildung 6: Die offiziell projizierte globale Erwärmung (rote Nadel) ist dreimal so hoch wie die beobachtete Erwärmung in der realen Welt (grüne Nadel). Sich überlappende Projektionen von IPCC (2013) und CMIP5 (Andrews et al. 2012) der globalen Erwärmung von 1850 bis 2011 (blaue Skala) als Reaktion auf eine CO2-Verdoppelung (dunkelrote Skala) sowie die Summe von beiden (schwarze Skala) gehen weit über das beobachtete Erwärmungs-Äquivalent von 0,75 K von 1850 bis 2011 hinaus (HadCRUT4). Die Schätzung der Charney-Sensitivität nach CMIP5 von 3,35 K impliziert eine anthropogene Erwärmung um 2,4 K bis zum Jahre 2011, also das Dreifache der Beobachtung. Das von Monckton of Brenchley et al. (2019) überarbeitete Intervall der Erwärmung (hellgrüne Region) ist konsistent mit der beobachteten Erwärmung bis zum Jahre 2011. Es war diese dreifache Diskrepanz zwischen übertriebener Prophezeiung und beobachteter Realität – eine Diskrepanz, die aus irgendwelchen Gründen nirgendwo Erwähnung findet – hat das Team veranlasst, die Gründe zu erforschen, warum Klimamodelle viel zu viel globale Erwärmung simulieren.

Übersetzt von Chris Frey EIKE

nature-summ

Und hier die ganze Studie:

feedback




Vor den Europa­wahlen: DIE GRÜNEN – kritisch betrachtet – Teil 2

Teil 2: Bürger und Umwelt bleiben bei der grünen Verkehrswende auf der Strecke

Wasser predigen, Wein trinken: DIE GRÜNEN als Vielflieger

Abbildung 1: Grünen-Wähler fliegen nach einer aktuellen Umfrage der Forschungsgruppe Wahlen mit 49% der Befragten am häufigsten; die Wähler der Linken und der CDU folgen mit deutlichem Abstand. Quelle: spiegel.online

Abbildung 2: Etwa 12% aller Feinstaub-Emissionen des Verkehrs ließen sich mit einem Verbot aller Diesel-PKW einsparen. Weil nur bestimmte, meist ältere Modelle, verboten werden sollen, reduziert sich der Einsparung auf deutlich unter 10% – ein juristischer Kanonenschuss auf Spatzen ohne wesentliche Umwelt-Entlastung.

Eine gute Nachricht – schlecht für die grüne Propaganda

Abbildung 3: Deutlich abnehmende Feinstaub-Konzentrationen seit Mitte der 1990er Jahre sowohl im ländlichen Raum (grün), in den Städten (ocker), und verkehrsnah (blau). Quelle: Umweltbundesamt (UBA) 2018.

Abbildung 4: Die noch in den späten 1980er Jahren ätzende, saure Berliner Luft ist heuer fast frei von Schwefeldioxid. In der Überschrift muss es korrekt „Schwefeldioxid“ heißen – das haben die links-grünen Berliner Bürokraten glatt übersehen. Quelle: Senatsverwaltung für Umwelt, Verkehr und Klimaschutz berlin.de

Doch wie ist die heutige Luftqualität langfristig einzuordnen? Messwerte reichen selten bis weit vor 1990 zurück. Ein anderes Indiz hilft da aus – die Anzahl der Nebeltage. Denn Luftschadstoffe trüben die Atmosphäre und begünstigen als so genannte „Kondensationskeime“ die Nebelbildung:

Abbildung 5: Seit mindestens gut 120 Jahren war die Luft nie nebelärmer und sauberer als in den 2010er Jahren. Heuer hat Nebel fast schon Seltenheitswert – mehr als 40 Tage pro Jahr kommen an der Station Potsdam kaum noch vor – weniger als in den 1890er Jahren und viel weniger als zum Höhepunkt der Luftverschmutzung nach der Mitte des 20. Jahrhunderts.

Wir atmen also nun sauberere Luft, als zu Kaisers Zeiten – trotz des viel häufigeren PKW-Verkehrs. Eine unangenehme Begleiterscheinung dieser sauberen Luft ist die merklich zunehmende Sonnenscheindauer. Diese wirkt besonders im Sommer stark erwärmend und ist einer der Hauptschuldigen der aktuellen „Klimaerwärmung“ – keine gute Nachricht für DIE GRÜNEN, welche mit CO2 den falschen Bösewicht jagen:

Abbildung 6: Seit 1951 nahmen die sommerliche Sonnenscheindauer und die sommerliche Erwärmung fast im Gleichklang zu, der Zusammenhang ist signifikant. Man achte auf die gehäuft sehr sonnigen Sommer nach 1990 und auf die enge Verzahnung beider Messgrößen; der bislang sonnigste (2003) war auch der heißeste. Wegen der sehr unterschiedlichen Größe der beiden Messwerte mussten sie in Indexwerte umgerechnet werden, um in einer Grafik anschaulich Platz zu finden.

Aber vielleicht kann Vielflieger Trittin ja mal zur Sonne düsen und diese gleich abschalten – weil sie sowieso ein „böser“ Atomreaktor ist. Fazit: Wer DIE GRÜNEN wählt, der wählt Populisten, welche uns die enormen Erfolge im Umweltschutz bewusst verschweigen, um zum Eigennutz Panik und Unsicherheit zu schüren.

Nach unten treten, nach oben buckeln – der „grüne“ Radverkehr und seine Folgen

Abbildungen 7a und 7b: Fahr’n wie auf der Autobahn – und das gleich doppelt. Links der „alte“ Radweg westlich der Ilm, hinter dem Haus (Bildhintergrund) verläuft der zweite, neue östlich der Ilm, der im rechten Foto zu sehen ist. Nutzen gleich Null, Kosten für die klamme Weimarer Stadtkasse enorm, Schaden für die Umwelt groß. Fotos: Stefan Kämpfe

Deutsche Bahn und Nahverkehr – teure, unzuverlässige Geh-Hilfen

Abbildung 8: In Weimar, einer Kleinstadt zwischen Erfurt und Jena, verteuerte sich die Einzelfahrt mit dem Stadtbus von 25 Cent (1992) auf 2,10 Euro (April 2019). Eine einfache Hin- und Rückfahrt in die Landeshauptstadt Erfurt (je etwa 22 Km) legte im selben Zeitraum von 3,80 auf stolze 11,80 Euro zu; das später eingeführte, aber nur zu bestimmten Uhrzeiten geltende „Hopper-Ticket“ verteuerte sich seit den späten 1990er Jahren von 2,50 auf 9,50 Euro.

Auch im Nahverkehr treibt die grüne Ideologie manch seltsame Blüte. So in Weimar, wo auf Wunsch der Öko-Partei ein „City-Bus“ die im Durchmesser nur wenige hundert Meter große Altstadt halbstündlich befahren sollte. Verkehrsexperten und der Betreiber, die Stadtwirtschaft Weimar, warnten vergeblich vor hohen Kosten und geringen Fahrgastzahlen. Doch koste es, was es wolle – DIE GRÜNEN setzten sich durch, und 2015 nahm die Linie ihren Betrieb auf, um nur zwei Jahre später sang- und klanglos eingestellt zu werden. Für den mangelhaften Busverkehr im ländlichen Raum interessieren sich DIE GRÜNEN kaum – wozu auch, ihre Klientel sind die gut betuchten Bildungsbürger der Städte. Man ahnt es: Trotz aller politischer Beteuerungen für Bahn und Nahverkehr – das verteufelte Auto ist und bleibt das unkomplizierteste und praktischste Verkehrsmittel.

Verlotterte Straßen und Gehwege – Deutschlands Verkehrsnetz zerbröselt

Abbildung 9a und 9b (kein Einzelfall): Beide Aufnahmen entstanden nur wenige hundert Meter vom Wohnort des Verfassers; sie zeigen die Weimarer Schlachthofstraße. Diese entstammt der Epoche um 1900. Oben das bucklige, von bröselnden Flicken und Löchern „verzierte“ Kopfstein-Pflaster der Fahrbahn, unten der Gehweg, bei welchem nur der erneuerte Kabelschacht (Hintergrund) den Anforderungen eines verkehrssicheren Gehweges genügt. Kein gutes Aushängeschild für die Möchtegern-Kulturstadt Weimar, welche sich gerade für stolze 22 Millionen Euro ein neues Bauhaus-Museum geleistet hat.

Helfen verhinderte Verkehrsprojekte der Umwelt?

Ohne akribische Umweltprüfung lässt sich heuer kein Großbauprojekt mehr verwirklichen. Ergibt diese seine Machbarkeit, so werden umfangreiche Ausgleichsmaßnahmen für Natur und Umwelt je nach Schwere des Eingriffs bilanziert und festgelegt. So war es auch bei der dringend benötigten Weimarer Ostumfahrung, welche in den 1990er Jahren in den Bundesverkehrswegeplan aufgenommen und planfestgestellt wurde. Diese sollte das Stadtgebiet von den enormen Belastungen des Verkehrs zwischen Weimar und Jena entlasten – bessere Luft und weniger Verkehrslärm für tausende Anwohner sowie zeitliche Entlastung für zahlreiche Berufspendler wurden sachgerecht gegen die Eingriffe in Natur und Landschaft durch den Straßenneubau abgewogen. Zunächst hatte sich der Weimarer Stadtrat am 28. Juni 2000 mit knapper Mehrheit für die stadtnahe Ostumfahrungs-Variante ausgesprochen. Doch am 15. November widerrief er seinen ursprünglichen Beschluss. Neben SPD und BÜNDNIS 90/Die GRÜNEN hatte auch der Ortsteil Tiefurt mit seinen nur 220 Einwohnern gegen die Ostumfahrung insistiert, weil er in Trassennähe liegt. Einige tausend Einwohner und zahllose Verkehrsteilnehmer (mehr als 15.000 bis 20.000 Fahrzeuge quälen sich tagtäglich durch dieses Nadelöhr der Stadt) sind also weiterhin Lärm und Stress ausgesetzt. Der Gesamtschaden für die Umwelt ist höher als der Nutzen der Verhinderung, denn durch die täglichen Staus entstehen enorme Abgas-Mengen:

Abbildungen 10a und 10b: Protest-Banner genervter Anlieger für die verhinderte Ost-Umfahrung. Täglicher Stau auf der am stärksten betroffenen Friedrich-Ebert-Straße. Fotos: Stefan Kämpfe

Alle Verkehrsexperten betonen die Wichtigkeit eines möglichst flüssigen Verkehrs zur Senkung der Lärm- und Schadstoffemissionen. Aber die Partei DIE GRÜNEN sieht das anders. Ihre Klientel wohnt ja weit entfernt von den Staus in den „besseren“ Stadtvierteln. Man hätte sich die gleiche Vorgehensweise der GRÜNEN bei den Projekten der „Energiewende“ gewünscht, wo ja auch Natur- und Landschaftsverbrauch sowie weitere Umweltschäden zu beklagen sind (Teil 1).

Grüner Fetisch E-Auto: Tausche alte gegen neue Umweltprobleme

GRÜNE abschalten – Diesel erhalten!

Grüne Versäumnisse im Verkehrswesen

Realistische Energiepolitik – einige Vorschläge zum Schluss

Wegen der Unkalkulierbarkeit des technischen Fortschritts kann sich eine realitätsnahe Energie- und Verkehrspolitik stets nur an den momentanen Gegebenheiten und Erkenntnissen orientieren. Der WIRKLICH umweltfreundliche, preiswerte und ständig verfügbare Energieträger wurde bis heute nicht gefunden. Eine realitätsnahe Politik für die kommenden Jahre sähe daher so aus:

  1. Sofortiger Ausbau-Stopp für Wind-, Solar- und Biomasse-Energie. Agrarprodukte gehören auf den Teller oder in die stoffliche Produktion, nicht in den Tank oder ins Stromnetz.
  2. Verstärkte Erdgas-Nutzung zur Strom- und Wärmegewinnung (auch mit Kraft-/Wärme-Kopplung) und für gasbetriebene Fahrzeuge. Erdgasgewinnung aus Fracking in Deutschland darf kein Tabu sein!
  3. Bau und steuerliche Förderung wirklicher „Drei-Liter-Autos“, welche dieses Verbrauchslimit unter realistischen Verkehrsbedingungen einhalten.
  4. Den öffentlichen Nahverkehr ausbauen und die Fahrpreise merklich senken.
  5. Mehr Gütertransporte auf Schienen und Wasserwege verlagern.
  6. Flugreisen sollten progressiv besteuert werden – je weiter, desto teurer.
  7. Verstärkte Forschung und Entwicklung in Energiegewinnungs- und Speichertechnologien einschließlich der Weiterentwicklung der Kernenergie-Nutzung.

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher