Schnee im Mai 2019 – ein Vorbote der Klima-Abkühlung?

Seit etwa der Jahrtausendwende nahm die Sonnenaktivität, grob gekennzeichnet durch die Anzahl der Sonnenflecken, so stark ab, wie schon seit 200 Jahren nicht mehr:

Abbildung 1: Die Anzahl der Sonnenflecken ist momentan so gering wie seit 200 Jahren nicht mehr. Sie bildet freilich die Sonnenaktivität, welche unser Klima maßgeblich bestimmt, nur sehr grob ab, ist aber die einzige langfristig beobachtete solare Größe.

hier). Drittens beeinflusst die Sonnenaktivität auch die Häufigkeitsverhältnisse der Großwetterlagen – bei geringer Sonnenaktivität treten tendenziell mehr Extremwetterlagen auf. Hier besteht noch erheblicher Forschungsbedarf, zumal die Sonnenfleckenanzahl nur ein sehr grobes, nicht immer zuverlässiges Maß der wirklichen solaren Aktivität ist. So scheinen bei geringer Sonnenaktivität tendenziell mehr Großwetterlagen mit nördlichem Strömungsanteil, welche uns auch die markanten Kälterückfälle im Frühjahr 2019 bescherten, aufzutreten – möglicherweise schwächen die Effekte der Koronalen Löcher diesen Zusammenhang aber ab:

Abbildung 2: In Zeiten mit weniger Sonnenflecken, wie bis etwa bis zur Mitte des 20. Jahrhunderts und momentan, treten in Mitteleuropa mehr Nordwetterlagen auf. Der Zusammenhang ist freilich nur schwach. 2018 gab es relativ wenige Nordwetterlagen – möglicherweise ein Effekt der koronalen Löcher.

Eine zweite, wesentliche Einflussgröße auf unser Klima ist die so genannte AMO (AMO = Atlantische Mehrzehnjährige Oszillation, ein Index für die gemittelten Meeresoberflächentemperaturen im zentralen Nordatlantik). Sie weist eine etwa 60ig- bis 80ig-jährige Rhythmik auf und hatte im späten 20. und frühen 21. Jahrhundert ihr Maximum („Warmphase“):

Abbildung 3: Die AMO weist um die Mitte des 20. Jahrhunderts und gegenwärtig höhere Werte („Warmphasen“) auf; in welchen auch die Jahresmitteltemperaturen und besonders die Sommer- und Herbsttemperaturen in Deutschland erhöht sind. Die beginnende AMO-Warmphase war um 1990 eine mögliche Ursache des „Klimasprungs“ – einer plötzlichen, markanten Erwärmung in Deutschland. Im Jahresmittel beeinflusst die AMO die Variabilität der Lufttemperaturen in Deutschland zu fast 20% – der Zusammenhang ist signifikant. Um beide Größen anschaulich in einer Grafik zu präsentieren, wurde in Indexwerte umgerechnet.

Abbildung 4: Die Häufigkeit der beiden Troglagen nahm stark zu – besonders seit dem späten 20. Jahrhundert. Der Zusammenhang zwischen AMO-Werten und ihrer Häufigkeit ist deutlich und signifikant. Um beide Größen anschaulich in einer Grafik zu präsentieren, wurde in Indexwerte umgerechnet.

Beide Troglagen sind in ihrer Wirkung auf die Temperaturverhältnisse in Deutschland sehr gegensätzlich, denn während ein Trog über Westeuropa, der zu den südlichen Großwetterlagen zählt, sogar extreme Hitzewellen auslösen kann, speziell in Ostdeutschland, bringt ein Trog über Mitteleuropa kaltes Nordwetter, was auch den Mai-Schnee 2019 verursachte:

Abbildung 5: Zwischen zwei markanten Hochdruckgebieten (Ostatlantik, Nordosteuropa) liegt ein Tief über der Barents-See, südlich davon reicht ein mit extrem kalter Luft angefüllter „Höhen-Trog“, kenntlich an den blauen und grünen Farben, über Nord- und Mitteleuropa bis zum Mittelmeer. Wetterlage vom 4.Mai, Quelle wetterzentrale.de, leicht verändert und ergänzt.

Gemeinsam ist aber den beiden Troglagen die Neigung zu gebietsweisen Starkniederschlägen, Schauern und Gewittern.

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




Eine Story der Manipulation von CO2-Daten

Der natürliche Anteil von CO2 in der Atmosphäre liegt bei 0,04%, das ist alles andere als das wichtigste Treibhausgas, geschweige denn das einzige, anders als es der größte Teil der Öffentlichkeit sieht.

Wasserdampf, dem Volumen nach mit einem Anteil von 95% an Treibhausgasen, ist bei weitem das häufigste und bedeutendste Treibhausgas.

Das andere relevante Treibhausgas ist Methan (CH4), aber es macht nur zu 0,000175% aller atmosphärischen Gase aus und 0,036% aller Treibhausgase.

Um die Bedeutung von CO2 aufzublähen, erzeugte man eine Maßzahl, genannt „Klimasensitivität“. Damit ist gemeint, dass CO2 als Treibhausgas „effektiver“ ist als Wasserdampf.

Hier folgt eine Tabelle von Wikipedia, welche Schätzungen der Effektivität der verschiedenen Treibhausgase zeigt. Man beachte die Bandbreite der Schätzungen, welche die Maßzahlen effektiv bedeutungslos macht – es sei denn, man hat eine politische Agenda. Wikipedia räumt ein: „Es ist nicht möglich festzustellen, dass ein bestimmtes Gas einen bestimmten Prozentanteil des Treibhausgas-Effektes auslöst“:

Das Ergebnis der Bestimmung der „Effektivität“ war die Erzeugung einer Karte des Global Warming Potential (GWP). Sie war ähnlich der Karte der Ozone Depleting Substances (ODS) [Ozon zerstörende Substanzen], welche nach der falschen Behauptung konstruiert worden war, dass CFCs das Ozon in der oberen Atmosphäre angreifen.

Schätzungen der Größe der der Atmosphäre hinzugefügten menschlichen CO2-Erzeugung werden vom IPCC erzeugt. Es behauptet, dass es 3% der Gesamtmenge des hinzugefügten CO2 ausmacht.

In den frühen IPCC-Berichten wurde kolportiert, dass die Verweildauer von CO2 in der Atmosphäre mindestens 100 Jahre beträgt. Obwohl die 100 Jahre nicht erwähnt werden, ist diese Angabe nach wie vor auf vielen Websites der Regierung implizit präsent. Zum Beispiel heißt es bei Environment Canada: „Da Kohlendioxid lange Zeit in der Atmosphäre verbleibt, wird sich dessen Niveau durch fortgesetzte menschliche Emissionen immer weiter erhöhen“. Die tatsächliche Verweildauer von CO2 beträgt aber nur 5 bis 7 Jahre. Danach wird es von natürlichen Senken absorbiert wie Pflanzen, Ozeane und Erdboden.

Der Ozean ist der Haupt-Kontrolleur des atmosphärischen CO2, aber dessen Fähigkeit variiert mit der Wassertemperatur. Ein kalter Ozean absorbiert mehr als ein warmer Ozean.

Menschen erzeugen CO2, aber sie entfernen es auch aus der Atmosphäre. Land- und Forstwirtschaft sind die Haupt-Absorber, welche geschätzt 50% der Gesamtproduktion aus der Atmosphäre entfernen.

Antarktische Eisbohrkerne zeigen, dass die Temperatur vor einer Zunahme des CO2-Gehaltes gestiegen war. Eine ähnliche Relation findet sich in jeder Aufzeichnung welcher Dauer auch immer und für alle Zeiträume. Trotzdem sind alle Computer-Modelle so programmiert, dass eine CO2-Zunahme auch eine Temperaturzunahme verursacht.

Kohlendioxid ist für das gesamte Leben auf der Erde unabdingbar. Forschungen belegen, dass der gegenwärtige Anteil von etwa 392 ppm etwa ein Drittel des Optimums für die meisten Pflanzen ausmacht. Empirische Beweise, ermittelt durch Einleitung von CO2 in kommerzielle Gewächshäuser, zeigen das optimale Niveau zwischen 1000 und 1200 ppm. Interessanterweise entspricht dies dem mittleren Niveau der letzten 300 Millionen Jahre.

Die zweite große Datenmanipulation involvierte CO2, die Zielscheibe des gesamten UNEP und des IPCC. Wie kann man „industrialisierte Nationen loswerden“, wie es Maurice Strong fordert. Die Quelle für deren Energie und Erfolg sind fossile Treibstoffe. Man vergleiche die Nation mit einem Auto. Das ist eine gute Analogie, weil viele das Auto dämonisieren als das Symbol der Industrialisierung, besonders in den USA. Man kann das Auto anhalten, indem man die Benzinzufuhr kappt. Das Gleiche kann man mit einer Nation machen, aber es würde augenblicklich eine negative Reaktion nach sich ziehen. Man denke einfach nur an die Reaktion, wenn die Treibstoffpreise explodieren. Man kann das Auto auch anhalten mittels Blockierung der Abgase, und das hat Potential für die Anwendung auf eine Nation. Man zeige, dass das Nebenprodukt des Autos – oder der Nation – das Klima zerstört, und man hat ein mächtiges Zugpferd, um eine Agenda voranzutreiben, das Auto oder die Industrie zu verbannen. Das ist effektiver, wenn man dem Nebenprodukt das Stigma eines Verschmutzers aufdrückt.

Die Isolation begann, als das IPCC den Klimawandel als ausschließlich auf menschliche Ursachen beruhend apostrophierte. Die Definition für Klimawandel stammt aus dem United Nations Environment Programme (Artikel 1) des United Nations Framework Convention on Climate Change (UNFCCC):

„…eine Änderung des Klimas, welche direkt oder indirekt menschlichen Aktivitäten zugeordnet werden kann, wodurch die Zusammensetzung der globalen Atmosphäre verändert wird und welche zusätzlich zur natürlichen Klimavariabilität auftritt, die über längere Zeiträume beobachtet wird“.

In einer weiteren seiner betrügerischen Machenschaften verwarf das IPCC die ursprüngliche Definition von Klimawandel, wie sie von der UNFCCC festgelegt worden war und die in die ersten drei IPCC-Berichte Eingang gefunden hatte, bevor sie im Bericht 2007 ersetzt worden ist. Beschrieben wird dies in einer Fußnote in der Summary for Policymakers: „Klimawandel im Sinne des IPCC meint jedwede Änderung des Klimas mit der Zeit, sei diese nun der natürlichen Variabilität oder menschlichen Aktivitäten geschuldet. Diese Definition unterscheidet sich von derjenigen im UNFCCC, wo Klimawandel sich ausschließlich auf eine Änderung bezieht, die direkt oder indirekt menschlichen Aktivitäten zugeordnet werden kann, wodurch die Zusammensetzung der globalen Atmosphäre verändert wird und welche zusätzlich zur natürlichen Klimavariabilität auftritt, die über längere Zeiträume beobachtet wird“. Das Problem dabei: Man hat den Vierten Zustandsbericht nicht verändert, weil die Berichte kumulativ sind und es daher keine Grundlage für die Einbeziehung der natürlichen Variabilität existiert.

Tabellen mit den vom IPCC herangezogenen Faktoren belegen, dass sich nichts geändert hat. Hier folgt die Tabelle aus dem IPCC-Bericht 2001:

Was darin auffällt:

1. Wasserdampf, das bedeutendste Treibhausgas, ist gar nicht erst aufgeführt.

2. Nur die Sonneneinstrahlung ist gelistet – dabei ist das nicht der einzige Faktor, mit welchem die Sonne das Klima beeinflusst. Falls man ausschließlich menschliche Gründe listet, wie beeinflussen wir dann die Sonneneinstrahlung?

3. Die Spalte rechts zeigt das Level of Scientific Understanding (LOSU).

4. Behauptungen eines „großen“ Verständnisses sind wissenschaftlich nicht gerechtfertigt.

5. Neun Faktoren sind gelistet – davon sind nur zwei hoch, aber vier niedrig und 2 Med-niedrig.

6. Die vom Menschen verursachte Gesamtänderung wird gemittelt mit 1,6 W/m² angegeben (Bandbreite 0,6 bis 2,4)

Im Report 2007 wurde keine neuen Variablen hinzugefügt – trotz der neuen angeblichen Definition. Wie es mit Allem, was das IPCC macht, so geht: das, was fehlt oder verändert wurde, erzählt die Story:

1. Die LOSU-Spalte ist verschwunden.

2. Die Spalte mit der Bandbreite der Schätzungen des Strahlungsantriebs (RF) ist verschwunden.

3. Wasserdampf fehlt immer noch

4. Zahlen für die Bandbreite des menschlichen Antriebs fehlen, aber dem Augenschein nach blieben sie unverändert.

5. Der menschliche Gesamt-Effekt scheint weiterhin bei 1,6 W/m² zu liegen.

6. Dies zeigt, dass die behauptete Zunahme von menschlichem CO2 nicht enthalten ist.

Es verbleibt das Problem: Da man nicht weiß, wie viel CO2 es gibt oder wie stark es sich auf natürliche Weise verändert, kann man nicht bestimmen, welcher Anteil menschlichen Aktivitäten geschuldet ist. Jede einzelne Angabe ist im besten Falle eine grobe Schätzung.

Mittels des Designs unterstreichen alle vom IPCC genannten Zahlen bzgl. CO2-Aufnahmen aus natürlichen Quellen und menschlichen Emissionen:

Emissionen:

Menschen und Tiere                                          45 bis 52

Ausgasen aus Ozeanen (tropische Gebiete)      90 bis 100

Vulkanische und andere Geo-Quellen              0,5 bis 2

Boden-Bakterien, Verrottung und Verfall         50 bis 60*

Waldrodungen und -brände                            1 bis 3

Anthropogene Emissionen (2010)                      9,5

Gesamt:                                                      196 bis 226,5

*Andere veröffentlichte Werte: 26 Gt bzw. 86 bis 110 Gt

Aufnahme

Vegetation auf dem Festland                             55 bis 62

Ozeane                                                               87 bis 95*

Algen, Phytoplankton, Seetang                          48 bis 57

Verwitterung (Silizium-Mineralien)                      3 bis 6

Gesamt                                                          193 bis 220

Andere veröffentlichte Werte: 68 bis 110 bzw. 30 bis 50 Gt

Die Differenz beträgt +1,5 bis 3 Gt pro Jahr, was übereinstimmt mit der jährlichen Zunahme (abhängig von der ENSO-Aktivität)

Man beachte, dass Fehlerbandbreite für Schätzungen der Ausgasungen aus Ozeanen und Bodenbakterien die Gesamt-Emissionen der Menschen übersteigt.

Die menschliche CO2-Erzeugung steht im Mittelpunkt des IPCC, so dass es die Verbreitung von Informationen kontrolliert. Wie fast alles, was das IPCC macht, findet das hinter verschlossenen Türen statt, aber es weiß, dass einige Menschen um die Bedeutung wissen. Man erklärt das Verfahren so:

Welche Rolle spielt das IPCC bei den Treibhausgas-Untersuchungen und berichtet dem UNFCCC?

Das IPCC hat eine Reihe von Verfahrensberichten bzgl. nationaler Treibhausgas-Untersuchungen erzeugt mit dem Ziel, international akzeptable Untersuchungs-Verfahren zu beschreiben. Das IPCC akzeptiert die Verantwortung, wissenschaftliche und technische Ratschläge zu geben bzgl. spezifischer Fragen mit Bezug zu jenen Untersuchungsverfahren, welche in diesen Berichten enthalten sind. Das IPCC hat eine Task Force eingerichtet, welches das National Greenhouse Gas Inventory Programme (NGGIP) betreiben soll, um diese Beratung bzgl. der Verfahren zu erstellen. Mitglieder des UNFCCC haben beschlossen, den IPCC-Leitlinien bei Berichten an die Konvention zu folgen.

Wie erzeugt das IPCC diese Leitlinien? Zur Nutzung der IPCC-Verfahren entwerfen nominierte Experten aus der ganzen Welt die Berichte, welche dann exzessiv zweimal begutachtet werden, bevor sie vom IPCC angenommen werden. Dieses Verfahren stellt sicher, dass die breitest mögliche Bandbreite von Standpunkten in die Dokumente einfließt.

Mit anderen Worten: das IPCC kontrolliert die gesamte Prozedur, von der Verfahrensweise über die Art der technischen Beratung, die Einrichtung von Task Forces, Leitlinien der Berichterstellung, Nominierung von Experten zur Erstellung der Berichte bis zur endlichen Annahme dessen, was die Berichte enthalten. Man stützt sich auf Daten von individuellen UN-Mitgliedsstaaten, aber jedwede Untersuchung der UN-Daten enthüllt sehr schnell deren Unzulänglichkeiten. Beispiel: Man betrachte die Länder welche eine Alphabetisierungs-Rate von 99% oder höher für sich in Anspruch nehmen.

Die IPCC-Zahlen der jährlichen Video, dass der menschliche Anteil keinerlei Auswirkungen hat. Er zeigt, dass Variationen der natürlichen (nicht menschlichen) CO2-Quellen fast alle jährlichen Änderungen erklären. Er zeigt, wie eine Variation um lediglich 5% dieser Quellen mehr ausmacht als die gesamte menschliche Erzeugung.

Teilweise erklärt sich der IPCC-Fehler dadurch, dass die Klimawissenschaft davon ausgeht, dass Änderung und Variabilität ungewöhnlich seien, wie das Diagramm illustriert. Sie zeigen nicht den Fehler in den Schätzungen der Volumina, welche in mindestens drei Bereichen, Atmosphäre, Ozeane und Vegetation/Erdboden, weit über Schätzungen der gesamten menschlichen Erzeugung hinausgehen. Das gilt selbst dann, wenn man die vom IPCC behauptete jährliche Zunahme heranzieht.

Die folgende Abbildung zeigt die Prozentanteile von Treibhausgase in der Atmosphäre:

Ein anderes Diagramm zeigt diese Anteile in anderer Form:

Man vergleiche dieses Diagramm mit dem Folgenden von der Website des ABC News Network. Sie zeigt die Verzerrungen durch den Betrug des IPCC. Wasserdampf, das bei Weitem bedeutendste Treibhausgas, taucht nicht einmal auf. Dies ist ein Beweis für den Erfolg, die gesamte Aufmerksamkeit auf das CO2 zu lenken.

Es gibt viele Missverständnisse über CO2, alle erzeugt, um die Hypothese zu stützen und das Bedrohungsniveau auf verschiedene Weise zu erhöhen. Zum Beispiel lautet eine frühe IPCC-Behauptung, dass die Verweildauer von CO2 in der Atmosphäre mindestens 100 Jahre lang ist. Das war ostentativ dazu gedacht, uns glauben zu machen, dass selbst bei sofortiger Beendigung der CO2-Erzeugung der angerichtete Schaden noch lange Zeit währen wird. Heute wissen wir, dass die Verweildauer etwa 5 bis 6 Jahre beträgt.

Die grundlegende Annahme der Hypothese sagt, dass ein CO2-Anstieg einen Temperaturanstieg verursacht. Nach der Veröffentlichung von Petit et al. (1999) schienen antarktische Eisbohrkerne diesen Befund zu belegen, wie der IPCC-Bericht 2001 meint:

Abbildung: antarktischer Eisbohrkern

Aber nur vier Jahre später erschien der Beweis, dass die grundlegende Annahme der Hypothese falsch war. Ein detaillierterer Blick darauf zeigte nämlich, dass die Temperatur vor einer Zunahme des CO2-Gehaltes gestiegen war, was ein kompletter Widerspruch zur Hypothese war. Irgendwie wurde das aber beiseite gefegt, vermutlich wegen der ablenkenden Behauptung, dass die Verzögerung zwischen 80 und 800 Jahren beträgt. Das spielt jedoch keine Rolle, weil es immer noch der zugrunde liegenden Hypothese widerspricht. Noch überzeugender ist die Tatsache, dass sich die einer CO2-Änderung vorausgehende Temperaturänderung in fast allen Aufzeichnungen für jedwede Periode oder Dauer zeigt. Sehr merkwürdig ist, dass dieser Widerspruch von allen Befürwortern und zu vielen Skeptikern ignoriert wird. Die folgende Abbildung zeigt einen kürzeren Zeitraum der Aufzeichnung bzgl. dieser Relation:

Abbildung: zeitliche Verzögerung über einen kurzen Zeitraum, 1958 bis 2009

Es ist logisch anzunehmen, dass falls eine CO2-Änderung wirklich einer Temperaturänderung in jeder Aufzeichnung hinterher läuft, CO2 kein Treibhausgas sein kann. Und trotzdem ist die Hypothese, dass eine CO2-Zunahme eine Temperaturzunahme bewirkt, in allen globalen Klima-Computermodellen enthalten einschließlich jener, die das IPCC heranzieht.

Das IPCC stand bald vor einer weiteren ernsten Herausforderung aufgrund der Notwendigkeit, die Hypothese zu beweisen anstatt sie zu widerlegen, wie es in der normalen Wissenschaft selbstverständlich ist. Man musste nämlich die Mittelalterliche Warmzeit MWP irgendwie loswerden, weil sie zeigte, dass es auf der Welt schon vor der industriellen Revolution wärmer war als heute. Das war notwendig, um zu belegen oder zu behaupten, dass das vorindustrielle CO2-Niveau niedriger war als heute. Diese Kampagne lief bereits, als die Informationen aus den Eisbohrkernen veröffentlicht worden sind.

Die meisten Menschen denken, dass Eisbohrkerne die einzige Quelle für vorindustrielles CO2 seien. Was die meisten Menschen aber nicht wissen ist, dass Tausende Messungen des atmosphärischen CO2 bereits im 19. Jahrhundert durchgeführt worden waren. Joseph Black studierte die Eigenschaften von CO2 bereits im Jahre 1750, und Joseph Priestly veröffentlichte Untersuchungen über Sauerstoff im Jahre 1775. Versuche, die verschiedenen Volumina atmosphärischer Gase zu messen einschließlich Messungen des CO2-Gehaltes folgten ab dem Jahr 1812. Wissenschaftler nahmen präzise Messungen mit kalibrierten Instrumenten vor, wie Ernst Georg Beck gründlich dokumentiert hat.

In einem Papier, welches anlässlich einer Anhörung vor dem US-Senatskomitee für Kommerz, Wissenschaft und Transportwesen eingereicht worden ist, schreibt Prof. Zbigniew Jaworowski:

Die Grundlage der meisten IPCC-Schlussfolgerungen bzgl. anthropogener Ursachen und Projektionen klimatischer Änderungen ist die Annahme eines niedrigen CO2-Niveaus der Atmosphäre in vorindustrieller Zeit. Diese Annahme ist falsch, wie glaziologische Studien belegen“.

Genauso bedeutend ist diese Feststellung Jaworowskis:

Die Vorstellung eines niedrigen vorindustriellen CO2-Niveaus wurde zu einem weithin akzeptierten heiligen Gral der Klima-Erwärmungs-Modelle, obwohl diese auf so einem ärmlichen Wissen beruhen. Die Modellierer ignorierten die Beweise durch direkte Messungen des CO2-Gehaltes der Luft, welche belegen, dass die mittlere Konzentration im 19. Jahrhundert bei 335 ppmv lag. Es wurden Daten selektiv herausgepickt, um zu zeigen, dass das atmosphärische CO2-Nveau im 19. Jahrhundert 292 ppmv betragen hatte. Eine Studie mittels der Anzahl von Stomata in fossilem Laub bei einem See in Dänemark zeigt, dass das CO2-Niveau vor 9400 Jahren 333 ppmv und vor 9600 Jahren 348 ppmv betragen hatte. Dies falsifiziert das Konzept einer stabilen und geringen CO2-Konzentration in der Luft bis zum Eintreten der industriellen Revolution.

Die Behauptung Jaworowskis, dass die Modellierer die Messungen aus dem 19. Jahrhundert ignoriert hätten, stimmt nicht. Sie wussten sehr wohl um diese Messungen, hat doch T. R. Wigley der klimawissenschaftlichen Gemeinschaft Informationen hinsichtlich der Messungen im 19. Jahrhundert zukommen lassen (Wigley, T.M.L. 1983 The pre-industrial carbon dioxide level.” Climatic Change 5, 315-320). Dann wurde das gemacht, was sehr oft gemacht wurde: man hat die Messungen mit höheren Werten eliminiert und aus den übrigen einen Wert von etwa 270 ppm abgeleitet. Ich denke, dass dies die Modellierer beeinflusst hat, weil Wigley mit ihnen an der CRU bei East Anglia zusammen gearbeitet hat. Er war die Schlüsselperson, welcher alles lenkte, wie aus den durchgesickerten E-Mails der CRU hervorgeht.

Wigley war nicht der Erste, der die Daten des 19. Jahrhunderts missbraucht hatte, aber er hat diese Daten in die Klima-Gemeinde gebracht. Dann wurden nur jene Messungen berücksichtigt, welche zur Hypothese passten.

Die ganze Story steht hier.

Link: https://wattsupwiththat.com/2019/05/01/a-story-of-co2-data-manipulation/

Übersetzt von Chris Frey EIKE




Klimawandel: Naturphänomen oder vom Menschen verursacht? Kutschera und Otte

Ulrich Kutschera nimmt mit seiner Haltung eine seltene Position zwischen den Stühlen ein; folgt also weder der Greta-Herde noch EIKE.

In Kassel wurde Kutschera von der Öko-Antifa heftig angegriffen, weil er nicht nur in Klimafragen unverschämterweise eine nicht-politisch-korrekte Meinung vertritt. Wir diskutieren aber mit jedem, der es ernst meint, und vor allem: Ahnung von der Natur hat. Und die hat der C4-Professor.

 

 




Reloaded: Kaleidoskop der Klimafakten Teil 2 von 3

Ich habe nicht die Absicht den Leser von etwas zu überzeugen, was er mit tiefem Glauben ablehnt. Jeder Mensch ändert sich nur aus sich selbst heraus! Meine Zusammenstellung kann nicht erschöpfend sein.  Einige neue Leser mögen die früheren Links noch nicht kennen.

 

Beginn Teil 2 von 3

Konsens in der Klimaforschung

  • „Als ich überlegte, wie viel verschiedene Ansichten über die gleiche Sache es geben kann, deren jede einzelne ihren Verteidiger unter den Gelehrten findet, und wie doch nur eine einzige davon wahr sein kann, da stand für mich fest: Alles was lediglich wahrscheinlich ist, ist wahrscheinlich falsch“
  • Konsens ist ein Ausdruck aus der Politik, wissenschaftliche Wahrheit wird nicht per Handzeichen bestimmt.
  • Modelle, die so stark voneinander abweichen, können nicht als Grundlage für kostspielige Entscheidungen hergenommen werden – (ja leider doch durch Politiker)

2018: Der ‚97%-Klimakonsens‘ beginnt zu zerfallen – mit 485 neuen Studien allein 2017, welche ihn in Frage stellen

Diese Grafik ist vom IPCC und zeigt die Szenarien nach Computersimulationen über steigende Temperatur, hinzu gefügt die Messpunkte der Realität.

Aktueller ist nachfolgende Grafik, die Herr Prof. Krüger in seinem offenen Brief verwendete

 Die Veränderung der beobachteten globalen Temperatur im Verhältnis zum Mittelwert für den Zeitraum 1991-2000 im Vergleich zu den alarmierenden Prognosen des IPCC, teilweise mit einem statistisch-empirischen Modell, das auf der Grundlage natürlicher Temperaturschwankungen erstellt wurde und teilweise mit einer geschwächten Sonnenaktivität. Quelle: J.-E. Solheim 2017.

 

Ist Ihnen bekannt, dass es Climate Gate überhaupt gibt?

Verschwörung, Absprachen die Erwärmungsdaten zu übertreiben, möglicherweise illegale Zerstörung peinlicher Informationen, organisierter Widerstand gegen die Offenlegung, Manipulation von Daten, eigene Zulassung von Fehlern in ihren öffentlichen Forderungen und vieles mehr

Inzwischen hinter einer Bezahlsperre: http://blogs.telegraph.co.uk/news/jamesdelingpole/100017393/climategate-the-final-nail-in-the-coffin-of-anthropogenic-global-warming/

Aber hier jetzt auch als Buch: https://de.calameo.com/books/000111790031e7e04c1de

 

http://community.zeit.de/user/schneefan/beitrag/2009/11/21/cruklimawissenschaftler-gehackt-ipccschwindel-weltweit-entlarvt

 

Anspruch: IPCC – ausschließlich Experten schreiben reviewed Beiträge für die Berichte?

Übersetzt bei Eike erhältlich, Titel des Originals:

The Delinquent Teenager Who Was Mistaken for the World’s Top Climate Expert

Die Autorin:

Das IPCC sollte eigentlich eine objektive wissenschaftliche Institution sein, aber Pachauri schreibt Vorworte für Greenpeace-Publikationen, und er hat die Auszeichnung ‚green crusader’ [etwa: grüner Kreuzfahrer] angenommen.

Er ist ein aggressiver Polit-Anwalt, obwohl seine Organisation politisch neutral sein sollte. Im Jahre 1996 hat ein indisches Gericht geurteilt, dass er „wesentliche materielle Fakten zurück gehalten“ und auf „falsche eidesstattliche Erklärungen“ geschworen habe. Im Gegensatz zu schon lange erhobenen Behauptungen hat er nur einen PhD, nicht zwei.

http://www.eike-klima-energie.eu/climategate-anzeige/ein-neues-buch-ueber-das-ipcc-und-pachauri-von-donna-laframboise/

 

Wer einmal lügt, der kann’s nicht lassen

Haben Sie das in deutschen Medien mitbekommen?

 Dieser Server ist nicht mehr aktiv: http://de.ibtimes.com/articles/24264/20110616/klimal-ge-erneuter-schwindel-beim-ipcc.htm

Dafür habe ich das gefunden: https://www.epochtimes.de/umwelt/der-co2-schwindel-teil-i-a104126.html#

Und das https://www.eike-klima-energie.eu/2011/06/17/weltklimarat-ipcc-laesst-sich-vom-medienkonzern-greenpeace-als-sprechpuppe-missbrauchen-energiebericht-von-greenpeace-verfasst/

 

Ende Teil 2 von 3

Andreas Demmig, ursprünglich von Anfang 2014, wieder angefasst im April 2019




SPIEGLEIN, SPIEGLEIN, mit dem Rücken zur Wand

Unter den reißerischen Überschriften „Murks in Germany“ und „Grüner Blackout“ äußert sich das verdiente Autorenkollektiv Dohmen, Jung, Schultz und Traufetter zum Stand der deutschnationalen Energiewende. Zu offensichtlich führt wohl deren Weg in die Sackgasse, so dass das Projekt medialer Unterstützung des ehemals renommierten Hamburger Hauses bedarf.

Bisherige Veröffentlichungen lassen nichts Gutes ahnen. Bürger Traufetter war schon an einem Beitrag (Spiegel Nr. 41/2016) beteiligt, der ausgemachte Fakes enthielt. Oder sagen wir es deutsch: Lügen. So wurde damals behauptet:

Weil die deutschen Braun- und Steinkohlekraftwerke auch an solchen Tagen (gemeint sind Starkwindtage) praktisch ungebremst weiterlaufen, drückt die deutsche Überproduktion die Strompreise europaweit in den Keller.“

Jeder redliche Journalist hätte recherchieren können, wie die Fahrpläne der Kraftwerke entstehen, wie der Einspeisevorrang grünen Stroms umgesetzt wird, wie der europäische Stromhandel funktioniert, dass es eine „Überproduktion“ von Strom nicht geben kann und welche Standortrestriktionen die Komplettabschaltung mancher Kohlekraftwerke verhindern. Dazu käme das Thema Netzdienstleistungen, aber das hätte die Schreiber dann komplett überfordert.

Viel leichter, bequemer und in jedem Fall Beifall versprechend das flache und klischeebedienende Kohle-Bashing. Wenn in der DDR die Beurteilung oder Einschätzung eines Werktätigen aus fachlicher Sicht nicht gut ausfiel, konnte manchem noch mit dem Hinweis geholfen werden, er habe wenigstens einen festen Klassenstandpunkt.

SPIEGEL-Schreiber wissen, welchen Standpunkt man von ihnen erwartet.

Die Zutaten des Hauptbeitrags im aktuellen Spiegel (19/2019) sind ein paar reale Fakten, angereichert und vermischt mit Szenarien, Optionen und Visionen und einer Prise Klimaziele. Was können wir also von den von gymnasialen Physikkenntnissen offenbar befreiten Autoren lesen?

Zunächst gibt es aktuelle Informationen zum vergangenen Ostermontag, an dem die „Erneuerbaren“ etwa 56 Gigawatt einspeisten und so dafür sorgten, dass der Börsenstrompreis wieder ins Minus drehte (bis zu -8 Cent pro Kilowattstunde), was alle Stromkunden mit bezahlen dürfen. So addierten sich zur EEG-Vergütung an diesem Tag von 115 Millionen Euro noch knapp 17 Millionen Euro, die zusätzlich zum Strom den Nachbarn geschenkt wurden. Negative Strompreise als Perversion der Marktwirtschaft.

Dazu steht im Beitrag natürlich nichts, sondern es werden nur die 56 Gigawatt erwähnt und man hakt das Thema mit einer quasireligiösen Formulierung ab:

Es war ein Zauber, das perfekte Zusammenspiel aus Natur und moderner Technik.“

Mehr Realitätsverweigerung geht kaum. Dann leitet man unvermittelt um auf das Thema Verkehr:

Deutschlands Straßen gehören den Autos von gestern, angetrieben von schweren, benzin- und dieselgetriebenen Motoren.“

Wenn man die Augen schließt, sieht man förmlich die Rußwolken der Mercedes 300D, Baujahr `82, oder den von der Ampel lossprintenden Senator 3,0 ohne Kat.

Es folgt Energiewendekritik aus den Häusern McKinsey und des Bundesrechnungshofes. Merkels wohl größtes Scheitern bestünde darin, so die Spiegler, dass sie klimapolitisch wenig bewegt habe. Könnte das mit der Abschaffung der emissionsarmen Atomstromerzeugung zusammen hängen? Kann man Klimapolitik losgelöst von Energie-, Wirtschafts- und Sozialpolitik denken?

Fragen über Fragen, die der Beitrag nicht thematisiert. Stattdessen ein schräger Vergleich mit Schweden, das aus dem Atomausstieg ausgestiegen ist und heute schon seinen Strom so gut wie emissionsfrei erzeugt. Deshalb haben die Wikinger keine Probleme mit einer CO2-Steuer. Wir hätten sie durchaus.

Dann steigert sich der Beitrag zu fulminantem Unfug. Deutschland hätte versäumt, mit dem Atomausstieg auch den Abschied von der Kohle einzuleiten.

Es wurden Windräder und Solarpaneele errichtet, und die Kohlemeiler liefen fröhlich weiter.“

Und warum?

„Um bloß niemandem wehzutun, keinem Unternehmen, keinem Bürger.“

So einfach ist das. Kein Wort darüber, dass ein sicheres System erhalten bleiben muss, wenn das hippe neue System nur liefert, wenn es Lust hat. Stattdessen weiter hinten der abenteuerliche Satz, Deutschland habe sich „daran gewöhnt“, zwei Systeme, von denen „die Gesellschaft“ nicht so leicht loskomme, laufen zu lassen. Keine Idee der Autoren dazu, wie die grüne Infrastruktur grund- und regellastfähig gemacht werden kann, stattdessen solle man sie weiter ausbauen.

Dann geht es noch ein bisschen um das politische Triumvirat Kanzleramt / Umweltministerium / Wirtschaftsministerium mit Verweisen auf Trittin (der mit der Eiskugel) und den aus dem Amt geflüchteten ehemaligen grünen Staatssekretär Baake, natürlich ohne den Hauch einer kritischen Beurteilung. Weiter zum Thema Netze und einem ausführlichen Lamento über deutsche Genehmigungsverfahren für Windkraftanlagen. Der Schutz von Mopsfledermäusen und Rotmilanen wird kritisch hinterfragt, so als wenn Feldhamster oder Hufeisennasen nicht auch Gewerbegebiete verhindert und Brückenbauten gefährdet hätten. Kein Wort zu den verheerenden Auswirkungen der immer größer werdenden Windkraftanlagen auf Vögel, Fledermäuse und Insekten und auch auf Menschen. Die Themen Infraschall und Gesundheit der Anwohner werden sorgfältig verschwiegen.

Die immer länger dauernden Genehmigungsverfahren werden verantwortlich gemacht, dass es „keinen Wettbewerb“ mehr gäbe. Auch hier systemisches Unverständnis. Unter dem EEG hat es noch nie Wettbewerb gegeben (höchstens um die windhöffigsten Standorte), sondern bis 2017 immer feste Vergütungen. Es gibt sogar Geld für Strom der nicht produziert wird, weil er nicht abtransportiert werden kann. Das katastrophale Missmanagement bei der Koordinierung von Zubau volatiler Erzeugung und Netzausbau ist kein Thema für die Autoren, denn dies zeigt, wer das Sagen hat: Die Ökolobby. 1,4 Milliarden Euro Redispatchkosten im Jahr 2017 werden mit Schulterzucken quittiert. Passiert.

Der Versuch, mit der EEG-Novelle die Windkraft an den Markt heranzuführen, ist nun sichtbar am Scheitern. Keine Angebote aus der Windbranche in der vergangenen Ausschreibung der Bundesnetzagentur zum Stichtag 1. April 2019. Das Vergütungsband von 6,2 bis 8 Cent pro Kilowattstunde ist der Windbranche offenbar zu niedrig.

Absehbare Strafzahlungen sind ein weiteres Thema. Wenn Deutschland die Klimaziele nicht erfüllt, muss es an seine Nachbarn zahlen. So ist das, wenn Politiker EU-Zielen zustimmen in Unkenntnis darüber, wozu man eigentlich in der Lage ist – und wozu nicht. Aber schon mal ein Hinweis darauf, wie die Einnahmen aus der CO2-Steuer verwendet werden könnten.

Dann folgt eine Beschreibung der Sektorziele in Verkehr und Wärme wozu die alte Suppe P2V (Power to Vehicle – Stromspeicherung mittels E-Mobilen) aufgewärmt wird. Man berichtet von einem Fahrzeug des Versorgers Enervie, das auch rückspeisen kann. Da lehnt man sich gelangweilt zurück, denn bereits 2014 wies die

BTU Cottbus in einem Projekt nach, dass und wie man in einem E-Mobil ein- und ausspeisen kann. In einer Woche hätte ein E-Autobesitzer 20 Euro verdienen können mit dieser Stromspeicherung, erwähnt das Autorenkollektiv. Ob er mit dem Gerät nebenbei auch hätte fahren können, wird nicht erwähnt.

Nicht zu vergessen auch der Hinweis auf die „Wasserstoffrevolution“, für die die Zeit jetzt „reif sein sollte“. Das erinnert an Hermann Honnef, der schon in den dreißiger Jahren des letzten Jahrhunderts den überschüssigen Strom seiner im Berliner Stadtgebiet vorgesehenen „Reichskrafttürme“ (vierhundert Meter hoher Windkraftanlagen) „zur Erzeugung billigen Wasserstoffs“ nutzen wollte. Fast achtzig Jahre später die Erkenntnis der SPIEGEL-Autoren, dass sich die Umwandlung von Strom in synthetische Energieträger in gas- oder flüssiger Form nicht rechnet.

Mainstreamkompatibel folgt noch die Kritik am europäischen Emissionshandel (ETS), der angeblich nicht funktioniere und untauglich sei. Natürlich fehlt die Information, dass ETS und EEG gegenläufig arbeiten: Das EEG wirkt nur national und sorgt durch den Einspeisevorrang für die Verdrängung des fossilen Stroms – und der Zertifikate, die dann europaweit gehandelt werden. Damit wird der Preisdruck von den Zertifikaten genommen.

Subtil gibt es noch etwas unterschwellige Werbung für eine „Klimasteuer“ und die Behauptung, dass bis 2050 der Ausstieg aus den Fossilen möglich sei. Die „Studien, Strategien und Anlagen“ stünden bereit. Hier hätte gern etwas ausführlicher beschrieben werden können, welche Anlagen gemeint sind.

Der „zweite Teil“ der Energiewende werde teuer und anstrengend, ähnlich der Wiedervereinigung. Da bin ich anderer Meinung. Sie wird teurer, anstrengender, vor allem aber in dieser Form erfolglos sein.

Anmerkung der Redaktion.

Der SPIEGEL lobt die Ergebnisse des e-SOLCAR Projektes der BTU Cottbus. Auch hier wurde miserabel recherchiert und mit ideologischen Scheuklappen miese Ergebnisse schön geredet.

EIKE hat vor einem Jahr dieses „Leuchtturmprojekt“  der Brandenburger „Energiestrastegie 2030“ untersucht. Das Ergebnis sehen Sie weiter unten. Fazit – wer diesen Leuchttürmen folgt landet todsicher auf einem Riff.

lt Factsheet(https://www-docs.b-tu.de/fg-evh/public/esolcar/FactSheet_esolcar.pdf) der BTU Cottbus lief das Projekt eSOLCAR vom Juni 2011 bis Dezember 2014 und kostete insgesamt 9 233 000 EUR. Es wurde u.a gefördert durch den Europäischen Fonds für Regionale Entwicklung (EFRE).(Vermutlich auch von Vattenfall die 22 der 45 Fahrzeuge betrieben)  Im Rahmen von e-SolCar wurden etwa 10.000 Ladevorgänge durchgeführt. Das entspricht einer Ladeenergie von ca.130 MWh.

Insgesamt waren 45 Fahrzeuge beteiligt mit einer Gesamtfahrleistung von 400.000 km. Das sind pro Monat der Projektdauer von insgesamt 42 Monaten nur ca. 211 km/Monat und Fahrzeug. Völlig ungeeignet, weil viel zu wenig für die Erprobung dieser Technik! Weder für ein Flächenland wie Brandenburg noch eine Großstadt wie Berlin. Denn die durchschnittliche Fahrleistung über alle Altersgruppen und Wohngebiete betrug 2013 rd. 13.000 km p.a das sind 1083 km/Monat. Also rd. das 5 fache der Versuchs-Kfz.

Die ausgegebene Ladeenergie (130 MWh) betrug umgerechnet und im Mittel pro Fahrzeug und Monat nur ca. 69 KWh (das sind 825 kWh p.a.) In etwa soviel wie ein kleiner sehr effizienter Kühlschrank (145 l) pro Jahr[1]verbraucht.

Zum Vergleich: Ein 50 l Dieseltank enthält bei 11,9 kWh/kg rd. 500 kWh, ist in 2 Minuten betankt und erlaubt eine Strecke von 1000 km zu fahren. D.h das ca. 5 fache der Versuchsfahrzeuge mit einer einzigen „Ladung“ Diesel.

Insgesamt wurden mit 130 MWh 400.000 km elektrisch gefahren. Um 130 MWh „Strom“ zu erzeugen mussten 2016 lt Emissionsfaktor  des UBA[2]ca. 527 g/kWh x 130.000 emittiert werden. Hier sind das also 69.510 kg.

Für 400.000 km wären hingegen rd. 20.000 l Diesel erforderlich. Diese hätten bei rd. 3 kg/l CO2 Emissionen rd. 60.000 kg CO2 emittiert. Der reine Dieselbetrieb hätte also rd. 16 % weniger CO2 emittiert.

[1]https://www.stromverbrauchinfo.de/stromverbrauch-kuehlschraenke.php

[2]https://www.umweltbundesamt.de/publikationen/entwicklung-der-spezifischen-kohlendioxid-3