Google-Umfrage: Die Welt wendet sich gelang­weilt vom Thema Klima­wandel ab

Als die COP24-Konferenz jüngst in Polen ohne wesentliche Beschlüsse zu Ende gegangen war, erhob sich angesichts abwärts tendierenden Interesses zum Thema die Frage, ob die Medien und die Öffentlichkeit der Diskussion dieser Frage überdrüssig geworden sind.

Die Graphik unten zeigt die Länge (Anzahl der Intervalle von 15 Sekunden Länge) der Berichterstattung bei CNN, MSNBC und Fox News von Juni 2009 bis heute, wenn dabei die Termini „Klimawandel“ oder „globale Erwärmung“ angesprochen wurden. (Daten von hier und hier).

Die immense Medienpräsenz der Kopenhagen-Konferenz im Jahre 2009 tritt klar hervor, ebenso wie die stetige Zunahme der Berichterstattung vom vierten bis zum siebenten Jahr der Präsidentschaft Obamas, bis sie zum Pariser Übereinkommen 2015 kulminierte. Der Rückzug von Präsident Trump aus dem Abkommen führte zur viertlängsten Fernseh-Berichterstattung über dieses Thema des vergangenen Jahrzehnts. Im Gegensatz dazu führte das Fehlen wesentlicher Neuerungen dieses Jahres 2018 zur zweitniedrigsten Berichterstattung.

Die sich ändernden klimatischen Bedingungen auf der Erde werden typischerweise als „globale Erwärmung“ oder „Klimawandel“ angesprochen. Ersteres impliziert einen sich erwärmenden Planeten, letzteres konzentriert sich auf Erwärmung, Abkühlung und klimabezogenes Extremwetter.

Die Balkengraphik unten zeigt die Prozentzahl der Zeit, in der bei CNN, Fox News und MSNBC die beiden Termini während des vergangenen Jahrzehnts erwähnt worden sind. Bei Fox News tauchte „globale Erwärmung“ fast genauso oft auf wie bei den anderen beiden Kanälen zusammen. Bei MSNBC wurde eine Kombination beider Termini 0,16% der Zeit zur Sprache gebracht, gefolgt von Fox News mit 0,13% und CNN mit 0,10%.

Betrachtet man die weltweite Berichterstattung in den Medien, ergibt sich die folgende Graphik. Sie zeigt die Zeit in Prozent der Berichterstattung bzgl. jeder der beiden Termini in den 65 Sprachen, die vom GDELT-Projekt untersucht worden waren. (GDELT = Global Database of Events, Language, and Tone). Auch hier ist der Terminus „Klimawandel“ eindeutig der Favorit, wurde er doch 3,7 mal so oft erwähnt wie „globale Erwärmung“. Der relative Mangel an Berichterstattung im Jahre 2018 ist ebenfalls unten ersichtlich. Dabei nahm das Medieninteresse Anfang August Fahrt auf und zeigte einen kurzen Spitzenwert Anfang Oktober mit der Veröffentlichung des IPCC-Reports. Eine weitere Spitze zeigt sich im vorigen Monat im Vorfeld der COP24-Konferenz.

Die stärkste Abdeckung der letzten zwei Jahre erfolgte im Juni 2017, als Trump sich aus dem Paris-Abkommen zurückgezogen hatte, und dann noch einmal im nachfolgenden Monat, als andere Nationen auf dem G20-Gipfel ihre Unterstützung dafür bekräftigten.

Alles in allem wurde in 20% aller klimarelevanten Berichterstattung Präsident Trump erwähnt. Dann könnte der Grund für die relative Stille des Jahres 2018 das Fehlen wesentlicher Ankündigungen aus dem Weißen Haus sein.

All dies führt auf eine Frage: Schert sich die allgemeine Öffentlichkeit überhaupt noch um Klimawandel? Die Zeitreihe unten zeigt die Ergebnisse der Google-Suche nach den Begriffen „Klimawandel“ und „Globale Erwärmung“ (mit erfasst sind deren Übersetzungen in andere Sprachen in allen Ländern, die auf Google zurückgreifen). Google nennt nicht die tatsächliche Anzahl der Klicks, sondern nennt stattdessen den Monat mit der höchsten Zahl von Suchanfragen 100% und beziffert alle anderen Monate als Prozentsatz dieses Spitzenwertes.

Das öffentliche Interesse zum Thema „Klimawandel“ erreichte im März 2007 seinen Höhepunkt, als Al Gore und sein Film „Eine Unbequeme Wahrheit“ sich im Glanz einer akademischen Auszeichnung und des Gewinns eines „Oscar“ sonnten. Während des folgenden halben Jahrzehnts schwand das Interesse dann wieder immer mehr. Im Gegensatz zur Berichterstattung in den Medien, in welchen der Begriff „Klimawandel“ gegenüber dem Begriff „globale Erwärmung“ bevorzugt worden ist, konzentrierte sich die Google-Suche auf Letzteres, obwohl die Lücke dazwischen während der letzten paar Jahre kleiner geworden ist. Die Suchanfragen nach „globaler Erwärmung“ befinden sich auf dem niedrigsten Niveau seit dem Beginn der Datenerfassung seitens Google im Jahre 2004.

Nach dem Paris-Abkommen 2015 nahmen Suchanfragen nach „Klimawandel“ etwas zu und scheinen in der Trump-Ära eine gewisse Renaissance erfahren zu haben, ist doch die Anzahl der Suchanfragen um einige Prozentpunkte gestiegen. Aber selbst dies scheint anders als die COP24-Spitze allmählich aus dem öffentlichen Interesse zu verschwinden.

Fasst man das alles zusammen ergibt sich, dass das Interesse für beide Termini im Schwinden begriffen ist, obwohl Trumps Anti-Klimawandel-Rhetorik eine gewisse Reprise des öffentlichen Interesses und der Berichterstattung in den Medien hervorgerufen hatte.

Ob dies nun heißt, dass die Welt glaubt, die Debatte um Kausalität und Konsequenzen settled ist oder ob die Öffentlichkeit so übersättigt worden ist mit dem Klima-Gefasel – im Endeffekt verschwindet das Thema immer mehr aus der öffentlichen Wahrnehmung.

—————————–

RealClear Media Fellow Kalev Leetaru is a senior fellow at the George Washington University Center for Cyber & Homeland Security. His past roles include fellow in residence at Georgetown University’s Edmund A. Walsh School of Foreign Service and member of the World Economic Forum’s Global Agenda Council on the Future of Government.

Link: http://www.thegwpf.com/google-survey-the-world-is-bored-about-climate-change/

Übersetzt von Chris Frey EIKE




Menschen sind die Primaten-Spezies mit jedem Recht, auf der Erde zu leben. …

Umweltaktivisten verwandelten eine notwendige und bessere Art des Lebens auf der Welt in eine destruktive politische Waffe mit dem Ziel der absoluten Kontrolle. AGW-Befürworter kaperten die Klimatologie, eine allgemeine wissenschaftliche Disziplin für ein besseres Verständnis der Atmosphäre, und machten sie zu einem politischen Werkzeug, um totale Kontrolle über menschliches Verhalten zu erlangen. COP24 ist der jüngste Versuch, die Menschen mittels dieser falschen Klimawissenschaft zu kontrollieren. Zwei falsche Hypothesen bildeten die Grundlage der Konferenz, nämlich: a) Die Wissenschaft ist settled und b) die menschliche Erzeugung von CO2 ist unnatürlich. Letzteres ist Teil des umfangreicheren, Anti-Menschen-Narrativs des Umweltaktivismus‘. Die Frage lautet: warum ist es den Menschen nicht gestattet, anders als alle anderen Spezies dieser Welt CO2 zu erzeugen?

Die Wahrheit ist, dass wir Umweltaktivismus brauchten, aber nicht als eine politische Waffe. Nach Macht gierende Umweltaktivisten nahmen die moralische Überlegenheit als Geisel für die Behauptung, dass nur sie allein sich um die Erde kümmerten. Sie versuchten, den Menschen Schuldgefühle einzureden, dass jedermann sonst ein zügelloser Verschmutzer sei, der die Erde zerstört. Dies wurde zu einer Religion mit allem Drum und Dran sowie mit dem blinden Glauben, die eine Religion einfordert. Jene, die all das hinterfragen, sind automatisch Häretiker, unabhängig von der Frage. Die wirkliche Tragödie dabei ist, dass der Logik getrotzt wird, dass sie Beweisen widerspricht sowie Entdeckungen und die Umsetzung praktischer Lösungen ausschließt. Wie mit so Vielem von dem, was heute in der Welt vor sich geht, ist der einfache Vorwurf des Unrecht-Tuns ausreichend, um Individuen, Gemeinschaften, Fabriken und Industrien zu zerstören. Beängstigenderweise gehen diese Zerstörungen selbst dann vonstatten, wenn die Menschen die geforderten Lösungen übernehmen und für ihr Fehlverhalten zahlen müssen.

Im Mittelpunkt der Behauptungen von Umweltaktivisten und Klima-Alarmisten steht der Glaube, dass die schnellste und einfachste Lösung darin besteht, die Anzahl der Menschen dramatisch zu verringern. Sie haben erfolgreich selbst vernünftige Menschen davon zu überzeugen versucht, dass das größte Problem die Überbevölkerung ist. Paul Ehrlich begründete diese falsche Doktrin im Jahre 1968 in seinem Buch The Population Bomb. Er bekräftigte dies in einem Statement zum Earth Day 1970, wonach Massen-Hungersnöte drohen und unvermeidlich seien. Wir wissen, dass dies eine falsche Doktrin ist, weil sich alle seine Prophezeiungen in erstaunlich kurzer Zeit als falsch erwiesen haben. In einem klassischen Zirkelschluss, welcher typisch ist für die Umweltaktivisten und das IPCC, erzeugten sie das Schreckgespenst der Überbevölkerung und der vom Menschen verursachten globalen Erwärmung. Dann benannten sie mittels Spekulation die daraus resultierenden Probleme und boten gleich all die Lösungen an, welche die von ihnen gewünschte Welt erschaffen würden.

Die Hypothese, dass Menschen ein Verderb und für jede Änderung verantwortlich sind, steht im Mittelpunkt ihrer Haltung. Der Club of Rome, welcher Ehrlich und Andere förderte und unterstützte, legte den Grundstein für diese falsche Ideologie, als er in The First Global Revolution schrieb:

Der Feind des Menschen ist der Mensch. Auf der Suche nach einem neuen Feind, der uns einen könnte, kamen wir auf den Gedanken, dass Verschmutzung, die Bedrohung durch die globale Erwärmung, Wasserknappheit, Hunger und dergleichen auf der Rechnung stehen. Alle diese Gefahren sind verursacht durch menschliche Erfindungen, und nur mittels veränderten Verhaltens und veränderter Gewohnheiten kann diesen Gefahren begegnet werden. Der wirkliche Feind ist also der Mensch selbst.

Sie glauben an die Standpunkte von Darwin, aber dennoch widersprechen sie ihm oder legen seine Äußerungen falsch aus. Sie akzeptieren Darwins Behauptung, dass Menschen Tiere wie alle anderen Spezies sind, aber nicht, dass alles was wir tun, normal und natürlich ist. Zu einem klassischen Beispiel kam es in der Anfangsphase der Klimawandel-Debatte. In einem Greenpeace Report aus dem Jahr 1990 zum Thema globale Erwärmung, herausgegeben von Dr. Jeremy Leggett, heißt es: „Kohlendioxid wird der Atmosphäre auf natürliche und unnatürliche Weise hinzugefügt“. Dieses Statement ist bedeutungslos, solange man sagt, dass der unnatürliche Teil vom Menschen stammt. Dann wird es noch bedeutungsloser, wenn man nicht annimmt, dass Menschen unnatürlich sind.

Es ist unlogisch zu sagen – oder auch nur den Eindruck zu erwecken – dass Menschen natürlich sind, während das, was wir tun, unnatürlich ist. Gleichwohl handelt es sich hierbei um den absoluten Widerspruch, der erzeugt worden ist durch die Inanspruchnahme von Umweltaktivismus und Klima für eine politische Agenda. Warum ist alles, was Menschen tun, nicht Teil der Evolution? Warum sind Entwicklung, Industrie, Wirtschaft oder was auch immer nicht Teil der natürlichen Ordnung?

Die Antwort begann effektiv im Jahre 1859 aufzukommen, als Darwin die erste Ausgabe seines Werkes On the Origin of Species veröffentlichte. Es gab zahlreiche weitere, überarbeitete Ausgaben im Zuge der Diskussionen, welche sein Werk ausgelöst hatte. Von Herbert Spencer stammen viele Kommentare, und einer davon fasste Darwins These so gut zusammen, dass er ihn in die Fünfte Edition 1869 einfließen ließ. Spencer sagt:

Das Gesetz lautet, dass nur die am besten Angepassten überleben … Das Gesetz benennt nicht die ,Besseren‘ oder ,Stärkeren‘, falls wir diesen Begriffen ihre normale Bedeutung beimessen. Es ist das Überleben all jener, die allgemein am besten an die Umstände angepasst sind, in welchen sie leben; und sehr oft besteht diese Anpassung – menschlich gesprochen – in Minderwertigkeit, sichert aber das Überleben.

Der Teil, den Darwin mochte und der daher bestehen blieb ist „die am besten Angepassten überleben“.

Dass Darwin diese Phrase übernommen hat, geht wahrscheinlich auf den Einfluss von Alfred Russel Wallace zurück. Bevor Darwin sein Werk im Jahre 1859 veröffentlichte, sandte Wallace ihm einen Bericht über seine Arbeit in Asien. Er kam zu den gleichen Folgerungen wie Darwin. Später wies Wallace darauf hin, dass er anders als Darwin die Menschheit in seiner Erstausgabe ins Spiel gebracht hatte. Wallace sagte, dass jedwede Theorie, in welcher die Menschheit außen vor gelassen und nicht erklärt wird, warum sich die Menschheit so markant von allen anderes Spezies unterscheidet, zum Scheitern verurteilt ist.

Der Unterschied ist so bedeutsam, dass die Wissenschaft die Implikationen einer Antwort von jeher vermieden hat. Ironischerweise kreierte Darwin unwissentlich die Situation, die Wissenschaft und Gesellschaft zu umgehen getrachtet haben, als seine Theorie zu der Waffe wurde, mit der Religion und Gott eliminiert wurden. Das Entfernen von Gott entfernte auch die Erklärung für den Unterschied und machte es zu einer Herausforderung für die Wissenschaft. Wie viele andere seitdem auch versuchte Wallace, einen Kompromiss ins Spiel zu bringen. Er benutzte nicht den Terminus ,intelligentes Wesen‘, sondern implizierte nur, dass ein solches Konstrukt eine Antwort geben könnte.

Das ,Unterschied‘-Problem bleibt unbeantwortet. Umweltaktivisten sprechen es nicht an, aber mit dem Vermeiden desselben wurde das Paradoxon erschaffen, dass wir Tiere sind wie alle anderen auch, dass wir uns jedoch unangemessen verhalten. Natürlich entscheiden sie, was ,unangemessen‘ ist. Ingrid Newkirk, Mitbegründerin und Präsidentin von People for the Ethical Treatment of Animals (PETA) liefert ein exzellentes Beispiel dieser Denkweise, weil diese extrem ist. Kein Verhalten ist angemessen.

Die Menschheit ist ein Krebsgeschwür, wir sind der größte Zerstörer auf dem Angesicht der Erde“. – „Falls man noch nicht über das freiwillige Aussterben der Menschheit nachgedacht hat, mag der Gedanke einer Welt ohne Menschen seltsam anmuten. Aber wenn man ihr eine Chance gibt, denke ich, dass man mir zustimmt, wenn ich sage, dass das Aussterben des Homo Sapiens das Überleben von Millionen, wenn nicht Milliarden auf der Erde lebenden Spezies sicherstellen würde. Die Auslöschung der Menschheit wird jedes Problem der Erde lösen, in sozialer und umweltlicher Hinsicht“.

Newkirk erkennt nicht, dass die Erde nur wegen der menschlichen Überlegenheit existiert. Keiner anderen Spezies ist bewusst, dass es die Erde gibt. Eliminiert man die Menschheit, wie Newkirk fordert, dann würde keine andere „auf der Erde lebende Spezies“ überhaupt wissen, dass „jedes Problem auf der Erde“ gelöst ist.

Newkirks ,Auslöschen‘-Forderung impliziert ein allmähliches Verschwinden der Menschen. Ich bin damit einverstanden, solange wir mit Newkirk und allen Umweltschützern und dem IPCC anfangen. Sind wir die erst einmal losgeworden, können wir als frei denkende Menschen die Lage neu bewerten und bestimmen, dass das Problem nicht mehr existiert, und wir können fortfahren, uns zu entwickeln. Ein Teil dieser Entwicklung muss die Erklärung enthalten, warum Menschen so radikal anders und allen anderen Spezies überlegen sind – mit allem Recht zu existieren.

Link: https://wattsupwiththat.com/2018/12/23/humans-are-the-superior-species-with-every-right-to-be-on-earth-we-are-not-unnatural-as-environmentalists-claim-and-the-ipcc-assumes/

Übersetzt von Chris Frey EIKE

—————————————–

Anmerkung des Übersetzers: Dieser Beitrag geht sehr in die Richtung, die ich in Anlehnung an Patrick Moore vertrete: Die Natur ist zu ihrem Fortbestehen aus einem ganz bestimmten Grund zwingend auf den Menschen angewiesen! Näher ausgeführt habe ich das in dieser kleinen Präsentation auf meiner Website: https://www.chris-frey-welt.de/dateien-links/kohlenstoff-einfache-wahrheiten/.




Blackout in Deutschland – vor 40 Jahren war alles zu spät (Teil 1)

Die meisten Leute glauben, dass in Deutschland die Rente und die Energiewende sicher sind. Und dieser Glaube wird politmedial ununterbrochen bestärkt. „Ein Blackout in Deutschland ist extrem unwahrscheinlich“, sagt die Bundesnetzagentur. „Ein Blackout in Deutschland ist Panikmache“, sagt der Think-Tank Agora Energiewende.

In Deutschland entscheiden Politologen, Bischöfe, Juristen und Soziologen – von keinerlei Sachkenntnis getrübt – über eine Energiepolitik, in der die Physik nur stört. Wer’s nicht glaubt, soll sich mal die Zusammensetzung der Kernenergie– und Kohleausstiegskommissionen ansehen. Um das Klima zu retten, wird in Deutschland die Energie munter und vor allem bedenkenlos gewendet, obwohl jeder Schüler, der in der Schule Physik nicht abgewählt hat weiß, dass sich Energie nicht wenden lässt. Außer in Deutschland: Kernkraftwerke werden nicht mehr gebraucht und verschrottet. Strom kommt aus der Steckdose und das Netz ist der Speicher.

Die Klima-Panikmache kommt aus einer Ecke, die unverdrossen vor Blackout-Panikmache warnt: „Die Klimakrise ist mitten in Deutschland angekommen. Energiewende, Verkehrswende, Landwirtschaftswende – radikaler Klimaschutz muss jetzt her“, meinen die grünen Energieexperten Annalena, Cem und Anton, auch wenn dabei Gigatonnen und Tonnen, Megabyte und Megawatt oder Prozent und Grad Celsius schon mal schwer durcheinandergeraten. Wie sollen solche Experten dann installierte Leistung und elektrische Arbeit auseinanderhalten können?

Was passiert bei einem Blackout?

Wie groß ist denn die Gefahr eines Blackouts in Deutschland? Das weiß kein Mensch, ich auch nicht. Aber die Wahrscheinlichkeit eines Blackouts steigt mit jedem abgeschalteten Grundlast-Kraftwerk, egal, ob Kohle, Nuklear oder Gas. Die klimaschützenden Energiewender wiegen die Bevölkerung in einer trügerischen Sicherheit – „der Blackout ist extrem unwahrscheinlich“. Ja, das war der Tsunami in Japan auch. Und der hat in Deutschland mehr Kernkraftwerke zerstört, als in Japan.

Was passiert bei einem Blackout? Was sagt das Bundesamt für Bevölkerungsschutz dazu?

Ohne elektrischen Strom sind die Großstädte und Metropolregionen schlagartig lahmgelegt, da fast jede Infrastruktur direkt oder indirekt von der Verfügbarkeit dieser Energie abhängt. Besonders betroffen sind alle Bereiche, die zwingend auf die Verfügbarkeit von Strom angewiesen sind: Verkehrssysteme, Notfall- und Rettungswesen oder staatliche Behörden und Verwaltungen. Schon sehr kurze Ausfälle können heftige Auswirkungen auf andere Infrastrukturen, wie beispielsweise die Informationstechnik und Telekommunikation oder andere sensible elektronische Systeme haben; richtig problematisch wird es, wenn der Strom für viele Stunden oder gar Tage ausfällt“.

Wikipedia berichtet in fast naiver Sprache und unter Ausklammerung aller menschlichen Tragödien, was im Falle eines Stromausfalls passieren würde:

  • Beleuchtung: Elektrisches Licht, Ampeln, Signale fallen aus, ebenso elektrische Rollladenantriebe.
  • Mobilität: Aufzüge, Skilift, Seilbahn oder Parkhausschranken fallen aus, genauso wie Abfahrtsanzeigen des öffentlichen Verkehrs. Eisenbahnen haben zum Teil eigene Stromversorgungsnetze. Akkus für Radbeleuchtung oder Taschenlampen können nicht mehr so einfach aufgeladen werden.
  • Wärme: Die Heizung/Lüftung bzw. Klimaanlage fällt aus, Elektroheizungen, aber auch Öl-, Gas- und Pellets-Zentralheizungen haben ohne elektrischen Strom keine Steuerung, keinen Zündfunken und keine Umwälzpumpe. Wäsche kann nur noch an Luft trocknen.
  • Lebensmittel: Lebensmittel werden im Kühl- sowie Gefrierschrank nicht länger gekühlt und können bei einem längeren Stromausfall verderben bzw. auftauen.
  • Kochen: Elektroherd, Mikrowelle, Kaffeeautomat, Wasserkocher usw. funktionieren ohne den elektrischen Strom nicht.
  • Nachrichten: Rundfunk und Fernsehen mit Netzspannung funktionieren nicht. Radiogeräte mit Akkus oder Batterien funktionieren unter Umständen, sofern die Sendeanlagen nicht vom Stromausfall betroffen sind.
  • Kommunikation: Mobiltelefonie, Festnetz sowie Computer und Internet stehen bei längeren Stromausfällen nur eingeschränkt oder gar nicht zur Verfügung.
  • Geld: Geldautomaten von Banken sind meistens nicht funktionsfähig.
  • Einkaufen: In Supermärkten gibt es meist Einschränkungen, da weder Kassen noch die Kühlung der Lebensmittel funktionieren, wenn kein Notstromaggregat vorhanden ist. Getränkebonier- und -zapfsysteme in der Gastronomie fallen aus. Elektrische Schiebe- und Drehtüren sind funktionsunfähig.
  • Treibstoff: Die meisten Tankstellen haben weder einen eigenen Stromerzeuger noch eine Einspeisevorrichtung für einen Stromerzeuger. Ohne Strom funktionieren die Pumpen nicht, die die Zapfsäulen und Zapfhähne mit dem Treibstoff aus den unterirdischen Tanks speisen.
  • Wasser: Bei einem längeren Stromausfall fallen Trinkwasseraufbereitung und Abwasserentsorgung mit Pumpen aus. Bei Wasserversorgungsnetzen, welche durch das natürliche Gefälle und ohne Pumpen betrieben werden (wie bei der Wiener Wasserversorgung über die Hochquellenwasserleitungen), hat ein Stromausfall auf die Versorgung nur geringe Auswirkung.
  • Sicherheit: Türsprechanlagen und Türöffner, Zutritts-Sicherungssysteme, Alarmanlagen, Feuermelder und Warnlichter für Flugverkehr auf hohen Bauwerken funktionieren nur, falls und solange Akkus oder Notstromsysteme ersatzweise liefern.
  • Krankenhäuser haben hierzulande Notstromaggregate und besonders kritische Bereiche wie Operationssaal und Intensivmedizin haben eine Unterbrechungsfreie Stromversorgung (solange der Dieselvorrat reicht – Anm.d.Verf.) Fluchtwegmarkierungsleuchten in größeren (Wohn-) Gebäuden sind meist einzeln akkugestützt und leuchten eine Zeitlang.

Risikobewusstsein nur in Ansätzen vorhanden

Eine Studie des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) kommt zu dem Ergebnis, dass durch einen langandauernden und großflächigen Stromausfall alle kritischen Infrastrukturen betroffen wären und ein Kollaps der gesamten Gesellschaft kaum zu verhindern wäre. Trotz dieses Gefahren- und Katastrophenpotenzials sei ein diesbezügliches gesellschaftliches Risikobewusstsein nur in Ansätzen vorhanden.Ich würde es so formulieren: Bei einem tagelangen Blackout in Deutschland wären hunderte, wenn nicht tausende Opfer zu beklagen und keiner sieht die Gefahr.

Dabei ist ein Blackout alles andere als unwahrscheinlich. Es gibt sogar Erfahrungen. Vor genau 40 Jahren fiel am 28. Dezember 1978 in den nördlichen Teilen Deutschlands der Strom für mehrere Tage aus. Die Inseln Rügen und Hiddensee und große Landstriche im Norden waren für sechs Tage stromlos und von der Welt abgeschnitten. In der Bundesrepublik beklagte man 17 Todesopfer. Die DDR gab fünf Todesfälle zu, ehrliche Zahlen weiß allerdings keiner.

Dialysepatienten konnten nicht mehr versorgt werden, Frauen bekamen die Kinder zu Hause ohne ärztlichen Beistand. Tausende Menschen strandeten irgendwo und überlebten, wenn sie Glück hatten, unter jämmerlichen Bedingungen in Bahnhöfen oder Turnhallen. Als die Ventilatoren ausfielen erstickten hunderttausende Hühner in den Legebatterien, Kühe und Schweine krepierten zu Tausenden in den Ställen. Die öffentliche Kommunikation brach zusammen. Die Schäden gingen in die Milliarden und es dauerte Jahre, bis sich die Wirtschaft von dem Schock erholt hatte.

Die Ursachen waren simpel: ein Schneesturm, ein unausgewogener Energiemix und ein weitgehendes Versagen des staatlichen Katastrophenschutzes.

Einfall eines sibirischen Tiefdruckgebietes

Was war passiert? Es gab kurz nach Weihnachten den Einfall eines sibirischen Tiefdruckgebietes mit einem länger andauernden Schneesturm, verbunden mit einem starken Temperaursturz. Damals schob man allerdings Wetterkapriolen noch nicht auf den Klimawandel. Durch die extremen Witterungsbedingungen fielen sämtliche Kohlekraftwerke in Mitteldeutschland aus, da ihnen die Kohle auf den Transportbändern und in den Waggons festfror.

Gas- und Ölkraftwerke waren auf Beschluss einer ahnungslosen und unverantwortlichen Politik geschlossen worden, um die wertvollen Devisen zu sparen. Die DDR setzte einseitig auf Braunkohle und hatte ihren vernünftigen Energiemix abgeschafft. Das Rückgrat der Stromproduktion war nun die kälteempfindliche Braunkohle, die zu 50 Prozent aus Wasser bestand und zu Eis gefror. Erfolglos versuchten die Bergleute, sie mit Presslufthämmern aus den Eisenbahnwaggons zu brechen. Das Zentralkomitee der SED genehmigte sogar den Kauf von hunderten Bohrhämmern aus dem Westen, allerdings lag das Kind da schon im Brunnen.

Im Resultat einer Wetterkapriole gab es In der DDR nur noch ein einziges funktionierendes Kraftwerk, das den totalen Blackout verhinderte – das Kernkraftwerk Greifswald mit seinen drei Reaktor-Blöcken. Um Strom für die Hauptstadt zur Verfügung zu stellen, mussten allerdings im Norden großflächige Blackouts tagelang in Kauf genommen werden. Mit katastrophalen Folgen für die betroffene Bevölkerung und die Wirtschaft.

Die meisten Toten, die zu beklagen waren, waren entweder auf medizinische Hilfe angewiesene Patienten, die nicht versorgt werden konnten, oder Leute, die zu Fuß versucht hatten, ins nächste Dorf zu gelangen und Autofahrer, die im Schnee steckenblieben und es nicht irgendwohin ins Warme schafften. Einige Opfer wurden erst gefunden, als Wochen später der Schnee wieder wegtaute.

Man muss aber auch zusätzlich bedenken, dass heute die Gesellschaft viel stromabhängiger geworden ist, speziell in den großen Ballungsräumen und Städten. Gar nicht davon zu sprechen,  dass es in jeder Gesellschaft einen kriminellen Bodensatz gibt, der nur auf so eine Gelegenheit wartet, wenn die staatlichen Ordnungsorgane hoffnungslos überlastet oder mit sich selbst beschäftigt sind. Die ersten Opfer werden die Schwächsten der Gesellschaft sein, Alte, Kranke, Kinder und Frauen.

Hier der Link zu einer Sendung des NDR  zum Schneewinter 1978/1979 mit einem Interview des Autors dieses Beitrages, Manfred Haferburg.

Im Teil 2 dieses Beitrages lesen Sie morgen eine Zeitzeugengeschichte über den Blackout 1978/79. Autor Manfred Haferburg, war damals im Kernkraftwerk mit seiner Schicht C über 70 Stunden von Eis und Schnee eingeschlossen und machte den Strom für die Republik. Die Geschichte ist ein Auszug aus dem RomanWohn-Haft“, der bei KUUUKnun endlich auch als Taschenbuch erschienen ist.

Übernommen von ACHGUT hier




Unser Planet verbrennt – wirklich? Oder nur wegen (bewusst) falsch ausge­werteter Proxi­daten?

Ein fingierter Hockeystick

Der besagte “NoTricksZone Artikel”:
NoTricksZone 13. December 2018:
[1] A Fabricated ‘Uptick’? Marcott’s 2013 Hockey Stick Graph Debunked By Marcott’s Own 2011 Ph.D Thesis referiert, wie Studienautoren aus Proxidaten zu Ergebnissen – hier eine Bestätigung der Hockeystick-Temperaturkurve – gelangten, obwohl die angegebenen Daten dieser Aussage (und weiteren in der Studie) eklatant widersprechen.
Trotzdem wurde diese Studie bisher nicht zurückgezogen. Im Gegenteil, sie wird von Klimaforschern und dem IPCC – zum Beispiel im aktuellen SR1.5 Sonderbericht – weiterhin zitiert.

Anmerkung: Der Autor hat in der folgenden Darstellung im Wesentlichen (orientierend übersetzte) Ausschnitte des Originalartikels von NoTricksZone verwendet und nur ab und zu erklärende Ergänzungen zugefügt. Die (fast durchgängigen) Zitate sind nicht extra kursiv ausgewiesen. Man möge dies aus Gründen der besseren Lesbarkeit entschuldigen.

NoTricksZone, Artikel: [1] Unmasking Marcott’s “Uptick”
Die besagte Studie listet in ihrer Zusammenfassung (Summary):
Marcott et al., 2013 [2] (in grober Übersetzung): Eine Rekonstruktion der regionalen und globalen Temperatur der letzten 11.300 Jahre
… Temperaturrekonstruktionen der letzten 1500 Jahre deuten darauf hin, dass die jüngste Erwärmung in dieser Zeit beispiellos ist. Hier bieten wir eine breitere Perspektive, indem wir regionale und globale Temperaturanomalien der letzten 11.300 Jahre aus 73 global verteilten Datensätzen rekonstruieren. Auf die frühe Holozän (vor 10.000 bis 5000 Jahren) Wärme folgt eine Abkühlung von ~0,7°C durch das mittlere bis späte Holozän (vor <5000 Jahren), die in den kühlsten Temperaturen des Holozäns während der Kleinen Eiszeit vor etwa 200 Jahren gipfelt. Diese Abkühlung ist weitgehend mit einer Veränderung von ~2°C im Nordatlantik verbunden. Die aktuellen, globalen Temperaturen des letzten Jahrzehnts haben die interglazialen Spitzenwerte noch nicht überschritten, sind aber wärmer als während ~75% der holozänen Temperaturgeschichte. Die Modellprognosen des Zwischenstaatlichen Ausschusses für Klimaänderungen für 2100 übersteigen die volle Verteilung der Holozäntemperatur unter allen plausiblen Szenarien für Treibhausgasemissionen.

RealClimate.org veröffentlichten Interview mit Marcott wurde anerkannt, dass der „Aufwärtstrend“ keine Rekonstruktion auf globaler Ebene darstellt, da er auf wenigen Proxy-Datensätzen beruht und keine statistische Signifikanz aufweist (Bild 2).

Anmerkung: Es wurde im Ansatz ein ähnliches Verfahren wie beim „Original“-Hockestick angewendet. Nachdem die Weiterführung der Proxidaten das (gewünschte?) Ergebnis nicht lieferte, wurde das „notwendige“ Ende – ein steiler Temperaturanstieg“ – durch Selektion der Daten und statistische Kunstgriffe „erzeugt“.

fast 700-mal zitiert.
Die gleichen 73 global verteilten Proxy-Temperaturaufzeichnungen, welche zur Herstellung von Marcott et al. (2013) verwendet wurden, wurden zwei Jahre zuvor in Shaun Marcotts Doktorarbeit an der Oregon State University vorgestellt.
Anmerkung: Der Haupt-Studienautor, Shaun Marcott, führte die grundlegenden Arbeiten der Studie von 2013 bereits zuvor in seiner Dissertation durch (Marcott 2011). Darin ist die Ausarbeitung natürlich wesentlich detaillierter dargestellt und auch die Daten hinterlegt. Allerdings ist das Ergebnis in der Dissertation trotz der gleichen Daten vollkommen anders, als zwei Jahre später in der Studie (2013) dargestellt.

Spätpleistozän und Holozängletscher und Klimawandel”

Anmerkung: Nun bezieht sich die Beschreibung auf die Dissertation.
[1]: Interessanterweise weisen die meisten Diagramme keine Temperaturen auf, die sich bis zur rechten Y-Achse erstrecken, was darauf hindeutet, dass die meisten der 73 Proxy-Datensätze nicht das moderne Zeitalter umfassen und eine Analyse der relativen Temperaturunterschiede zwischen Vergangenheit und Gegenwart ausschließen.
Tatsächlich haben nur 32 der 73 Diagramme allgemeine Trendlinien, die sich im Marcott-Dissertationspapier auf „0 Jahre BP“ (Anmerkung: Before Present, also vor der aktuellen Zeit) erstrecken. Der Rest endet irgendwo im späten Holozän (oder früher). Die 32 Rekonstruktionen, die sich bis zur rechten Y-Achse erstrecken, sind unten dargestellt.

Bild 3 [1] Die Temperaturproxis, welche in Marcott, 2011 [3] bis zur aktuellen Zeit reichen

Gleiche Daten, widersprüchliche Ergebnisse

keinen Temperaturanstieg im 20. Jahrhundert.

Eine Zusammenstellung aller 73 Holozän-Temperaturtrends der letzten 11.300 Jahre ist in einem komprimierten Diagramm auf Seite 204 (Anmerkung: hier Bild 4) dargestellt. Beachten Sie, dass die große Amplitude von Änderungen, die Temperaturänderungen von mehreren Grad Celsius in den Proxy-Rekonstruktionen enthalten, durch viel kleinere, variable Bereiche ersetzt wurden (Zehntel Grad).

Bild 5 Hockeystick aus [2] Marcott et al., 2013 (andere Darstellung in der Studie von Bild 1)

Bild 6 Die Verläufe von Bild 4 und von Bild 5 vom Autor übereinander kopiert. Anm.: Der Verlauf Bild 5 (Rot) wurde vom Autor aus der violetten Linie von Bild 5 nachgezeichnet

Professor Paul Matthews in einem von der Zeitschrift Science veröffentlichten Kommentar hin:

Professor Paul Matthews zu den Thesen von [2]. Quelle: Image Source: Science [1] Link: Science

Grobe Übersetzung (Text, Bild 7)
Kurzkommentar zu „Rekonstruktion der regionalen und globalen Temperatur in den letzten 11.300 Jahren“
Paul Matthews, School of Mathematical Sciences, Universität Nottingham, Großbritannien, 16. März 2013
… Dieses Papier enthält mehrere Grafiken, die langsame Temperaturschwankungen in den letzten 10000 Jahren zeigen, gefolgt von einem rapiden Anstieg im 20. Jahrhundert. Dieser Aspekt des Papiers wurde überraschenderweise von Klimaaktivisten und Journalisten begeistert aufgenommen. Es ist jedoch klar, dass dieses Ergebnis falsch ist. Beachten Sie die folgenden Punkte:
1. Die Proxy-Daten in der beiliegenden Excel-Datei zeigen im 20. Jahrhundert keinen dramatischen Anstieg. Dies kann einfach durch Zeichnen der gelieferten Daten überprüft werden.
2. Die Abbildungen S5 und S6 zeigen überhaupt keinen Aufschwung.
3. Die Doktorarbeit des Erstautors verwendet die gleichen Datensätze und stellt ähnliche Diagramme dar, ohne jedoch einen starken Anstieg zu erkennen. Diese frühere, widersprüchliche Arbeit wird im Papier nicht zitiert.
4. In dem ergänzenden Material wird nicht erläutert, wie die Grafiken erstellt wurden. Die Mittelwertbildung der Proxy-Daten führt zu einem Diagramm, das dem in der Dissertation ähnelt, und unterscheidet sich stark von dem in der Arbeit. Warum wurde keine detaillierte Erklärung des Verfahrens gemeldet? Liefern die Autoren den verwendeten Code?

Jede dieser Aussagen würde ernsthafte Fragen über den Wahrheitsgehalt dieser Arbeit aufwerfen. Zusammengenommen lassen sie keinen Zweifel daran, dass die vorgelegten Ergebnisse falsch und irreführend sind. Das Papier sollte sofort zurückgezogen werden. Die Tatsache, dass ein so offensichtlich fehlerhaftes Papier veröffentlicht wurde, wirft ernsthafte Fragen über die Autoren, die Qualität des Reviewprozesses und die Handhabung des Papiers durch die Redakteure von “science” auf.

Interessanterweise zeigen die Rekonstruktionen bei der Temperatur, die Marcott 2011 sowohl für seine Doktorarbeit als auch für seine wissenschaftliche Arbeit von 2013 verwendet hat, dass:
(a) die Temperaturen im frühen bis mittleren Holozän im Durchschnitt um mehr als 2 ° C wärmer waren als heute und
(b ) Sie variierten im gesamten Holozän um mehrere
Grad Celsius statt nur um den Zehntelgrad, der sowohl in den Papieren von 2011 als auch von 2013 gezeigt wurde.

Von den 32 Rekonstruktionen, die sich in Marcotts Papieren auf die Y-Achse erstrecken, definieren 25 eindeutig die moderne oder gegenwärtige Temperatur relativ zur Vergangenheit. Die anderen 7 hatten keine modernen oder aktuellen Temperaturwerte, die im paper eindeutig definiert waren. Bei den 25 Rekonstruktionen, die einen Vergleich ermöglichten, wurden die ermittelten Spitzentemperaturen des Holozäns mit durchschnittlich 2,3 ° C wärmer als heute ermittelt. Dieses Ergebnis widerspricht völlig den Behauptungen von Marcotts Papier von 2013.

Beispiele der wärmeren, als heutigen Aufzeichnungen

Rodrigues et al., 2009 die derzeitige Temperatur in der iberischen Region bei 15 ° C liegt, was etwa 1 ° C kälter ist als während der Kleinen Eiszeit (16 ° C) C) und 4 ° C kälter als die Spitzentemperatur des Holozäns .

Isono et al. (2009) berichten, dass die „gegenwärtige“ Temperatur 16,7 ° C beträgt, aber die Spitzentemperatur des Holozäns 21,4 ° C betrug, was bedeutet, dass die Temperaturen im Nordpazifik vor etwa 7000 oder 8000 Jahren etwa 5 ° C wärmer waren.

Nielsen et al. (2010) sagt tatsächlich, dass der Holozän-Peak 4 ° C wärmer war als der heutige Mittelwert in der Studie.

Bendle und Rosell-Mele, 2007 (Bild 11), hervorheben , könnte die Amplitude früherer Temperaturänderungen innerhalb von Jahrhunderten bis zu 10 ° C betragen. Dies scheint der Behauptung zu widersprechen, dass die Holozän-Temperaturvariabilität viel weniger ausgeprägt war (einige Zehntel Grad über Jahrtausende).

Bild 11 [1]

Bemerkenswert ist, dass keine der untersuchten Rekonstruktionen die Behauptung stützt, dass moderne Temperaturen ungewöhnlich hoch oder beispiellos sind.

Wenn die Beweise aus dem Paläoklima keinen kürzlich ausgesprochenen „Aufwärtstrend“ unterstützen, woher kommt er?

[1]: Marcott selbst hat eingeräumt, dass der „Aufwärtstrend“ des 20. Jahrhunderts nur auf „wenigen“ Rekonstruktionen beruht, die weder global repräsentativ, noch statistisch robust sind. Das wirft die Fragen auf:
1. Welcher Datensatz wird verwendet, um die Darstellung eines ausgeprägten Temperaturanstiegs zu rechtfertigen?
2. Wurde das „Uptick“ hergestellt?
3. Auf welcher Grundlage veröffentlichte die Zeitschrift
Science die Ausgabe 2013 eines Papiers, dem ein früheres Werk desselben Autors widerspricht?
Anmerkung: Im Originalartikel kommt nun eine Listung der Studien mit den (interessanten) Proxigrafiken, welche alle zeigen, dass der (re-)konstruierte Hockeystick daraus nicht abgeleitet werden kann.

Wie geht es mit den Daten weiter?

[1]: Allein in den letzten Jahren wurden hunderte (neue Studien) von Menschen veröffentlicht, die zeigen, dass der Großteil des Holozäns um 2-5 ° C wärmer war als heute.
Beginnen Sie mit diesen Links unten. Wir aktualisieren regelmäßig. Die Links sind auch dauerhaft auf unserer rechten Seitenleiste zu finden („450 Diagramme ohne Erwärmung“ 1 und 2).
~ 300 Grafiken von 2017 und 2018
~ 300 Grafiken aus den 2000er Jahren bis 2016

Damit ist die Zitierung aus dem „NoTricksZone”-Artikel zu Ende.

Ergänzende Zitate aus einer vergleichbaren Rezension zur Marcott-Studie (2013) von „kaltesonne“

17. April 2013: [5] Nach drei Wochen erneutem Hockeyschläger-Alarm war der Spuk wieder vorbei und der Skandal perfekt: Wie Jungforscher Shaun Marcott die Medienwelt hinters Licht führte

Offensichtlich hat die Marcott-Truppe aber auch an den Originaldaten herumgedoktort, um die Wärmespitze herbeizuzaubern. Spürnasen wie Steve McIntyre fanden schließlich, was passiert war. Marcott nahm sich die „künstlerische Freiheit“ die Altersdatierungen unliebsamer Datenpunkte zu modifizieren, um die gewünschte Hockey Stick-Geometrie zu erhalten. Schauen Sie sich das mal an:

Bild 13 [5] Abbildung 7: Originaltemperaturdaten (rot) und was daraus nach phantasievoller Modifikation durch Marcott et al. wurde. Quelle: Climate Audit.

Niemand von den etablierten Fachpersonen und Medien bemerkte die Manipulationen

kaltesonne: [5] Ein Skandal und keine Folgen?
Der Skandal ist aufgeflogen und trotzdem scheint es keinen der ehemaligen Berichterstatter der Studie zu interessieren. Tagesspiegel, Stuttgarter Zeitung und Klimaretter haben noch immer ihren Originalartikel im Netz (Anmerkung: Auch heute, nach 15 Jahren noch), ohne Hinweis oder Addendum auf den sinnentstellenden Fehler. Die klimaalarmistische Gemeinde verstummte plötzlich und ging auf Tauchstation. Klimarealisten wie Ross McKittrick mussten die Lücke füllen und die Öffentlichkeit über die veränderte Sachlage in der Presse informieren.

Und heute nach ca. 15 Jahren, tut der IPCC im SR1.5 so, als gäbe es diese Kritik an der Studie nicht

In dem noch rechtzeitig vor dem gerade erst vergangenen Klimagipfel herausgekommenem – alarmistischen – Klima-Zwischenbericht SR1.5 des IPCC haben die vielen Autoren und beteiligten Wissenschaftler scheinbar immer noch nichts von den beschriebenen Ungereimtheiten (eher gravierenden Fehlern) festgestellt, beziehungsweise ignorieren sie einfach, weil deren Ergebnis zum Beleg der Alarmierung „erforderlich“ ist.
Gleich im Kapitel 1 am Anfang wird sie als Beleg angezogen:
SR1.5, Chapter 1: Framing and Context
Box 1.1: The Anthropocene: Strengthening the global response to 1.5°C global warming
Introduction
… Since 1970 the global average temperaturehas been rising at a rate of 1.7°C per century, compared to a long-term decline over the past 7,000 years at a baseline rate of 0.01°C per century (NOAA 2016,
Marcott et al. 2013). These global-level rates of human-driven change far exceed the rates of change driven by geophysical or biosphere forces that have altered the Earth System trajectory in the past …

Ein schöner Beleg, dass es dem IPCC in seinen Berichten nicht um die Darstellung von Wahrheiten geht.

Wie sehen es Klima(Folgen)Forscher vom PIK

Herr Rahmstorf konnte sich damals gar nicht genug über die in seinen Augen hohe Qualität dieser Studie auslassen. Das Ergebnis entsprach schließlich genau seiner “Vorstellung”. Zudem bestätigt es ja (in seinen Augen) auch die damals gerade abgeschlossene, große Proxyanalysesammlung Pages2k (die für den Autor nur bestätig, dass die Proxiqualitäten so schlecht sind, dass sie für historische Aussagen nicht angewendet werden können – siehe Anlage). Auch kann man auf seinem Blog nachlesen, wie Herr Rahmstorf die Ergenisse von Studien ignoriert, welche zeigen, dass in der Klimavergangenheit wesentlich höhere Temperaturschwankungen vorkamen (Bild 11).

Anbei Auszüge aus der damaligen Bewertung von Professor Rahmstorf in seinem Klimablog:
Stefan Rahmstorf, 17. Juni 2013:
[4] BLOG KlimaLounge Nah dran am Wandel

Paläoklima: Das ganze Holozän
Über die letzten Jahrzehnte haben zahlreiche Forscher in mühsamer Kleinarbeit viele Datenreihen z.B. aus Sedimentbohrungen in der Tiefsee gewonnen, analysiert, datiert, kalibriert usw. Nun haben Shaun Marcott und Kollegen erstmals 73 solcher Datenreihen aus aller Welt zu einer globalen Temperaturrekonstruktion für das Holozän zusammengefügt. Oder genau genommen zu vielen: sie haben rund zwanzig verschiedene Mittelungsmethoden ausprobiert und außerdem 1000 Monte-Carlo-Simulationen mit zufälligen Datierungsfehlern der einzelnen Datenreihen durchgeführt, um die Robustheit ihrer Ergebnisse zu belegen.
Um das Hauptergebnis gleich vorweg zu nehmen, es sieht so aus:

Bild 14 [4] Abb. 1. Blaue Kurve: Globale Temperaturrekonstruktion aus Proxydaten von Marcott et al., Science 2013. Gezeigt ist die RegEM-Version – nennenswerte Unterschiede zwischen den Varianten mit verschiedenen Mittelungsmethoden gibt es allerdings ohnehin nur gegen Ende, wo die Zahl der Proxyreihen abnimmt, wo der Verlauf aber aus instrumentellen Messungen gut bekannt ist. Rote Kurve: Globale Temperatur aus Messdaten (HadCRU). Grafik: Klaus Bittermann.

Vergleich mit PAGES 2k
Die verwendeten Daten unterscheiden sich von denen des PAGES 2k Projekts (nur Land-Daten) hauptsächlich darin, dass sie zu 80% aus Tiefseesedimenten stammen …

Bild 15 [4] Abb. 3. Die letzten zweitausend Jahre von Abb. 1 im Vergleich mit der PAGES-Rekonstruktion (grün), die in Teil 1 von uns näher erläutert wird. Grafik: Klaus Bittermann.

Wie wir sehen, ergeben beide Rekonstruktions-Verfahren konsistente Ergebnisse. Dass der Verlauf in den letzten eintausend Jahren praktisch identisch ist, ist übrigens auch eine weitere Bestätigung des „Hockeyschlägers“ von Mann et al. 1999 – siehe Teil 2 dieser Serie, Die Hockeyschläger-Debatte.
Entscheidend ist vielmehr, dass der rasche Anstieg im 20. Jahrhundert im ganzen Holozän einmalig ist. Ob das wirklich so ist, darüber wurde nach Erscheinen des Papers in den Blogs intensiv diskutiert. Denn die Proxydaten haben nur eine grobe zeitliche Auflösung – hätten sie es überhaupt erfasst, wenn es im Holozän schon einmal eine ähnlich rasche Erwärmung gegeben hat?
Ich halte es aus drei Gründen für praktisch sicher, dass es eine so rasche Erwärmung noch nicht gab:
Es gibt auch eine Reihe von hochaufgelösten Proxydaten über das Holozän, z.B. die Eiskerne aus Grönland und der Antarktis. Sie zeigen einen glatten Verlauf ohne eine frühere starke Erwärmung wie im 20. Jahrhundert. Hätte es eine solche
globale Erwärmung schon einmal gegeben, müsste man sie zumindest in einigen Datenreihen deutlich sehen, selbst wenn sie in der gemittelten Marcott-Kurve untergeht.
… Es gibt keinerlei Hinweise in den Forcing-Daten, dass ein solcher Klimaantrieb plötzlich aufgetaucht und wieder verschwunden sein könnte, und ich kann mir auch nicht vorstellen, was der Mechanismus gewesen sein sollte …

Schlimmer geht`s nimmer

Ein NGO, Climate Analytics, führt im WEB einen sogannten „ClimateActioTracker“, welcher Temperaturprojektionen anzeigt. Man ahnt, welche Institution die Daten „speist“, es ist das PIC, welches auf deren Homepage als „Collaborateur“ gelistet ist.

Bild 16 Temperaturszenarien des ClimateActionTracker

Fügt man die Temperatur-Verlaufsdaten von Marcott at al. (2013) und die des ClimateActionTrackers zusammen, dann „verbrennt“ die Welt demnächst wohl tatsächlich.

Bild 17 Verlauf Marcott at al (2013) und ClimateActionTracker Projektion Baseline. Vom Autor zusammengestellt

Nun stellt sich die Frage: Wer glaubt solchen Darstellungen, gegenüber denen die Vorhersagen von Zukunfts-Grausamkeiten im Alten Testament fast als „Kinderkram“ erscheinen?
Zum Beispiel die Redaktion der Tageszeitung des Autors: Auf eine Anfrage zu den Datenquellen ihrer während des Klimagipfels (ausschließlich) höchst alarmistischen Kommentare kam die Antwort der Redaktion, dass Angaben von diesem ClimateActionTracker übernommen wurden.
Wenn es das PIK simuliert und der IPCC nicht widersprochen hat, kann es ja niemals falsch sein? Gott verweigerte den Menschen damals den Apfel vom „Baum der Erkenntnis“, damit sie nicht gescheiter würden. Der Ökogot muss nichts verweigern, seine Anhänger machen es freiwillig.

Klimapropaganda in den „Öffentlich-Rechtlichen“

Etwas abweichend, aber zum Thema Propagand passend, ein Trailer des BR. Ein Wissenschaftserzähler wechselt sich dort bei der Klimapropaganda inzwischen mit Harald Lesch ab.
Im Trailer geht es um den wieder einmal „immer schneller“ steigenden Meeresspiegel.
BR, Sendung: Gut zu wissen
Land unter – Meeresspiegel steigen immer schneller. Dass die Meeresspiegel weltweit ansteigen, ist nichts Neues. Eine aktuelle Studie zeigt nun, dass das offenbar viel schneller passiert als bislang angenommen. „Gut zu wissen“ erklärt warum.

Bild 18 Screenshot von der BR Mediathek. Link zum Trailer: BR Mediathek

Erklär-Stichworte in der Sendung:
Damit endet die „Information“. Außer alarmistischen Statements und Schlagwörtern ist keinerlei wirkliche Detaillierung zum Thema, schon gar nicht eine kritische, oder zur eigenen Meinungsbildung anregende, enthalten.

Diese deshalb kurz nachgeholt:
„Immer schnellerer Pegelanstieg“: Bezug genommen wird wohl auf die in den folgenden Rezensionen analysierte Pegelalarm-Studie:
EIKE 7. März 2018: Flashcrash Klimaalarm. Wer Klimaalarm posaunt, bekommt immer recht (Teil 2 und Abschluss)
EIKE 06.03.2018: Flashcrash Klimaalarm. Wer Klimaalarm posaunt, bekommt immer recht (Teil 1)
EIKE 01.06.2017: Der Meerespegel steigt drei Mal so stark an – ohne dass sich an dessen Verlauf etwas verändert hat
Judit Curry: Sea level rise acceleration (or not): Part IV – Satellite era record
„Malediven gehen unter“: Sie denken in Wirklichkeit gar nicht daran „unterzugehen“. So ist es inzwischen von vielen Wissenschaftlern – und vor allem auch mit dem aktuellen Seepegelverlauf – belegt. „Unter“ gehen sie ausschließlich in entsprechend parametrierten Computersimulationen:
EIKE 03.11.2017: Das Wochenende, an dem die Welt (wieder) begann unterzugehen

EIKE 18.10.2016: Wie steht es um den Untergang der Marshall-Inseln?
EIKE 17.09.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 1 Die Malediven
Dass das Grönlandeis – und das der Antarktis- komplett schmilzt, kann natürlich passieren. Falls es dazu käme, dauert es allerdings mehrere Tausend Jahre. Aktuell nimmt das Eis in der Antarktis jedoch eher zu:
kaltesonne:
Neuer Kälterekord in der Antarktis: fast minus 100 Grad (4.7.2018)
EIKE 14.03.2017: Auch das Antarktiseis schrumpft – aber nur partiell – und nur im Sommer!
kaltesonne: Alfred-Wegener-Institut: Ostantarktischer Eisschild ist stabil und wächst sogar leicht an (5.5.2015)

Um den „erforderlichen“ Untergang trotzdem zu erreichen, propagiert das PIK die „Gletscher Rutsch-Hypothese“. Nur mittels dieser Hypothese lässt sich eine Verringerung des Anatarktischen Festlandeises überhaupt simulieren:
ntv, 22. Mai 2017: Kettenreaktion teilweise im Gang Düstere Prognosen fürs Antarktis-Schelfeis
Selbst wenn Schelfeis zum Teil auf dem Wasser schwimmt, hat es fatale Folgen, wenn es schmilzt: Inlandseis fließt dann schneller ab. In der Antarktis hat dieser Vorgang bereits begonnen – und könnte sich dramatisch beschleunigen …
Forscher des Potsdamer Institutes für Klimafolgenforschung haben berechnet, wie es bei einem unverminderten Klimawandel um das Filchner-Ronne-Schelfeis und die dahinterliegenden Eisströme steht. Das Ergebnis: Innerhalb von 200 Jahren könnte der weltweite Meeresspiegel um bis zu 40 Zentimeter steigen.
Was man sogar anhand des ntv-Alarmartikels herauslesen kann: Selbst das über-alarmistische PIK simuliert hier einen Pegelanstieg, der weit unter allen alarmistischen Szenarien liegt (20 cm in 200 Jahren ist fast in der Größenordnung des natürlichen Anstiegs [7]).

EIKE 25.12.2016: Man sollte schon langsam an die nächste Eiszeit denken, denn wenn die neuesten Hypothesen sich als falsch erweisen, kann sie schnell da sein

Was zeigt das Video allerdings wieder? Es ist leider nicht so, dass eine Ausbildung in MINT-Fächern wirklich gegen Alarmismus hilft, wie es viele EIKE-Blogeinträge meinen.
Der Redakteur des Videos ist studierter Physiker. Er weiß also bestimmt zwischen Simulation und Messergebnissen zu unterscheiden. Er weiß aber auch, mit welcher Darstellung man in Deutschland im öffentlichen Bereich am sichersten aufsteigt und viel Geld (und Ehre) verdient. Wie Herr Lesch und Herr Schellnhuber hat auch er sich deshalb ausschließlich dafür entschieden. Alle zeigen, dass man dann (und nur dann) fast schon „automatisch“ mit Arbeiten, Ehrungen, Posten und Geld regelrecht „beworfen“ wird.
Wie perfekt das funktioniert, wurde gerade erst an einer anderen Stelle präsentiert:
Achgut:
Claas Relotius oder: Der Spiegel lässt die Hosen runter

Die Diskussion der möglichen Wirklichkeit

Auf eines weisen alle Medien und „offiziellen“, bedeutet, von öffentlichen Geldern abhängigen, Klima(Folgen)Forscher mit Bedacht nicht hin: Dass an dem, das ganze Schreckensszenario alleine bestimmendem Forcingwert aktuell massiv „gerüttelt“ wird.

Sowieso gibt es in Deutschland seit vielen Jahren eine konsequente Unterdrückung kritischer Meinungen (nicht nur) zum AGW-Klimawandel. Eine GRÜNE „Vorzeigedame“ sagte es ganz deutlich, was sie davon hält, wenn jemand es wagt, Klimadogmen in Frage zu stellen:
EIKE 11. Dezember 2017: Bärbel Höhn beschwert sich, dass Herr Kachelmann Fakten über den Klimawandel erzählt
Eine Regierungsberaterin vermittelte es über ihre Homepage:
EIKE 09.04.2017: Klima-Lügendetektor:
Wer der Bildzeitung sagt, Eisbären würden nicht durch den Klimawandel sterben, ist ein schlimmer Demagoge
Und eine Umweltministerin (Frau Hedricks) wusste sogar, dass es in Deutschland gar keine (von ihrer) abweichendeMeinung geben kann:
EIKE 27.03.2017:
Nee, bei uns gibt´s keine Klimaleugner

Dabei fällt mit der aktuellen Diskussion zum wirklichen Forcing das ganze Alarmgebäude in sich zusammen:
kaltesonne, 24.12.2018:
Die Sonne im November 2018 und die Sache mit der „Pause“
EIKE 17. Dezember 2018: Klimasensitivität –  Wer rechnet hier falsch ? 
[x] EIKE 21.02.2018: Und plötzlich wird die Zukunft glücklicher
Bei einem wahrscheinlichen Forcingwert in der Gegend von 1,5 … 1 Grad besteht keinerlei alarmistischer Anlass mehr. Sollten die dazu noch Recht behalten, welche eine Größenordnung von ca. 0,6 Grad vermuten, dann bleibt es nicht mehr als ein Rauschen im Mülleimer der Erdgeschichte.

Proxibilder Kontinente/Großregionen

Wer immer noch (wie beispielsweise Professor Rahmstorf vom PIK) glaubt, mit Proxis ließen sich (ausreichend genaue) Aussagen zur Klimahistorie ableiten, der sollte sich solche einfach ansehen, wie es der Autor gemacht hat:
Zum Beispiel in einer exemplarischen Sichtung von Temperaturproxis des größten, von Herrn Rahmstor gelobten, internationalen Proxi-Rekonstruktions- und Sammlungsprojektes, Pages2k:
EIKE
11.05.2016: [6] Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES2k
Das gilt nicht nur für Temperatur-, sondern auch für Pegelproxis. Dort allerdings weniger wegen fehlender Genauigkeit, sondern der Erkenntnis, dass das aktuell gemessene – und als AGW-alarmistisch publizierte – “Pegelwackeln” im historischen Pegelrauschen verschwindet:
EIKE 07.0
4.2016: Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren

Beispielhaft nun die TemperaturProxi-Globaldiagramme für die letzten 2.000 Jahre aus dem Pages2k-Projekt für einzelne Kontinente. Die “Farbspaghettis” sind die übereinander gelegten Temperatur-Proxikurven der gleichen Region. Dabei soll es sich um die besten Proxis handeln (Kritik dazu siehe [6]).
Daraus bitte ableiten, dasss:
ein so schneller und großer Temperaturanstieg wie aktuell noch nie in der Vergangenheit vorgekommen ist,
es noch nie (in den letzten 2000 Jahren) so warm war wie heute,
die Erde unaufhaltsam der “Selbstverbrennung” entgegengeht, da Temperatur-Kipppunkte bereits überschritten sind.

Bild 19 Antarctic. Quelle: Pages2k-Viewer

Bild 20 Arctic. Quelle: Pages2k-Viewer

Bild 21 Australien. Quelle: Pages2k-Viewer

Bild 22 Europe. Quelle: Pages2k-Viewer

Bild 23 Asia. Quelle: Pages2k-Viewer

Bild 24 NAmerica. Quelle: Pages2k-Viewer

Bild 25 SAmerica. Quelle: Pages2k-Viewer

Quellen

[1] NoTricksZone 13. December 2018: A Fabricated ‘Uptick’? Marcott’s 2013 Hockey Stick Graph Debunked By Marcott’s Own 2011 Ph.D Thesis

[2] Marcott et al., 2013: A Reconstruction of Regional and Global Temperature for the Past 11,300 Years

[3] Marcott, 2011: Late Pleistocene and Holocene Glacier and Climate Change

Nah dran am Wandel Paläoklima: Das ganze Holozän

[5] kaltesonne 17. April 2013: Nach drei Wochen erneutem Hockeyschläger-Alarm war der Spuk wieder vorbei und der Skandal perfekt: Wie Jungforscher Shaun Marcott die Medienwelt hinters Licht führte

[6] EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES2k

[7] EIKE 29.09.2016: Aus dem Lehrbuch zur Erzeugung von Klimaalarm Teil 1




Hummel-Drohnen

Zumindest behauptet das die Universal MACH-Website von NBC News. Einem Artikel von Barbara Booth zufolge „haben Ingenieure an der University von Washington bekannt gegeben, dass sie mit einer Energiequelle aufwarten können, die sowohl leicht als auch stark genug ist, um eine ,Drohne‘ ununterbrochen sieben Stunden lang in der Luft zu halten“. Das folgt einer Miniatur-Drohne mit der Bezeichnung RoboFly auf dem Fuße, eine durch und durch vom Menschen hergestellte Flugmaschine, konstruiert von der gleichen Arbeitsgruppe.

Nun kann man sich fragen: Wer wird das Rennen um „dronemanship“ gewinnen?

Überlegenheit der Natur

Die Hummel-Drohnen-Version demonstriert die Überlegenheit der Natur. Im Gegensatz zu der Roboterfliege, welche eine Batterie benötigt, kann die Hummel stundenlang fliegen und dabei noch Energie ansammeln und sich sogar daran erinnern, wo sie eben war. Man beobachte einfach eine Gruppe blühender Blaubeerpflanzen im Frühjahr und beobachte die Hummeln, wie sie von Blüte zu Blüte fliegen und diese dabei bestäuben. Zwar kann es schwierig sein, das zu beobachten, aber man wird kaum ein Individuum die gleiche Blüte anfliegen sehen, an der sie gerade erst gewesen ist.

Natürlich sind die Hummeln derzeit nicht zu sehen. Sie versuchen, einen langen und harten Winter zu überleben. Wie andere Organismen mit Winterschlaf sowohl bei Pflanzen als auch bei Tieren überleben sie durch Winterschlaf. Dazu gehört, dass sie ihre Aktivitäten und ihren Stoffwechsel herunterfahren bis fast zum Stillstand. Auf diese Weise können sie mit Energiereserven überleben, welche sie in wärmeren Zeiten des Jahres angesammelt haben, als Nahrung reichlich zur Verfügung stand.

Winterschlaf ist KEINE Option

Für uns Menschen ist Winterschlaf keine Option. Unser Herzschlag und unser Stoffwechsel können auf diese Weise nicht reguliert werden. Das bedeutet, dass wir Nahrung konsumieren und uns warm halten müssen, unabhängig vom Wetter. Tobt draußen ein Blizzard, ist es überlebenswichtig, unseren Körper warm zu halten, und das erfordert externe Energie. Darum bauen wir Häuser mit thermischer Isolierung und Heizungen. Heizen, das heißt Verbrauch von Energiequellen wie Holz, Kohle, Öl, Erdgas oder Strom. Während die ersten vier Energieträger mehr oder weniger unbegrenzt auf Lager gehalten werden können, ist jede Stromspeicherung extrem begrenzt und sehr kostspielig. Schauen wir uns diese Alternativen mal etwas näher an.

Alternative Energie-Speichermöglichkeiten

Die folgende Tabelle zeigt eine Übersicht der Energiedichte gegenwärtiger Energie-Speicheralternativen. Alle Werte sind grobe Schätzungen:

Schon ein flüchtiger Blick auf die Tabelle zeigt, „wo die Energie“ wirklich steckt. Kein Energie-Speichermedium erreicht auch nur annähernd die Energiedichte von Kohlenstoff und auf demselben basierender Treibstoffe (gespeicherte Energie-Einheit pro Gewichts-Einheit). Letztere weisen eine sogar noch höhere Energiedichte auf als reiner Kohlenstoff, und zwar wegen der zusätzlichen Energie im gebundenen Anteil des Kohlenwasserstoff-Materials (Öl, Benzin oder Erdgas). Natürlich hat reiner Kohlenstoff (Anthrazit) einen höheren Energiegehalt als weniger dichte Braunkohle. Aber immer gilt, dass jede Art Kohle jedwede Batterie-Speicherdichte um ein Vielfaches übersteigt.

Keiner der derzeit verfügbaren Batterie-Typen kommt auch nur annähernd der Energiedichte von auf Kohlenstoff basierenden Medien nahe. Das gilt auch für die jüngst laut angepriesenen „1-1-8“ und andere Feststoff-Batterien. Das führt zu der Frage:

Werden die so laut angepriesenen Elektrofahrzeuge diese Batterie-Einschränkungen jemals überwinden?

NEIN!

Weder jetzt noch in absehbarer Zukunft!

Dr. Klaus L.E. Kaiser is author of CONVENIENT MYTHS, the green revolution – perceptions, politics, and facts Convenient Myths

Link: https://canadafreepress.com/bumblebee-drones

Übersetzt von Chris Frey EIKE