Sommer­mythen zum Sommer­ausklang – einfach entzau­bert

Nach den heiligen Lehren und meist unsinnigen Apokalypsen der Klima-Alarmisten von IPCC, PIK & Co. sollen die Sommer in Deutschland ja immer trockener werden. Der 2017er Sommer spielte da aber nicht mit- wer sich auf Wanderschaft begab, brauchte eher Gummistiefel als Sandalen. (Siehe Pressemitteilung des DWD vom 31.07.2017 http://www.dwd.de/DE/presse/presseseite_node.html;jsessionid=7E831BC8E375A6DAE9208FE674595E82.live21064). Allein der Juli 2017 gehörte zu den 10 niederschlagsreichsten Monaten seit 1881. Und da die Jahresniederschläge seit 1881 laut DWD in Deutschland um 11% zugenommen haben, kann es nicht am fehlenden Regen liegen, wenn die Waldböden laut Forstämtern immer trockener werden.

Abb. 1: Riesige Pfützen statt staubiger Pfade im nassen Sommer 2017. Foto: Stefan Kämpfe

Insgesamt sind im Deutschland- Mittel in diesem Sommer etwa 300mm Regen gefallen; deutlich mehr als das Langfrist-Mittel (1881 bis 2016) von 246mm, aber keinesfalls rekordverdächtig viel. Niederschläge schwanken ohnehin langfristig stark; ein Langzeittrend zu mehr Trockenheit in den drei Sommermonaten ist nicht erkennbar, während die Winterniederschläge (hier nicht gezeigt) eindeutig zugenommen haben:

Abb. 2: Die Sommer weigern sich bislang beharrlich, den Prognosen von IPCC, PIK & Co. zu gehorchen – sie werden einfach nicht trockener.

Aber vielleicht wird es ja wenigstens in den Trockengebieten Deutschlands im Sommer trockener? Die Station Erfurt-Weimar, am Südrand des Thüringer Beckens, liegt im Lee der Mittelgebirge im Mitteldeutschen Trockengebiet. Hier wird leider erst seit 1952 gemessen; seitdem erhöhten sich die Sommerniederschläge unwesentlich:

Abb. 3: Auch im Mitteldeutschen Trockengebiet bleibt die sommerliche Austrocknung ein Märchen.

Vom Niederschlag ist es nicht weit zu den „Unwettern, die immer häufiger werden“. Eine exakte Definition, was ein „Unwetter“ ist, gibt es nicht- das hängt sehr stark von den geografischen und gesellschaftlichen Faktoren ab. Mittlerweile wird ja jede Mure, jeder Starkregen, jedes Hagelkorn und jede Gewitterböe medial als Menetekel des Klimawandels gedeutet. Einen groben Anhaltspunkt, ob es mehr Unwetter gibt; liefert die Anzahl der sommerlichen Gewittertage. Sie wird in Potsdam seit 1893 beobachtet; wobei freilich jedes harmlose Grummeln und jedes Unwetter gleichrangig erfasst werden:

Abb. 4: Seit 1893 nahm die Anzahl der sommerlichen Gewittertage in Potsdam etwas ab. 2017 (noch nicht enthalten) wies bis Ende Juli 14 Gewittertage auf, und der August war auch nicht extrem gewitterreich, so dass höchstens um die 20 Tage zu erwarten sind.

Aber wenn es schon nicht trockener und auch nicht unwetterreicher im deutschen Sommer zugeht- vielleicht ist ja mittlerweile wenigstens das sommerliche Meereis in der Arktis verschwunden? Der gut verdienende Chef- Katastrophist und Märchenerzähler Al Gore hatte sein Verschwinden schon für die Mitte des Jahres 2013 vorhergesagt http://info.kopp-verlag.de/hintergruende/enthuellungen/alex-newman/al-gore-sagte-voraus-2-13-sei-die-arktis-voellig-eisfrei-stattdessen-ist-die-eisschicht-um-die-ha.html. Ein Blick auf den Nordpol 2017 zeigt jedoch- das sommerliche Meereis ist auch Ende August 2017 noch da, und zwar mit über 5 Millionen Km² deutlich mehr, als zum bisherigen Rekord- Minimum 2012:

Abb. 5 und 6: Auch das arktische Meereis trotzt den Vorhersagen und verschwindet nicht. Am 25. August 2017 war das Seegebiet rund um den Nordpol mit Eis bedeckt (obere Abb. 5). Noch im Frühsommer sah Vieles wenigstens nach einem neuen Minimum-Rekord aus; doch im Hochsommer schmolz weniger Eisfläche ab (blaue Kurve); der Rekord von 2012 (dunkelgrün) wurde zum Stand am 25.08.2017 nicht annähernd erreicht, und das Ende der sommerlichen Schmelze steht kurz bevor (untere Abb. 6.). Bildquelle http://nsidc.org/arcticseaicenews/, ergänzt von Stefan Kämpfe

Zur kurz- und langfristigen Arktiseisentwicklung ist auch dieser aktuelle EIKE- Beitrag interessant https://eike.institute/2017/08/22/was-wissen-wir-ueber-die-trends-des-arktischen-meereises/. Um den Alarmisten aber wenigstens ein kleines Erfolgserlebnis zu gönnen, wollen wir nicht unerwähnt lassen, dass die sommerlichen Lufttemperaturen Deutschlands seit Beginn der Aufzeichnungen leicht gestiegen sind, wobei es bislang jedoch immer noch keinen wissenschaftlichen Versuchsnachweis gibt, dass dieser Temperaturanstieg durch CO2 bewirkt wurde:

Abb. 7: Im Gleichklang mit der AMO (grün) wurden die Sommer in Deutschland wärmer. Diese eher angenehme Erwärmung muss freilich nicht ewig andauern- Klimawandel ist keine Einbahnstraße. Schon einmal, nämlich zwischen den 1950er und den 1980er Jahren, wurden die Sommer kühler, obwohl auch damals schon die CO2- Konzentrationen merklich anstiegen.

Auch der Sommer 2017 war trotz seiner Unbeständigkeit mit etwa 17,9 °C (DWD- Mittel) etwas zu warm, auch gemessen am CLINO- Wert 1981 bis 2010, der 17,1°C beträgt. Doch ehe jetzt wieder vorschnell der „CO2- bedingte Klimawandel“ dafür verantwortlich gemacht wird, lohnt ein Blick auf drei weitere, wesentliche Ursachen der sommerlichen Erwärmung. Selbst der DWD gab unlängst auf seiner Startseite zu, dass die Globalstrahlung (im Wesentlichen direkte Sonnenstrahlung plus diffuse Einstrahlung) zunahm:

Abb. 8: Zunehmende Globalstrahlung seit 1983, das bedeutet mehr erwärmende Energie von Sonne und Himmel (je mehr die Farben ins Rote gehen, desto stärker war die Zunahme). Quelle: DWD

Besonders von April bis September wirkt eine Strahlungszunahme stark erwärmend. Nur die Sonnenscheindauer ist jedoch über viele Jahrzehnte an wenigen Stationen lückenlos aufgezeichnet; in Potsdam immerhin seit 1893. Das entsprechende Streudiagramm zwischen mittlerer Sonnenscheindauer je Sommertag und Sommertemperaturen zeigt eindeutig, wer im meteorologischen Sommer die meiste Wärme erzeugt- die Sonne nämlich:

Abb. 9: Mit einem Bestimmtheitsmaß von gut 60% ist der Zusammenhang zwischen Sonnenscheindauer und Lufttemperaturen im Sommer hoch signifikant. Scheint die Sonne länger als üblich, ist es wärmer.

Über die Gründe der verstärkten Insolation kann man nur spekulieren. Neben den Luftreinhaltemaßnahmen, welche ab den späten 1980er Jahren die Luft über Deutschland klarer und ärmer an tiefen Wolken machten, kommen auch weitere Ursachen wie die starke Sonnenaktivität oder die Austrocknung der Landschaft durch Melioration und Versiegelung in Betracht. Weiterhin lohnt ein Blick auf die Häufigkeitsverhältnisse der Großwetterlagen, denn kühlende West-, Nordwest- und Nordlagen wurden seit 1881 deutlich seltener; was immerhin fast 35 % der sommerlichen Temperaturvarianz erklärt:

Abb. 10: Weniger Wetter aus der „kühlen“ Ecke von West bis Nord; auch dieser Zusammenhang ist signifikant, allerdings mit negativem Korrelationskoeffizienten von -0,59 entsprechend B = 34,8%.

Und als dritter Erwärmungsfaktor sind die verschiedensten Wärmeinseleffekte (WI) zu nennen. Sie könnten auch mit zu der höheren Sonnenscheindauer beigetragen haben.

Der zunehmende sommerliche Wärmeinseleffekt dürfte mit eine der Hauptursachen für die steigenden Sommertemperaturen sein.

In den letzten 150 Jahren haben sich Deutschland und viele andere Länder wesentlich verändert, so stark wie nie zuvor in der Menschheitsgeschichte. Und alle Veränderungen führten zu Erwärmungen just dort, wo die Oberfläche der Erde durch Städteerweiterungen, Trockenlegungen und Bebauungen verändert wurde. Diese Landschaftsbetonierungen und Trockenlegungen setzen sich täglich fort, in Deutschland innerhalb und außerhalb der Gemeinden in der Summe mit etwa 100 ha täglich. Wo zuvor kühlende Vegetation und feuchter Boden die Sonnenwärme dämpften, heizen sich heute Beton, Asphalt, Mauern und Dächer tagsüber auf und geben nachts die gespeicherte Wärme wieder ab. Auch die wie Pilze aus dem Boden geschossenen Wind- und Solarparks wirken erwärmend. Zudem sind in den Großstädten die Frischluftschneisen immer mehr verbaut, die eh sich verringernde kühlende Frischluftzufuhr erreicht das Zentrum der Städte nicht mehr und verliert sich in den Außenbezirken. Siehe https://youtu.be/mox5tHQDXt8 .Der ganze Artikel dazu ist abrufbar unter: https://eike.institute/2017/08/03/waermeinsel-und-stadtklimaeffekte-als-erwaermungsverursacher-teil-1-hoehe-des-stadt-stadtrandeffektes-von-zuerich/

Da die Messstationen bevorzugt dort aufgestellt sind, wo der Mensch lebt und arbeitet, nämlich in den Wärmeinseln, hat die Zunahme der Wärmeinseleffekte natürlich einen erheblichen Anteil an den gemessenen Temperaturen.

Betrachten wir zunächst die Sommertemperaturen Deutschlands aus der Zeit der bitteren Armut nach dem Kriegsende bis heute.

Abb. 11: Die drei Sommermonate wurden in Deutschland nach Kriegsende zunächst kälter, die erneute Erwärmung setzte dann begünstigt durch den Wiederaufbau und den steigenden Wohlstand mitsamt Energieverbrauch nach 1965 wieder ein, wobei sich ein neues Plateau andeutet. Auch die Sommererwärmung ist trotz weiterer Zunahme der Wärmeinseln in den beiden letzten Jahrzehnten zu einem Ende gekommen, weil möglicherweise Sonnenscheindauer und wärmende Großwetterlagen nicht andauernd zunehmen können.

Wir stellen uns deshalb wieder die Frage: Wie sähe die Temperaturentwicklung der drei Sommermonate ohne den Wärmeinseleffekt bei den Messstationen aus?

Um diese Frage annähernd zu beantworten, gibt es zwei Näherungsmöglichkeiten.

  1. WI-Korrekturwert: Wir rechnen nach der Methode von Raimund Leistenschneider die WI- Effekt-Erwärmung aus den Daten raus. In den letzten 20 Jahren ergibt sich folgendes Bild.

Abb. 12a: WI-bereinigte Sommertemperaturen Deutschlands in der Gegenwart. Beide Trendlinien zeigen fast Stagnation, wobei die grüne WI-bereinigte bereits eine Abkühlung der Sommermonate in Deutschland andeutet.

  1. Ländliche Stationen

Es gibt in Deutschland natürlich auch Landschaften mit Messstationen, die sich in der Gegenwart weniger wärmend verändert haben. Interessant ist deren Entwicklung der Sommertemperaturen. Beispiel: Schneifelforsthaus an der belgischen Grenze, die Station liegt an der Kreuzung zweier Schnellstraßen, aber sonst in einer ländlichen Umgebung der Eifel:

Abb. 12b: Kaum steigende Sommertemperaturen auf dem Lande, hier Schneifelforsthaus, seit 20 Jahren. Der Trendlinienverlauf unterscheidet sich nicht stark vom Verlauf der WI-bereinigten Deutschlandkurve in Grafik 12a.

Längere Zeitreihen

Nur wenige deutsche Stationen gehen weit zurück. Eine davon wäre die Station Berlin-Tempelhof, die allerdings ab 1930 am rasanten Aufstieg des Teilortes mit dem Flughafenbau profitiert hat. Das sieht man auch an der Langzeitkurve. Wir beginnen mit der Reihe ab 1756, weil die 50 Jahre davor als nicht zuverlässig gelten können. Man beobachte auch, 1756 wurde Mozart geboren, Goethe kurz zuvor.

Abb. 13: Keine Sommererwärmung an der Messstation Tempelhof über die letzten 262 Jahre. Die Sommer waren zeitweise wärmer oder kälter als heute. Seit 25 Jahren werden sehr heiße und sehr kühle Sommer gleichermaßen seltener; es dominieren mäßig warme. Der kälteste Sommer in Tempelhof war 1923, der wärmste 1757. Der heißeste Sommermonat war der August 1807, dem allerdings ein kühlerer Juni vorausging.

Die beiden Autoren hoffen, dass die drei Sommermonate auch in den nächsten Jahrzehnten auf dem jetzigen angenehmen Temperatur-Niveau bleiben werden; eine Garantie dafür gibt es nicht. Jedenfalls musste in den Städten 2017 an keinem einzigen Sommertag die Heizung in Betrieb genommen werden.

Schauen wir am Ende unserer Betrachtungen über Sommer- Mythen noch nach Zentralengland, wo seit 1659 halbwegs verlässliche Temperaturaufzeichnungen vorliegen und ziemlich am Anfang der Reihe der Höhepunkt der „Kleinen Eiszeit“, die kälteste Phase der letzten gut 1.000 Jahre (vermutlich sogar die kälteste des ganzen Holozäns), mit erfasst wird. Der seitdem erfolgte sommerliche Temperaturanstieg ist mit knapp 0,4K (entspricht 0,4 °C) bescheiden und keinesfalls besorgniserregend:

Abb.14: Über dreieinhalb Jahrhunderte erwärmte sich der Sommer in Zentralengland nur geringfügig. Die gegenwärtige Warmphase scheint dort zu enden; und der absolut wärmste Sommer dieser Reihe (1976) liegt nun auch schon 40 Jahre zurück (der 2017er Sommer fehlt hier noch; er wird mit etwa 16,3°C nicht auffallend warm werden).

Der 2017er Sommer mag so manchen Urlauber, Gärtner und Landwirt wegen seiner Kapriolen genervt haben- doch er war besser als sein Ruf. Es war also ein nur etwas zu warmer, typisch deutscher, wechselhafter Sommer, welcher oft dem Landwirt die Ernte verregnete und dem Eismann die Kundschaft vergraulte, doch es gab auch sonnige Momente und schöne, warme Tage. Von Tag zu Tag, aber auch innerhalb eines Tages, wechselten Witterung und Temperaturniveau häufig abrupt. Manchmal stand man morgens bei Regen auf und suchte Schirm und Jacke- da schien schon wieder die Sonne. Viele Kurzfristprognosen waren deshalb mangelhaft. So wurde für das vierte Juli- Wochenende viel Bewölkung und häufiger Regen in Thüringen erwartet; tatsächlich schien außer kurzen Schauern bei viel Wind oft die Sonne bei warmen Temperaturen. Unangenehm war jedoch die häufige Schwüle. Trotzdem gab besonders im Juni und teilweise im August auch reichlich Sonnenschein. Und wie es momentan aussieht, könnte auch der September noch ein paar Spätsommertage bringen. Den Wildpflanzen bekam die wechselhafte, feucht- warme Witterung ausgezeichnet, so dass auch die Spätblüher auf den Steppenrasen Mitteldeutschlands teilweise reiche Aspekte bildeten:

Abb. 15: Reicher Blühaspekt der Goldhaar-Aster Ende August 2017 am Brembacher Weinberg nördlich von Weimar. In den Sommern 2015 und 2016 war der Steppenhang durch die häufigen Dürren Ende August braun; es blühten nur wenige Goldhaar- Astern. Phänologisch gehört dieser Blühaspekt bereits zum Übergang vom Früh- zum Vollherbst; Wildrosen, Weißdorne und Holunder sind nahezu vollreif. Foto: Stefan Kämpfe

Fazit: Die meisten Sommermythen gehören ins Reich der Fantasie. Weder wurden die deutschen Sommer trockener oder unwetterträchtiger; Unwetter, die nicht einmal genau definiert sind, bilden nun leider einmal die unschöne Begleitmusik eines jeden Sommers. Auch das sommerliche Arktiseis verschwand bislang nicht. Die angenehme, leichte sommerliche Erwärmung der letzten etwa 35 Jahre ist keinesfalls ungewöhnlich und ganz ohne CO2- Mythos mit mehr Sonnenschein, weniger kühlenden Wetterlagen und Wärmeinseleffekten zu erklären. Seit dem späten 17. Jahrhundert gab es schon öfters Phasen mit tendenziell wärmeren oder kälteren Sommern. Der 2017er Sommer war besser als sein Ruf; trotz häufiger Niederschläge war er weder zu kalt, noch extrem sonnenscheinarm oder extrem nass.

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher

Josef Kowatsch, Naturbeobachter, unabhängiger Natur- und Klimaforscher




Warum verschweigt die UK-Regierung die wahren Kosten erneuer­barer Energie?

Jeder weiß, dass erneuerbare Energie inhärent unsicher ist, oder wie es Ingenieure ausdrücken: „intermittierent“. Nichtsdestotrotz folgt man derzeit einem Programm, um bzgl. unserer Stromversorgung noch abhängiger von dieser Technologie zu werden.

Dies hat die Regierung gezwungen, eine riskante Wette einzugehen über „Flexibilitäts-Maßnahmen“ in einem verzweifelten Versuch, diese gewaltige technologische Herausforderung zu meistern und zu managen.

Diese Maßnahmen werden saftige Vorlaufkosten in Höhe von 20 Milliarden Pfund mit sich bringen, aber die Vorteile sind unsicher, erstrecken sich über viele Jahre und werden um ein Vielfaches übertroffen durch die Kosten der Subventionen für Erneuerbare. Wieder einmal bringt es die Regierung nicht fertig, ehrlich zu sein hinsichtlich der erheblichen Kosten, die durch den Wechsel von fossilen Treibstoffen zu erneuerbaren Energien anfallen.

Die Maßnahmen kommen in einem Paket von 29 Einzelmaßnahmen daher, welche die Regierung ergreift. Dies haben der Energie-Manager Ofgem und die Industrie als Teil eines „Smart Systems and Flexibility Plan” im Juli veröffentlicht. Diese Maßnahmen stützen zwei grundlegende Objektiven: größere Anreize für Firmen, Einrichtungen für Energiespeicherung zu entwickeln und es Firmen leichter machen, für die Reduktion ihres Energieverbrauchs bezahlt zu werden, wenn die Kapazität nicht voll ausgeschöpft wird.

Die Verschiebung hin zu einer größeren Anzahl von mittelständischen Energieversorgern wird das Nationale Netz zwingen, weit mehr zu investieren in die Übertragungs- und Verteilungs-Netzwerke, welche den Strom vom Erzeuger zum Verbraucher leiten. Npower zufolge wird dies bis zum Jahr 2020 die durchschnittlichen heimischen Stromrechnungen um 114 Pfund steigen lassen, das ist eine Teuerung von 124 Prozent relativ zum Jahr 2007.

Ein Beispiel derartiger Investitionen ist die jüngst eingerichtete Beauly-Denny-Leitung, welche 820 Millionen Pfund kostet und einen furchtbaren Stahlstrang durch das Schottische Hochland zieht. Immer wieder geht das Vorantreiben von Erneuerbaren auf Kosten des Umweltschutzes.

Ein Report über die System-Flexibilität durch die Berater bzgl. grüner Energie bei Carbon Trust hat zu vielen Schlagzeilen geführt des Inhalts, dass derartige Maßnahmen dem Land Einsparungen in Höhe von 40 Milliarden Pfund bescheren. Das ist irreführend. Die Studie der Regierung selbst enthüllt, dass die Einsparungen lediglich 17 Milliarden Pfund betragen könnten und sich bis zum Jahr 2050 erstrecken. Dies ist gleich einer viel moderater klingenden Einsparung zwischen 500 Millionen und 1 Milliarde Pfund pro Jahr.

Aber es gibt mit diesen Berechnungen ein noch größeres Problem. Die vermeintlichen Einsparungen sind berechnet bzgl. der Kosten für drakonische Ziele hinsichtlich Klimawandel, aber ohne Investitionen in jedwede neue Ressourcen. Ein alternatives Vorgehen könnte viel billiger sein, aber es würde erfordern, von den starren Vorgaben des Klimawandel-Gesetzes [climate change act] abzurücken. Tatsächlich belaufen sich die Kosten des Befolgens dieses Gesetzes auf 10 Milliarden Pfund pro Jahr, Tendenz stark weiter steigend, bis sie sich im Jahre 2030 auf 30 Milliarden Pfund pro Jahr belaufen. Jedwede illusorische Einsparungen durch Fexibilitäts-Maßnahmen werden marginalisiert durch die Kosten der Subventionen für Erneuerbare.

Dies ist nichts weiter als eine weitere Rechnung für die ohnehin schon hart bedrängten Verbraucher, um „saubere“ Technologien zu unterstützen. Sie wurde absichtlich und irreführend als eine Einsparung hinaus posaunt mit der unterschwelligen Botschaft, dass das Befolgen des Klimawandel-Gesetzes eine Art unveränderliche Lebens-Tatsache ist. Die Wahrheit ist, dass es eine Wahl ist, und Politiker sollten anfangen, offen zu sein hinsichtlich der Kosten dieser Wahl.

Eine genaue Lektüre der ganzen Regierungs-Studie bringt ans Licht, dass die relativen Vorteile der Politik ungleichmäßig verteilt sind auf verschiedene Typen von Verbrauchern. Sie haben die Initiative verkauft als eine Maßnahme, um „den Verbrauchern die Kontrolle zu übertragen“. Die Realität ist jedoch, dass sich die Maßnahmen primär auf eine kleine Gruppe großer Unternehmen als Stromverbraucher konzentrieren. Sie werden die größten Einsparungen einfahren, indem sie ihren Energieverbrauch regulieren: zum Beispiel durch das Abschalten großer Geräte, wenn deren Kapazität gar nicht ausgeschöpft wird.

Trotz der bedeutenden Kosten wird Britannien immer noch gezwungen sein, sich auf einen harten Kern von Gaskraftwerken zu verlassen, welche auch dann Strom liefern, wenn der Wind nicht weht und die Sonne nicht scheint. Diese Kraftwerke werden selten herangezogen und werden so im Unterhalt immer teurer. Einem in der Studie von Carbon Trust beschriebenen Szenario zufolge werden diese Kraftwerke im Jahre 2020 immer noch eine kombinierte Kapazität von 16 GW haben, aber sie werden nur während 6% der Zeit gebraucht, weil subventionierte Erneuerbare bevorzugt in das Nationale Netz eingespeist werden müssen.

Die Regierung hat folglich konspiriert, um alle bestehenden Technologien unökonomisch zu machen. Andererseits können neue Technologien gut wettbewerbsfähig werden vor dem Jahr 2050. Alle Eier werden in den Korb der schon jetzt scheiternden Erneuerbaren gepackt.

Fossile Treibstoffe haben die Wirtschaft seit der industriellen Revolution mit Strom versorgt, was es uns allen besser gehen lässt und was uns von der Tyrannei befreite, an das Land gebunden zu sein. Jetzt werden diese Errungenschaften graduell abgebaut durch Politiker, welche Unternehmens-Interessen und Lobbyisten erneuerbarer Energie über das Allgemeinwohl stellen.

Aber sie lehnen es ab, ehrlich in dieser Hinsicht zu sein. Wieder einmal haben die Regierung und verschiedene Interessengruppen bedeutende Kosten als „Einsparungen“ verkauft, und sie fordern uns auf, dafür dankbar zu sein.

Diese Politik kann durchaus Einsparungen mit sich bringen im Vergleich zur Politik der Errichtung weiterer Erneuerbarer ohne Flexibilitäts-Maßnahmen, aber das heißt nicht, dass sie nicht einhergehen mit Kosten für die Ökonomie als Ganzes. Dies ist die unvermeidliche Folge der versuchten Regulierung von Kohlendioxid vor allem anderen, koste es, was es wolle. Ein ausgewogeneres Vorgehen war niemals notwendiger als heute.

Link: https://capx.co/why-wont-the-government-admit-the-true-cost-of-renewable-energy/

Übersetzt von Chris Frey EIKE




Hurrikan HARVEY: Verheerend – nicht beispiellos

Die Praxis, Hurrikane mit Namen zu versehen, war noch nicht in Mode, aber dieser Hurrikan der Stärke 4 brauchte keinen Namen, um zu einer wirklichen humanen Tragödie zu werden. Der Sturm brachte Windgeschwindigkeiten bis 145 mph [ca. 230 km/h] mit sich und eine Flutwelle in Höhe von 15 Fuß [ca. 4,5 m]*, welche die Stadt überflutete.

[*Die Flutwelle tritt immer im Zentrum eines Wirbelsturmes auf, wo der Luftdruck bis zu 100 hPa tiefer sein kann als in der unmittelbaren Umgebung. Aus hydrostatischen Gründen liegt der Meeresspiegel dort einfach höher. Mit der Windgeschwindigkeit selbst hat die Flutwelle nichts zu tun. Am. d. Übers.]

Die Schätzungen reichen von 6000 bis 12.000 Todesopfern. Dieser Verlust an Menschenleben war so extrem, dass die Texaner mit der schieren Masse von Leichen nicht fertig wurden. Sie waren gezwungen, Massengräber auszuheben, Lastkähne für Massenbegräbnisse auf See zu beschaffen und Massenverbrennungen von Leichen am Strand zu organisieren. Der Verlust an Häusern, Leben und Eigentum war erschütternd. Die Stadt Galveston wurde wieder aufgebaut, erreichte aber nie wieder den vorherigen Glanz.

Wie zu erwarten war, hatten manche Klima-Campaigner nichts Eiligeres zu tun als Hurrikan Harvey der globalen Erwärmung in die Schuhe zu schieben.

Das ist Unsinn!

Die Ausbeutung des Leidens in Texas zu Propagandazwecken ist sowohl schamlos als auch taktlos, genau wie es mit der Ausbeutung der Verluste durch die Hurrikane KATRINA und SANDY in der Vergangenheit war.

In Wirklichkeit genoss Amerika eine ausgedehnte Periode, in der kein einziger Hurrikan der Kategorie 3 oder höher auf das Festland übergetreten war. Zuletzt war das bei dem Hurrikan WILMA der Fall, welcher am 24. Oktober 2005 Florida heimsuchte – also vor 12 Jahren. Dieser Umstand war sehr unbequem für Al Gore und seine Kumpane im Geiste, die hysterisch darauf bedacht waren, jedwede natürliche Wettertragödie als die Folge der vom Menschen verursachten globalen Erwärmung zu verkaufen.

Die Klima-Simulationen des Teams Erwärmung sind nicht nur mit der Prophezeiung der ausgedehnten Hurrikan-Dürreperiode grandios gescheitert, sondern allgemein mit der ganzen Bandbreite von Extremwetterereignissen, welche insgesamt im Vergleich zur Historie sehr spärlich aufgetreten waren. Sie hätten bessere Ergebnisse mit dem Werfen von Münzen erzielt.

Die gute Nachricht lautet, dass obwohl es herzzerbrechendes Leid und Härten in Texas geben wird, wir darauf vertrauen können, dass wir nicht die Art Leid sehen werden, welche der Große Galveston-Hurrikan vor 117 Jahren mit sich gebracht hatte.

Die ökonomische Kraft und fortgeschrittene Technologien, die uns dank unserer freien Märkte zur Verfügung stehen (welche die Grünen verachten), ermöglichen rechtzeitige Warnungen, damit die Menschen sich vorbereiten und Evakuierungen vorgenommen werden können. Heute sind wir in der Lage, rasch zu Hilfe zu eilen und es den Menschen zu ermöglichen, mit den Folgen des Sturmes fertig zu werden.

Auch die Meteorologie hat gewaltige Fortschritte gemacht, solide Wissenschaft anstatt fadenscheiniger Klimawissenschaft. Wenn Meteorologen ihre Kurzfristmodelle nutzen, sind sie tatsächlich in der Lage, die Zugbahn von Hurrikanen genau vorherzusagen, womit sie viele Menschenleben retten.

Jeder, der Ihnen sagt, dass Hurrikan HARVEY deutlich weniger heftig ausgefallen wäre, hätte es nicht die industrielle Revolution gegeben, oder ausreichend Energie zum Dienste der Menschheit, will Ihnen etwas verkaufen – etwas, das Sie nicht kaufen wollen.

Tatsächlich ist das Gegenteil der Fall. Hurrikan HARVEY ist natürlich. Die Fähigkeit, ihm zu begegnen, ist dem Menschen geschuldet.

Die Fähigkeit des Kapitalismus‘ der freien Märkte, bedürftigen Menschen zu dienen, ist unübertroffen.

Die finanziellen Verluste durch Hurrikan HARVEY mögen heute größer denn je sein. Aber dafür gibt es einen einfachen Grund. Es ist NICHT die Stärke oder die Größe des Sturmes. Der Grund ist vielmehr, dass die Stärke unserer Wirtschaft die Werte von Eigentum auf dem Weg von HARVEY dramatisch hat steigen lassen. Da sehen wir wieder die Macht des freien Marktes. Es gibt keine gleichwertige ökonomische Kraft.

Heute gelten unsere Gedanken, Gebete und unser Beistand all denen, die von Hurrikan HARVEY betroffen sind.

Und jedem, der die von HARVEY angerichteten Schäden ausbeutet, um das Narrativ der globalen Erwärmung voranzutreiben, den Sozialismus oder die ihren Reichtum durch Subventionen der Regierung steigern wollen, sagen wir:

SPIELEN SIE NICHT MIT TEXAS!

Link: http://www.cfact.org/2017/08/26/hurricane-harvey-devastating-not-unprecedented/

Übersetzt durch Chris Frey EIKE




Reichweiten­hunger als Kollateral­schaden im Klima­kampf

Und so unterstützten – ja fordern – GRÜNE und NGOs, dass mit dem EEG auch zwingend die Elektromobilität erzwungen werden muss.

Scheitert die Elektromobilität an fehlenden Rohstoffen?

Nachdem vieles, was unsere alternativlose Kanzlerin anpackt aus reinem Machtkalkül geschieht, und außer horrenden Kosten ein Nutzen fehlt, zeigt sich inzwischen immer mehr, dass es bei der Elektromobilität ebenfalls so kommen kann [2].
Es ist inzwischen so offensichtlich, dass sich selbst die (Des-)Informationsseite der Regierungsberaterin veranlasst sah, darüber zu berichten. Wobei es um zwei Problemstellungen geht:
-Die Verfügbarkeit der wichtigen Rohstoffe und
-parallel deren Preisexplosion.
-Die in [2] beschriebene Giftproblematik der modernen Akkus wird – wohl um die Bürger nicht zu sehr zu verunsichern, aktuell nicht angesprochen.

KLIMARETTER.INFO, 22. August 2017: [3] Der Kobold im Elektroauto
Der kommende Boom in der Batterie-Produktion für E-Mobilität steigert die Nachfrage nach zwei Metallen, die sonst nur wenige Verwendungszwecke kennen: Kobalt und Lithium. Ob die Förderung schnell genug ausgeweitet werden kann, ist noch nicht sicher.
Wer vor einem Jahr sein Geld in „Kobolderz“ investiert hat, kann sich über einen Kursgewinn von über 100 Prozent freuen. Das nach den frechen Hausgeistern benannte Metall Kobalt hat sich innerhalb eines Jahres von 25.000 US-Dollar pro Tonne auf 57.500 Dollar verteuert. Das schwächste Glied in der Rohstoffkette ist dabei Kobalt. Mit einem Marktanteil von knapp 60 Prozent ist die Demokratische Republik Kongo, das frühere Zaire, der wichtigste Lieferant von Kobalterz. Dieses wird dann in China verhüttet. China bestreitet knapp die Hälfte der globalen Produktion von 100.000 Tonnen an verhüttetem Kobalt pro Jahr.
Ein weiteres Problem ist Kinderarbeit im informellen Kleinbergbau, aus dem rund ein Fünftel der kongolesischen Kobaltproduktion stammt. Mark Dummett von der Menschenrechtsorganisation Amnesty International
sagte zur Situation im Kongo: „Die glanzvolle Werbung für die neueste Technik steht im scharfen Kontrast zu Kindern, die Säcke voller Steine schleppen, und zu Bergleuten, die in engen Tunneln schwere Lungenschäden riskieren.“
Im Gegensatz dazu ist die Lithiumproduktion auf mehrere Länder verteilt, die politisch stabiler sind als der Kongo. Australien, Chile und Argentinien sind die wichtigsten Produzenten des Leichtmetalls. Doch auch dieses wird teurer: In den letzten zwei Jahren hat sich
der Preis für eine Tonne Lithiumkarbonat auf rund 20.000 Dollar mehr als verdreifacht.

Kann der neue „Weltretter-Guru“ E. Musk, das richten?

Solche Vorbilder haben dem Globus bisher gefehlt: [4] Musks Antrieb: „Für mich geht es nicht darum, Geld zu verdienen, sondern die Probleme der Menschheit zu lösen“ …
Das glauben vielleicht GRÜNE. Wenn man nachsieht, wie die Verluste seiner E-Autofabrikation vom US Steuerzahler (und irgendwann von den Aktionären) bezahlt werden, für ihn aber trotzdem immer etwas übrig bleibt [6], kann man das kritischer sehen. Und Experten sehen für seine selbstlosen Rettungspläne Gefahren aufziehen:

[3] Der Marktexperte Joe Lowry befürchtet aber, dass das auf längere Sicht nicht reicht und ein „mangelndes Lithiumangebot deutliche Probleme für die Batterie-Lieferkette im Jahr 2023 verursacht“. Lowry spottet denn auch über Elon Musk, den Chef des Elektroautoherstellers Tesla: „Elon Musk scheint zu denken, wenn er Autos baut, dann kommt auch das Lithium. Seine chaotische Lieferkette für Batterien sollte ihn aber davon überzeugen, sein kreatives Denken auf die banale Frage zu verwenden, wo die gigantischen Mengen an Lithium herkommen sollen, die er braucht.“ Musk lässt derzeit die größte Batteriefabrik der Welt, die „Gigafactory“, bauen.

Was passiert, wenn in Deutschland als Neuwagen nur noch Elektroautos zugelassen werden, die Rohstoffe dafür aber fehlen?

Ab dem Jahr 2030 (mit dem laut GRÜNEM Parteitagsbeschluss als Neuwagen nur noch Elektroautos zugelassen werden dürfen) sind praktisch alle Fabriken, welche bisher konventionelle Autos bauten stillgelegt. Die neuen für Elektroautos sollen mit 100 % Produktion beginnen, jedoch: Das Material für die Akkus fehlt.
Ein Szenario wie es im (aufgelösten) Heimatland unserer alternativlosen Kanzlerin nicht unbekannt war. Vielleicht kommen dann auch Liefertermine, wie man sie dort für Autos kannte: Mit dem 1. Schultag schon einmal vorsichtshalber das Auto bestellen und hoffen, dass es im Führerscheinalter lieferbar ist. Und gleichzeitig auch einen “Autosparvertrag“ abschließen, um die stetig steigenden Kosten durch die Rohstoffverteuerungen aufzufangen.
Zudem besteht die reale Gefahr, dass unsere fürsorgliche Regierung bis dahin auch erkennt, wie giftig wichtige Akku-Bestandteile sind [2] und diese nachträglich (wie Fassaden-Dämmstoff) zu teurem Sondermüll erklärt, der immense Zuatzkosten (für die Autobesitzer) verursacht.

Auch Strom ist so etwas wie Rohstoff

Ob man für sein E-Auto den Strom dann wie benötigt bekommt, wenn es Nacht oder neblig ist und auch kein Wind weht, weiß man dann natürlich immer noch nicht. Doch im Gegensatz zur ehemaligen DDR sind wir moderner und verteilen den Mangel dann „intelligent“ und mit mehr Aufwand.

An Lösungen wird gearbeitet

Wenn es bis dahin gelingt, die Fahrradautobahnen fertigzustellen und die Carsharingverfahren (Fahrzeug- und Strom-Mangelverwaltung mittels App) zur Reife zu bringen, ist das nachhaltige Paralleluniversum funktionsbereit und kann endlich getestet werden. Dazu noch ein Gesetz, dass der örtliche Versorger, oder lokale „Bürgerenergieverein“ in jeder Straße mindestens ein Elektroauto pro Nacht sicher vollladen muss und die Mobilität der kleinen Untertanen bleibt gesichert, beziehungsweise ist auf die nachhaltig zulässige reduziert.
Wer eine eigene Solaranlage mit Speicher sein Eigen nennt, hat es zumindest zeitweise, wenn das Wetter mitspielt, besser, da sich diese Anlagen als Mobilitätsgewinn endlich wieder lohnen. War schließlich auch Zeit, dass generöse Weltretter für ihre guten Taten belohnt werden.

Fachleute – Zum Klima und Energie in beliebiger Menge zu finden – können jedoch auch zu diesem Problem Lösungen vorweisen:
[7] „… zum einen muss unser Reichweitenhunger womöglich bescheidener ausfallen, damit es mit kleineren Batterien getan ist …“.
Wenn man solche Fachgenies nicht hätte, käme man wohl nie darauf. Auch bereichern solche Lösungen zumindest die deutsche Sprache: EIKE: Reichweitenangst, die neue Volkskrankheit.
Während die gemeinen Untertanen noch darüber lachen, bereitet sich unsere Wissenselite schon darauf vor und übt:

EIKE, 22.03.2017: Klimamönche*, alternativ: die Klimaelite unserer Behörden

Deutschland wird heimelig

Sarkastisch sei bemerkt, dass es damit eine wichtige Person der Weltgeschichte schaffen wird, Deutschland zu ihrer Pensionierung zurück in die kuscheligen Zustände ihres (inzwischen pleite gegangenen) Heimatlandes zu drehen.
Endlich gibt es dann: Energiemangel, Automangel, Mobilitätsmangel, und wegen der hohen Transportkosten auch Mangel an nicht einheimischen Lebensmitteln bei uns. Sogar die ausgeuferte, staatlich garantierte Sozialversorgung von damals fehlt nicht: Zumindest für noch nicht so lange bei uns wohnende Neubürger.

CO2-Wahnsinn, doch nicht aufzuhalten

Da es keinen eigenen Artikel wert ist, sei es hier ergänzend erzählt.
In einer Lokalausgabe der Nordbayerischen Nachrichten vom 25.08.2017 erschien ein Bericht über die letzte Stadtratssitzung eines Landkreisstädtchens: Die Sanierung der Mittelschule kostet (erste – von sicher noch vielen kommenden – Beichten) 100.000 EUR mehr. Tut weh, muss aber keiner der Honoratioren selbst bezahlen. War bei öffentlichen Bauvorhaben noch nie anders und deshalb: abgehakt.
Stadt und Stadträte wollen jedoch viel lieber gelobt werden. Mit welchem Thema kann das besser gelingen als dem der Rettung vor dem Klima. Jeder (EIKE-Leser) weiß: Sobald der Zauberbegriff „CO2“ fällt, setzt in Deutschland bei Behörden und unseren Medien mindestens der Verstand aus. Nachfrage nach dem wirklichen Nutzen [9]? Immer Fehlanzeige. Das wusste auch der Berichter der Kostenüberschreitung und argumentierte so vor dem Stadtrat.
NN: Eine Erfolgsmeldung hatte der Experte bei der Schulsanierung dann doch parat – zumindest für die Umwelt: „Die LED-Beleuchtung spart in 20 Jahren 675 Tonnen Kohlendioxyd“.
Was grämen Kosten (welche die Untertanen zahlen müssen), wenn die Rettung der Welt dafür umso erfolgreicher gelingt.

Quellen

[1] EIKE: Kinder-Bergarbeiter im Alter von vier Jahren erleben die Hölle auf Erden, damit SIE ein Elektroauto fahren können

[2] EIKE: Gefährliche Ladung – Die E-Auto sind Energieverschwender, die Batterien giftige Umweltsünder erster Klasse

[3] KLIMARETTER.INFO, 22. August 2017: Der Kobold im Elektroauto

[4] Wirtschafts Woche, 15. Dezember 2014: Lithium könnte ab 2020 knapp werden

[5] EIKE 24.08.2017: Deutschlands Autoindustrie: Mord auf offener Straße?-Ein perfides Spiel mit Klimaangst und fiktiven Abgas-„Todesopfern“ (2)

[6] THE EUROPEAN, 16.06.2017: Wann platzt die Tesla-Blase?

[7] Nordbayerische Nachrichten, Lokalausgabe, 26.08.2017: Wie „grün“ sind E-Autos wirklich?

[8] EIKE 26.07.2016: Reichweitenangst, die neue Volkskrankheit

[9] EIKE 16.09.2015: Nachgefragt: CO2 Minderungsprogramm der bayerischen Landesregierung – ohne den geringsten Klimanutzen, aber mit extremen Kosten

EIKE 11.06.2015: Mit CO2-Reduzierung retten wir die Welt – Einige Rechenspiele (nicht nur) für regnerische Nachmittage




Der größte Teil der jüngsten Erwärmung könnte natürlichen Ursprungs sein

Der Mainstream-Klimawissenschaft zufolge ist der größte Teil der jüngsten globalen Erwärmung unsere Schuld – verursacht durch menschliche CO2-Emissionen. Diese Prämisse ist eine spekulative Theorie über die Absorption und Emission infraroter Strahlung durch Kohlendioxid, welche auf das Jahr 1896 zurückgeht. Es wird nicht bestritten, dass CO2 infrarote Strahlung absorbiert. Unsicher ist lediglich die Sensitivität des Klimas hinsichtlich steigender atmosphärischer Konzentrationen.

Diese Sensitivität wurde vor über 120 Jahren von Svante Arrhenius erheblich überschätzt. Dennoch bestehen diese Übertreibungen in den Computer-Simulationsmodellen fort, welche die moderne Klimawissenschaft unterstreichen [2]. Wir wissen es einfach nicht, teilweise weil die entscheidenden Experimente niemals durchgeführt worden sind [2].

Was ich tatsächlich habe sind Spiele-Computer, auf denen künstliche neuronale Netzwerke laufen können. Diese sind eine Form des Lernens seitens der Maschine: man denke an Big Data und künstliche Intelligenz.

Mein Kollege Dr. John Abbot hat dieses Verfahren seit über einem Jahrzehnt angewendet, um die wahrscheinliche Richtung einer bestimmten Aktie an der Börse vorherzusagen – für morgen.

Seit dem Jahr 2011 habe ich mit ihm zusammen seine gleiche Technologie zur Vorhersage von Regenmengen angewendet – für jeweils den nächsten Monat und die nächste Jahreszeit [5, 6, 7]. Und es gibt jetzt eine Reihe von Studien in internationalen Klimawissenschafts-Journalen zur Anwendung dieses Verfahrens, wobei sich zeigte, dass dieses Verfahren bessere Ergebnisse liefert als die General Circulation Models des Australian Bureau of Meteorology bzgl. der Vorhersage der monatlichen Regenmenge.

Während des vergangenen Jahres haben wir diese Arbeiten erweitert, um Modelle zu konstruieren für die Vorhersage, welche Temperaturen herrschen würden beim Fehlen menschlicher CO2-Emissionen – für mindestens 100 Jahre.

Wir dachten uns: Falls wir die jüngsten Datengewinnungs-Verfahren anwenden, um natürliche Zyklen von Erwärmung und Abkühlung nachzustellen – im Einzelnen, um die Temperaturen des 20. Jahrhunderts beim Fehlen einer industriellen Revolution vorherzusagen – dann würde die Differenz zwischen den von den Modellen vorhergesagten Temperaturprofilen und den tatsächlichen Temperaturen eine Abschätzung erlauben, welcher menschliche Beitrag durch die Industrialisierung geleistet wurde.

Zuerst analysieren wir einige der längeren Temperaturreihen: Proxy-Reihen, welche bereits in der Mainstream-Literatur der Klimawissenschaft veröffentlicht worden waren.

Diese Aufzeichnungen basieren auf Dingen wie Baumringe und Korallen-Bohrkerne, welche eine indirekte Messung von Temperaturen der Vergangenheit zulassen. Die meisten dieser Aufzeichnungen zeigen Zyklen von Erwärmung und Abkühlung mit einer Fluktuation in einer Bandbreite von etwa 2°C.

Beispielsweise gibt es viele Beweislinien, die zeigen, dass es während eines unter der Bezeichnung Mittelalterliche Warmzeit bekannten Zeitraumes in Westeuropa etwa 1 Grad wärmer war. Tatsächlich gibt es Unmengen von veröffentlichen Verfahren auf der Grundlage von Proxy-Aufzeichnungen. Sie zeigen ein relativ warmes Temperaturprofil für diesen Zeitraum [7]. Er korrespondiert mit dem Bau von Kathedralen in ganz England, und vor der Kleinen Eiszeit, als es zu kalt für die Besiedlung von Grönland war.

Ich datiere die MWP von 986, als die Wikinger sich in Südgrönland ansiedelten, bis 1234, als ein besonders kalter Winter den letzten in Deutschland wachsenden Olivenbäumen den Garaus machte. Ich datiere das Ende der Kleinen Eiszeit auf das Jahr 1826, wenn Upernavik in Nordwest-Grönland wieder unbewohnbar war – nach einem Zeitraum von 592 Jahren.

Die derzeitige Bewohnbarkeit von Upernavik korrespondiert auch mit dem Beginn des Industriezeitalters. Zum Beispiel war es am 15. September 1830, als der erste Kohle-Zug aus Manchester in Liverpool ankam: manche machen dies als den Beginn der Modernen Ära aus, gekennzeichnet durch schnelle, fossil betriebene Transporte für Massen in kurzer Zeit.

Das Ende der Kleinen Eiszeit korrespondiert also mit dem Beginn der Industrialisierung. Aber verursachte die Industrialisierung globale Erwärmung?

In unserer im GeoResJ veröffentlichten Studie stellen wir die Hypothese auf, dass ein künstliches neurales Netzwerk (ANN), angepasst an Proxy-Temperaturdaten bis zum Jahr 1830, in der Lage wären, die kombinierten Auswirkungen natürlicher Klimazyklen während des 20. Jahrhunderts vorherzusagen.

Wir analysierten sechs Proxy-Reihen aus verschiedenen Regionen, wobei hier das Komposit der Nordhemisphäre diskutiert wird. Die Temperaturreihe beginnt im Jahre 50 und endet im Jahr 2000. Abgeleitet ist sie aus Pollen, See-Sedimenten, Stalagmiten und Bohrlöchern. Typisch für derartige Proxy-Temperaturreihen ist der Zick-Zack-Verlauf innerhalb einer Bandbreite von vielleicht 0,4°C über einen kurzen Zeitraum von vielleicht 60 Jahren. Über den längeren, fast 2000 Jahre langen Zeitraum zeigt sich ein Erwärmungstrend bis etwa zum Jahr 1200, wonach es bis zum Jahr 1650 abwärts geht, um danach bis zum Jahr 1980 wieder zu steigen – um dann bis zum Jahr 2000 wieder zu sinken. Siehe in Abbildung 12 unserer neuen Studie in GeoResJ.

Abbildung 1: Proxy-Temperaturreihe (blau) und ANN-Projektion (orange) auf der Grundlage des Inputs aus der Spektralanalyse für dieses Multiproxy der Nordhemisphäre. Das ANN wurde für den Zeitraum für den Zeitraum 50 bis 1830 ausgerichtet, der Test-Zeitraum lief von 1830 bis 2000.

Die Abnahme am Ende der Aufzeichnung ist typisch für viele derartige Temperatur-Rekonstruktionen und in der technischen Literatur bekannt unter der Bezeichnung „Divergenz-Problem“. Um es klar zu sagen: während Temperaturaufzeichnungen auf der Grundlage von Thermometern und Satellitenbeobachtungen allgemein im Verlauf des 20. Jahrhunderts eine Erwärmung zeigen, zeigt die Proxy-Aufzeichnung, welche herangezogen wird, um die Temperaturänderungen der letzten 2000 Jahre zu beschreiben – ein Zeitraum, der Thermometern und Satelliten vorausgegangen war – allgemein ein Absinken ab dem Jahr 1980, zumindest für die Messpunkte auf der Nordhemisphäre, wie die Abbildung zeigt. Dies ist besonders bei Baumringen der Fall. Anstatt diesen Umstand anzusprechen sind die relevanten Klimawissenschaftler dafür bekannt, instrumentelle Temperaturreihen den Proxy-Reihen von 1980 aufzupfropfen, um buchstäblich den ;Rückgang zu verschleiern‘ [8].

Unter Verwendung der Proxy-Aufzeichnung des Komposits der Nordhemisphäre erzeugten wir eine Vorhersage für den Zeitraum von 1830 bis 2000, nachdem wir sie mittels einer Signal-Analyse zerlegt haben und dann die resultierenden Sinuswellen als Input in ein ANN verwendet hatten.

Abbildung 13 aus unserer neuen Studie im GeoResJ zeigt, wie gut die Proxy-Temperaturaufzeichnung (blaue Linie) und unsere ANN-Vorhersage (orange gestrichelte Linie) von 1880 bis 2000 zusammenpassen. Beide Linien zeigen eine allgemeine Zunahme der Temperaturen bis etwa 1980 gefolgt von einer Abnahme.

Abbildung 2: Proxy-Temperaturreihe (blau) und ANN-Projektion (orange) für eine Komponente des Testzeitraumes 1880 bis 2000.

Die mittlere Divergenz zwischen der Proxy-Temperaturaufzeichnung aus diesem Nordhemisphären-Komposit und der ANN-Projektion für diesen Zeitraum 1880 bis 2000 beträgt lediglich 0,09°C. Dies zeigt: selbst wenn es keine industrielle Revolution und die Verbrennung fossiler Treibstoffe gegeben hätte, wäre es immer noch zu einer gewissen Erwärmung im 20. Jahrhundert gekommen – mindestens bis 1980.

[Hervorhebung vom Übersetzer]

Betrachtet man die Ergebnisse aller sechs geographischen Gebiete wie in unserer Studie besprochen, zeigt der Output der ANN-Modelle, dass die Erwärmung durch natürliche Klimazyklen im Verlauf des 20. Jahrhunderts in der Größenordnung von 0,6°C bis 1°C gewesen wäre., abhängig von der geographischen Lage. Die Differenz zwischen dem Output der ANN-Modelle und der Proxy-Aufzeichnungen beträgt höchstens 0,2°C; dies war die Lage für die Studien von der Schweiz und Neuseeland. Folglich zeigen wir hiermit, dass der Beitrag der Industrialisierung zur Erwärmung während des 20. Jahrhunderts in der Größenordnung von 0,2°C gelegen hätte.

[Hervorhebung vom Übersetzer].

Die Schätzungen des IPCC schätzen die Erwärmung mit etwa 1°C, ordnen diese aber ausschließlich der Industrialisierung zu.

Das IPCC kommt mit einer sehr viel anderen Abschätzung daher, weil es im Wesentlichen die Proxy-Temperaturreihen neu modelliert, bevor sie sie vergleichen mit dem Output der General Circulation Models. Beispielsweise folgerte das IPCC im letzten Zustandsbericht:

„Auf der Nordhemisphäre war der Zeitraum von 1983 bis 2012 wahrscheinlich der wärmste 30-Jahre-Zeitraum der letzten 1400 Jahre“.

Falls wir 1400 Jahre zurückgehen, sind wir in der Periode, welche unmittelbar auf den Zerfall des Römischen Imperiums folgte und der Mittelalterlichen Warmzeit vorangegangen war. Damit leugnet das IPCC schlicht und ergreifend, dass es während der Mittelalterlichen Warmzeit mindestens so warm war wie derzeit.

Die offizielle Konsens-Wissenschaft lautet: Temperaturen der letzten 1300 Jahre sind flach verlaufen und dann nach dem Jahr 1830 und mit Sicherheit nach 1880 rasant zu steigen – ohne Abnahme im Jahr 1980.

Klar gesagt: Während die Mainstream-Klimawissenschaft angefüllt ist mit veröffentlichten Studien zu Proxy-Temperaturen, die zeigen, dass die Temperaturen zyklisch gestiegen und gefallen sind während der letzten 2000 Jahre – mit Wärmespitzen zur Mittelalterlichen Warmzeit und dann um das Jahr 1980 (Abbildung 12) – leugnen die offiziellen IPCC-Konstruktionen (welche dem Paris-Abkommen zugrunde liegen) derartige Zyklen. Auf der Grundlage dieses Leugnens können Führer innerhalb dieses ach so verehrten Gremiums behaupten, dass es etwas Ungewöhnliches hinsichtlich der gegenwärtigen Temperaturen gebe: dass wir durch die Industrialisierung eine katastrophale globale Erwärmung haben.

Link: https://wattsupwiththat.com/2017/08/23/most-of-the-recent-warming-could-be-natural/

——————————————–

Eine Studie zum gleichen Thema gibt es von H.J. Luedecke, C.O.Weiss; The Open Atmospheric Science Journal 2017, 11, 44-53. Eine Zusammenfassung davon zeigt Anhang 1. Die ausführliche Studie zeigt das PDF in Anhang 2. Die Autoren dieser Studie sind damit auch an die Autorin des obigen Beitrags herangetreten, und zwar mit dem folgenden Begleitbrief [Rückübersetzung]:

Dear Jenny

Our last paper ( attached with a summary ) comes to exactly your result. Different from your work we Fourier-analysed the 2000 year proxy data and obtain 3 dominant cycles ( known before from local studies ). The Proxy Data smoothed by 30 year running average ( definition of „climate“ ) yields the climate . This climate curve shows all historically known temperature extrema. The 3 dominant cycles alone yield the temperature increas from 1850 to 1995, as well as the present temperature plateau.

Thus there is little doubt that the influence of CO2 is minor.

Carl

Dear Jenny,

in unserer jüngsten Studie (beigefügt mit einer Summary) sind wir genau zu dem gleichen Ergebnis gekommen. Anders als Sie es gemacht haben, haben wir die 2000 Jahre alten Proxy-Daten einer Fourier-Analyse unterzogen und 3 dominante Zyklen gefunden (die durch lokale Studien schon zuvor bekannt waren). Die über 30 Jahre gleitend gemittelten Proxy-Daten (Definition von „Klima“) ergeben das Klima. Diese Klimakurve zeigt alle historisch bekannten Temperaturextreme. Die drei dominanten Zyklen allein ergeben den Temperaturanstieg von 1850 bis 1995 ebenso wie das gegenwärtige Temperaturplateau.

Folglich gibt es kaum Zweifel daran, dass der CO2-Einfluss sehr gering ist.

Anhang_1                                  Anhang_2

Übersetzt von Chris Frey EIKE