Klimawandel: Man folge dem Geld!

Oftmals wird mir vorgeworfen, auf der Liste der Zahlungsempfänger von diesen Interessengruppen zu stehen, aber wenn man mal auf meine Wirklichkeit schaut, musste ich um Hilfe betteln, um nach Bristol zu kommen, um den Vorträgen von Mann und Cook beizuwohnen. Ich habe mich auf den guten Willen meiner täglichen Leser verlassen, für den ich allen Beteiligten herzlich danken möchte.
Mit dieser Disparität im Hinterkopf kam es mir wie bittere Ironie vor, als dieses Werbebanner heute bei WUWT erschien. Wahrscheinlich war das so, weil ich auf Reisen bin und von einer neuen IP-Adresse komme. Ich habe es noch nie zuvor gesehen, aber ich bin in keiner Weise überrascht, dass es hier auftaucht, betrachtet man Inhalt und Natur dieses Blogs.
Bild oben rechts: Das Werbebanner. EDF steht für Environment Defense Fund, dem hiesigen BUND oder NABU vergleichbar.
Ein Blick auf die EDF-Website ist sehr aufschlussreich:

Abgebildet sind Screenshots ihrer Finanzen. Auf der Website gibt es auch eine Anzahl von PDF-Dateien, die über deren Einkommen Auskunft geben.
Mit diesem Geld, dass der EDF jährlich zufließt, fragt man sich, warum sie um jeden einzelnen Dollar betteln müssen. Ebenso fragt man sich, wer dumm genug ist, diesen Leuten Geld zu überweisen, wenn diese Leute schon viel mehr haben, als sie brauchen. An private Organisationen überwiesene Geldsummen würden hinsichtlich der Temperatur nicht einen Iota ausmachen, selbst dann, wenn es wirklich einen Sorgen bereitenden Temperaturanstieg geben würde (hier).
Bereits im Jahre 2009 hat Jo Nova die Höhe der Geldsummen für das Klima verfolgt und diese Graphik erstellt:

Es wäre interessant zu erfahren, ob der „Stillstand“ Auswirkungen auf die Zuwendungen hat oder ob sich der steile Trend fortsetzt.
Ich glaube, dass Technologie und Vermögensbildung der Weg vorwärts sind und dass damit die Sorgen der postulierten, vom Menschen verursachten Klimaänderung sich in der Zukunft von selbst erledigen werden.
Link: http://wattsupwiththat.com/2014/11/10/climate-change-follow-the-money/
Übersetzt von Chris Frey EIKE




Der Treibhauseffekt- ein Missverständnis? Teil 1

 

Abb.1 zeigt die Temperaturentwicklung der letzten 11.000 Jahre nach Schönwiese. Gleich zu mehreren Zeiten war es wärmer als heute, Quelle: PD Dr. H. Kehl

So lässt auch die Gegenwart keinen Raum zur Sorge oder gar Panikmache. Der Temperaturanstieg nach der letzten Kälteperiode, die etwa bis 1850 reichte, fiel nicht nur in unserm Land verhalten aus (Abb.2).

 

Abb.2: In den ersten 90 Jahren des letzten Jahrhunderts war das Klima weitgehend stabil. Neben dem ständigen Wechselspiel zwischen wärmeren und kälteren Jahren, gab es Zwischenphasen mit leichten Erwärmungen aber auch kältere Jahrzehnte. Man beachte vor allem den Kälteeinbruch 1940/41/42, der auf einen starken El Nino zurückzuführen war, wie Untersuchungen der ETH, Prof. Brönnimann, zeigen (Spektrum der Wissenschaft 03/05, “Pazifik ließ Europa frieren“). Wie wir heute wissen, sind die Auswirkungen von El Nino weltweit zu spüren.

Zwischen 1900 bis 1990 sind die Temperaturen in Deutschland kaum gestiegen. Der leichte Trendlinienanstieg ist zum einen auf den ansteigenden Hauptsonnenzyklus (den im Mittel 208-jährigen De Vries/Suess-Zyklus) und zum anderen, auf den zunehmenden Wärmeinseleffekt, der Verstädterung der Landschaft, zurück zu führen. Die eigentliche „Klimalüge“ nahm 1988 an Fahrt auf, als sich der selbsternannte Weltklimarat gründete (von der Politik gegründet wurde) und ohne belastbare physikalische Grundlagen postulierte, dass die ständige Zunahme an Kohlendioxid in der Atmosphäre einen Treibhauseffekt verursachen würde und damit einen Gärtnerbegriff, der auf der physikalischen Grundlage der Konvektionsunterdrückung und der verzögerten Abkühlung (Abkühlungsgesetz nach Newton) beruht, auf die Erdatmosphäre übertrugen, ohne zu berücksichtigen, dass dort gänzlich andere Rahmenbedingungen vorliegen, als in einem Gärtnerhäuschen.

„Treibhauseffekt“

Der Begriff “Treibhauseffekt“ basiert auf der Absorptionswirkung der Atmosphärengase für die sog. Erdrückstrahlung oder auch „Gegenstrahlung“ genannt, was in den Modellen theoretisch mit dem Glasdach eines Treibhauses vergleichbar wäre, welches die Wärme sozusagen „einsperrt“. Der Begriff ist jedoch irreführend, da in einem Glastreibhaus die Erwärmung durch die unterdrückte Konvektion (Luftaustausch) und der verzögerten Abkühlung erfolgt. Die Analogie zum Glastreibhaus besteht darin, dass sowohl das Glas eines Gewächshauses, als auch die sog. Treibhausgase wie CO2, einen Teil der langwelligen IR-Strahlung, die vom Boden abgestrahlt wird, absorbieren. Wobei Absorption keinesfalls gleich Erwärmung ist, da beides völlig unterschiedliche physikalische Begriffe sind. Die Atmosphärengase (Moleküle), allen voran der Wasserdampf, werden dadurch zu Schwingungen angeregt. Der sog. Treibhauseffekt wurde von dem Chemiker Arrhenius bereits 1896 als mögliche Erderwärmung in die wissenschaftliche Diskussion gebracht, dort aber nach etwa 10 Jahren Diskussion (Angström, 1900, 1901 und Schäfer 1903; Solger, 1905; Dannenberg, 1908) wieder verworfen.

Abb.3: Schematische Darstellung des vermeintlichen natürlichen und des vermeintlichen anthropogenen Treibhauseffekts. Die Abbildung links zeigt den sog. natürlichen Treibhauseffekt (THE). Wasserdampf und Kohlenstoffverbindungen in der Atmosphäre sollen wie die Scheiben eines Glashauses wirken. Hierdurch wird die rein rechnerische Temperatur der Erde ohne Atmosphäre von -18°C auf erträgliche +15°C angehoben. Die Erde würde sich demnach ohne zusätzliche Energie von selbst erwärmen, was grundsätzlich nicht möglich ist. Die sog. Treibhausgase lassen das kurzwellige Licht durch, verhindern aber teilweise die Rückstrahlung der langwelligen Infrarotstrahlung in den Weltraum. Abbildung rechts zeigt den sog. anthropogenen Treibhauseffekt. Durch das Ausbringen großer Mengen sog. Treibhausgase durch den Menschen, sollen die natürlichen Regelprozesse, der Kohlenstoffkreislauf, aus dem Gleichgewicht geraten und eine ungebremste Erwärmung stattfinden. Die Politik will diese auf 2°C begrenzen.

Der überwiegende Teil (ca. 60-80%) der Bodenwärme wird nicht über Strahlung, sondern über Konvektion abgegeben. Auf dem Weg nach oben wird die innere Energie der Gase gemäß dem 1. Hauptsatz der Thermodynamik in Volumenarbeit umgesetzt, weil die Gase sich bei ihrem Aufstieg ausdehnen. Die Energie wird letztendlich in großer Höhe (der oberen Atmosphärenschicht) in das Weltall abgestrahlt. Die übrigen 20-40% werden vom Boden als Wärmestrahlung abgegeben. Davon geht der größte Anteil direkt durch das atmosphärische Fenster in den Weltraum. Dabei erfolgt der Wärmetransport in der Troposphäre adiabatisch, d.h. durch Konvektion und Advektion und oberhalb der Troposphäre gewinnt, aufgrund der stetig abnehmenden Teilchendichte, die Strahlungsübertragung an Bedeutung. Am Oberrand der Atmosphäre kann Wärme nur noch über Strahlung an den Weltraum abgegeben werden.

Ein kleiner Rest der Bodenwärme (ca. 15% von den 20-40%) wird von IR-aktiven Gasen, sog. Treibhausgasen (THG) in der Atmosphäre absorbiert. Diese Energie wird in der Troposphäre über Zusammenstöße an die Luft wieder abgegeben und damit ebenfalls der Konvektion zugeführt und dann aus großer Höhe in das Weltall abgestrahlt. Da diese Abstrahlung jederzeit stattfindet, wird keine Wärme in irgendeinem Kreislauf gehalten oder gar dem Boden wieder zugeführt. Der THE scheitert somit am Energiemangel. Um diesen zu beheben, wird eine sog. Gegenstrahlung eingeführt, die den Boden zusätzlich erwärmen soll. Dies ist jedoch eine Energiebilanzfälschung. Durch diese “Gegenstrahlung“ soll es zu einer Erwärmung am Boden und einer Abkühlung in der Höhe kommen. In Messungen wird dies jedoch widerlegt. Immer, wenn der Boden durch die erhöhte Sonneneinstrahlung wärmer wurde, wird zeitlich verzögert, oben mehr abgestrahlt, wodurch die obere Atmosphäre dann kälter wird.

Daher ist der Vergleich mit einem “Treibhaus“ irreführend. In einem Treibhaus wird durch das Glas der Bereich des sichtbaren Sonnenspektrums durchgelassen. Anhand der Kirchoff-Planck-Funktion lässt sich der Anteil berechnen und liegt bei ca. 70%. Das Strahlungsmaximum liegt anhand der Planck-Kurve (5.800 Kelvin = Sonnenoberflächentemperatur) bei 0,5 μm Wellenlänge. Das Glas ist in diesem Wellenlängenbereich also weitgehend durchlässig. Der Boden eines Gewächshauses hat hingegen eine Temperatur von ca. 300 Kelvin. Nach der Planckkurve und dem Wienschen Verschiebungsgesetz liegt dessen Maximum bei 10 μm. Für diesen Wellenlängenbereich ist das verwendete Glas jedoch undurchlässiger, so dass die Wärmestrahlung „eingeschlossen“ bleibt und weiter, auch die Luftzirkulation, die die Wärme abführen könnte, unterbunden ist. Ein solches Konstrukt gibt es in der Atmosphäre nicht.

Jeder, der sich schon einmal den Kopf an Glas gestoßen hat, kennt den Unterschied zwischen Glas und Gas, also zwischen einem festen und einem gasförmigen Körper.

Anstatt einem Treibhaus, gibt es in der Atmosphäre dagegen Wetter. Das Wetter tritt dabei lokal völlig unterschiedlich auf. Daher existiert auch keine Globaltemperatur. Diese ist eine rein statistische Größe. Die Schichtatmosphäre ist durch einen Dichte- und Temperaturgradienten gekennzeichnet, der in einem elektrischen Feld von ca. 500 kV zwischen Ionosphäre und Erdboden existiert. Kosmische und solare Partikelstrahlung, sowie ca. 2.000 Gewitter, mit über 10 Millionen Blitze, die sich täglich entladen, liefern Energie (direkt oder indirekt) zur Wetterveränderung. Des Weiteren befindet sich im Innern der Erde eine permanente Kernenergieheizung mit einer Maximaltemperatur von ca. 5.000°C, welche geothermische Energie liefert. Organismen an/in der Erdoberfläche produzieren seit über 3 Milliarden Jahre Abwärme. Kontinuierlich wird Wärmeenergie in andere Energieformen (z.B. chemische Energie) umgewandelt. Alle Vorgänge unterliegen zyklischen Veränderungen (Tag/Nacht, Jahreszeiten usw.), bei denen starke Ungleichgewichte entstehen. Die Erde ist weiter eine irreversible (sich drehende) Wärmekraftmaschine nach dem 2. Hauptsatz der Thermodynamik, in der Wärme (Sonnenenergie = warmes Reservoir und Nachtseite/Weltall = kaltes Reservoir) gewandelt wird, wodurch die Wind- und Wasserkreisläufe angetrieben werden, sowie die Photosynthese in Gang gesetzt wird. Mit einem Gewächshaus ist dies alles nicht vergleichbar.

Allein diese Kurzbeschreibung entlarvt den Treibhauseffekt als Chimäre, als Konstrukt, den es in der realen Welt nicht gibt. Ein Konstrukt derer, die ihn dazu instrumentalisieren, um politischen Absichten umzusetzen und/oder finanziellen Gewinn zu erzielen. Und alles zu Lasten derer, die beides finanzieren müssen, uns Steuerzahler. Hier wird ein Schreckgespenst aufgebaut, das gar nicht existiert und mit anderer Leute Geld in die Schranken gewiesen werden soll (2°C-Ziel), damit sich ein paar Wenige als Retter aufspielen können. Dies alles erinnert fatal an den Film „Illuminati“ und den dortigen Camerlengo, der ebenfalls ein nicht vorhandenes Schreckgespenst aufbaute um anschließend als Retter zu erscheinen und Papst zu werden.

Der Erde droht keine Gefahr der Überhitzung, wie IPCC und Co. behaupten: Wegen des seit über einem Jahrhundert steigenden  Kohlendioxidgehaltes auf nunmehr bald 0,04% = 400ppm würden die Temperaturen seit über 100 Jahren ständig steigen. Dass diese Behauptung falsch ist, wissen unsere Leser längst.

Der Deutsche, Hartmut Bachmann, war dabei, als 1988 das IPCC gegründet wurde. Er schildert in vielen Schriften und Büchern, wie dieses Lügengebilde IPCC gegründet wurde, deren Aufgabe es nicht ist, wissenschaftliche Erkenntnis zu gewinnen, also ergebnisoffen ein Thema zu bearbeiten, sondern mit einem fertigen Ergebnis ein Thema angeht. Mit Wissenschaft hat dies nichts zu tun.

http://rubikone.de/downloads/Wind_Allgemein/Klimal%C3%BCge%20Bachmann.pdf

Es begann die Zeit mit ständig neuen Erwärmungskatastrophenmeldungen. Jeder Starkregen und jeder heiße Sommertag war fortan ein Zeichen der sich anbahnenden Katastrophe und wenn es keine gab, dann wurden diese erfunden und die Statistik auf den Kopf gestellt. Obwohl z.B. die Population der Eisbären am Nordpol zunahm, wurde prompt eine Abnahme der Eisbärenpopulation verkündet. Und auch die Inuit, die Ureinwohner, die sich an der Erwärmung Grönlands freuten, wurden vor der Weltöffentlichkeit als Opfer dargestellt.

Alle diese fiktiven Berichte dienten und dienen nur dem Zweck, durch weltweit einzuführende Kohlendioxidsteuern/-Abgaben, dem angeblichen Klimakiller zu begegnen. Die C02- und Klimasteuern erweisen sich bis heute als eine geniale Geldvermehrungsmaschine, die der Steuerzahler zu bedienen hat. Sie dienen weder dem Umwelt- noch dem Naturschutz, geschweige dem Klima. Das Klima, als statistische Größe des Wetters, richtet sich nach anderen Faktoren. Dem Wetter ist es vollkommen egal, ob der atmosphärische CO2-Pegel 300ppm, 400ppm oder 500ppm oder mehr beträgt. Es richtet sich nach anderen Faktoren, wie den Windströmungen, der solaren Aktivität, dem Sonnenstand, den Hoch- und Tiefdruckgebieten, der Erdrotation, um nur einige zu nennen und keine dieser Teilaspekte, wird in irgendeiner Art und Weise von sog. Treibhausgasen beeinflusst. Wenn aber kein Teilaspekt des Klimas, das Wetter, von CO2 beeinflusst wird, so wird auch die statistische Gesamtgröße (das Klima) nicht von CO2 beeinflusst. Eigentlich ganz logisch. Aber wo gilt schon Logik, wenn es um politische Interessen und/oder viel Geld geht. Beides beinhaltet eine andere Logik. Diese hat mehr mit Lüge/Verschleierung und Desinformation zu tun.

So sind viele „Wissenschaftler“ der 2.ten Reihe, in Deutschland z.B. die Professoren Schellnhuber, Rahmstorff und Latif auf den Geldzug aufgesprungen, bzw. wurden dafür geworben und vermehren durch Falschaussagen und gespielte Theatralik ihre Finanzen, bzw. derer, die sie unterstützen/beauftragen. Natürlich auch die Medien. Denn der Mainstream will nicht Wahrheit, sondern Sensationen. Ebenso hat die Politik eine zusätzliche vortreffliche Einnahmequelle für marode Staatshaushalte entdeckt.

 

Abbildung 4 zeigt den Unterschied zwischen einem aufrechten Wissenschaftler und einem Mainstream-Wissenschaftler aus Karikatursicht.

Seröse Wissenschaft ist hier seit mehr als 20 Jahren ins Abseits gestellt. Früher starben z.B. die Schmetterlinge wegen der Uniformierung der Landschaft (keine Brutablagen), der Zerstörung und Vergiftung ihrer Biotope. Heute sterben sie wegen des Klimawandels. So sind auch die Umweltverbände zu Mitschuldigen geworden, denn sie beteiligen sich gerne an diesem Geldsegen zur angeblichen Rettung der Erde und mehren dadurch ihre(n) Macht/Einfluss, weil sie den Geldgewinnlern nach dem Mund reden.

Geschickt wurde Cherry-Picking betrieben und die Jahre der Temperaturentwicklung betrachtet, die mit der atmosphärischen CO2-Zunahme im Gleichklang stehen. Der CO2-Gehalt der Atmosphäre nahm zu und auch die Temperaturen stiegen ab 1886/87 weltweit. So auch in Deutschland. Das staatliche Institut, DWD, wurde von der Politik für ihre Zwecke benutzt und schürt seither, fernab aller wissenschaftlichen Realitäten, die Mär des anthropogenen Klimawandels.

Um die Jahrtausendwende begannen dann die Hiobsbotschaften des Klimapanikorchesters, zu dem auch die großen Versicherungsgesellschaften zählen. Man hatte ein starkes Jahrzehnt der Erwärmung von 1986 an vorzuweisen und die meisten Menschen glaubten zur Jahrtausendwende, es würde so weitergehen. Doch betrachten wir zunächst die Grafik 5, die Jahre der steigenden Temperaturen.

Abb.5: In der Zeit von 1986 bis zur Jahrtausendwende stiegen die weltweiten Temperaturen ständig an, die vereinigte Front der Klimaerwärmungsbefürworter konnte eine für sie erfolgreiche Statistik vorlegen.

Ein Teil dieser Erwärmung von 1986 bis 2000 geht dabei auch auf Tricksereien zurück. Z.B. wurde das hier beschrieben: http://www.eike-klima-energie.eu/news-cache/neue-studie-die-haelfte-der-globalen-erwaermung-kommt-aus-der-homogenisierung-von-wetterstationsdaten/ Schließlich waren die Leute vom selbsternannten Weltklimarat nun aktiv und griffen in die Statistik der Datenerfassung aktiv ein. 2009 kam durch Climategate einiges ans Licht der Öffentlichkeit.

Mehr Kohlendioxid gleich mehr Erwärmung. Mit dieser einfachen Formel hatte die Klimalüge sich weltweit durchgesetzt. Nach Versuchsbeweisen oder technischen Anwendungen einer CO2-Erwärmung fragte niemand mehr. Was nicht verwundert, den kein Ingenieur der Welt wird sich der Lächerlichkeit preisgeben und eine technische Anwendung des vermeintlichen, nicht existierenden, physikalischen Effekts, dem Treibhauseffekt vorzulegen. Da es weder das eine (technische Anwendung), noch das andere (Versuchsbeweis) gibt. Doch ab der Jahrtausendwende ging das Klima seinen eigenen Weg. Weltweit bereits ab 1998 und deutschlandweit ab 2000 fielen die Temperaturen wieder. Obwohl die seriöse Klimawissenschaft längst auf diesen Tatbestand in immer neuen Veröffentlichungen hinweist, wird er von den deutschen Medien einfach totgeschwiegen. Was ebenfalls nicht verwundern kann, hat doch journalistische Arbeit in unserem Land wenig mit investigativem Journalismus, dafür umso mehr mit Sensationsjournalismus zu tun. Spielt doch der letztere Geld in die Taschen der Verleger und Journalisten. Abgesehen davon, dass zum Verständnis des Klimawandels, physikalische Kenntnisse notwendig sind, die vielerorts in den Medien nicht vorhanden sind. Erschwerend kommt beim deutsch geprägten Linksjournalismus hinzu, dass Realität der ideologischen Brille weicht. Lediglich der MDR Wetterexperte, Thomas Globig, darf ab und zu eine Statistik der fallenden Temperaturen seit 2000 zeigen.

Die Temperaturtendenz ist fallend, obwohl die Kohlendioxidkonzentration in der Atmosphäre zunimmt. Hat etwa CO2 seit der Jahrtausendwende kühlende Wirkung?

 

Abb.6: Die Medien führen die Bevölkerung seit 15 Jahren gezielt in die Irre, etliche Redakteure behaupten, dass besonders in den letzten Jahren die Erwärmung sich verstärkt fortgesetzt hätte und alles sei noch viel schlimmer, als man zur Jahrtausendwende prophezeit hätte.

Die seriösen und unabhängigen Klimawissenschaftler warten nicht mit Katastrophenmeldungen auf, sondern, sie wollen diese Temperaturverläufe, die in der Grafik 5 und Grafik 6 dargestellt sind, mit wissenschaftlichen Methoden erklären. z.B. hier: Temperaturen seit 1980, einzelne Stationen, drei Teile

http://www.eike-klima-energie.eu/news-cache/erst-zum-gipfel-dann-wieder-talwaerts-die-temperaturentwicklung-in-deutschland-seit-1980-und-deren-wesentliche-ursachen-teil-1/

http://www.eike-klima-energie.eu/news-cache/erst-zum-gipfel-dann-wieder-talwaerts-die-temperaturentwicklung-in-deutschland-seit-1980-und-deren-wesentliche-ursachen/

http://www.eike-klima-energie.eu/news-cache/erst-zum-gipfel-dann-talwaerts-die-temperaturentwicklung-in-deutschland-seit-1980-und-deren-wesentliche-ursachen/

Teil 2: „Die wahren Ursachen der Temperaturänderungen in Deutschland und, das lebensnotwendige CO2- harmlos und nützlich“ in Kürze

Josef Kowatsch, Hüttlingen

Stefan Kämpfe, Weimar

Teil 2 finden Sie hier

Eine Anmerkung des EIKE-Pressesprechers

Als Pressesprecher ist es meine Aufgabe, in wissenschaftlichen Fragen die in der EIKE Präambel niedergelegten und vom EIKE-Fachbeirat vertretenen Positionen zu schildern und zu vertreten. In diesem Sinne weist der ansonsten vieles Richtige enthaltende Aufsatz der Autoren Kowatsch, Kämpfe und Leistenschneider (Leistenschneider hat seine Autorenschaft inzwischen entfernt) Defizite auf, die bei etwas sorgfältigerem Literaturstudium hätten leicht vermieden werden können. Sie betreffen die Schilderung bzw. Diskussion des sog. Treibhauseffekts (besser Atmosphäreneffekt), der im Aufsatz keine mir als wissenschaftlich bekannte Position wiedergibt und daher zu revidieren bzw. besser ganz wegzulassen ist. Als Arbeitsgrundlage, die diskutiert (und falls die Autoren dazu in der Lage sind, fachlich wiederlegt) werden kann, empfehle ich den Beitrag von Pierrehumbert, der als pdf beiliegt. Nebenbei: die Empfehlung dieses Aufsatzes bedeutet nicht, dass ich ihm voll zustimme. So stellt beispielsweise der dort beschriebene Wasserdampf-Feedback eine theoretische Fiktion dar, die durch Messungen nicht belegt ist. Er soll nur zeigen, auf welchem Niveau eine TE-Diskussion sinnvoll sein könnte. Wenn eine niveaugerechte Diskussion nicht möglich ist, sollten Aussagen zu komplexen physikalischen Details, die auf Grund unzureichender fachlicher Kenntnis nur fehlerhaft sein können, besser vermieden werden. Der Grundtenor des Aufsatzes wäre ohnehin der gleiche geblieben.
Fest steht, dass es bis heute keine begutachtete Veröffentlichung gibt, die auf der Basis von Messungen einen anthropogenen Beitrag auf Klimaänderungen zu belegen vermag. Somit erübrigen sich alle Spekulationen über theoretische physikalische Details der Wirkung des anthropogenen CO2. Eine Klimawirkung des menschgemachten CO2 ist aus dem natürlichen Temperaturrauschen bis heute definitiv nicht herauszuhören. Auf detaillierteres einzugehen erfordert tiefe physikalische Spezialkenntnisse, die zu Publikationen in begutachteten Fachjournalen befähigen. Daher sollte ein näheres Eingehen von Laien auf solche Details in allgemeinverständlichen Aufsätzen unterbleiben.
Nochmals: meine Kritik betrifft nicht den Grundtenor des Aufsatzes, dem ich m.E. zustimme.
Prof. Dr. Horst-Joachim Lüdecke

Related Files




Die Sicht eines Schweizer Wissenschaftlers: Wieso die vorgeschlagene Energiewende nicht funktionieren kann

–        1.3 Jeder Ausbau oder jede Veränderung des  Systems muss a) kompatibel mit dem existierenden System sein, b) wesentliche Verbesserungen des Systems bringen und c) nicht a priori Bedingungen schaffen, die dessen Stabilität und Zuverlässigkeit in Frage stellt.
–        Politik ist gefordert gesetzliche Rahmenbedingungen zu erlassen, die mit der aktuellen Lage (lokal, national und international) verträglich sind, und eine geordnete Nützung und Ausbau des Systems ermöglicht. Subventionen und künstliche Strompreiserhöhungen sind keine Lösung für die sich abzeichnenden Probleme.

2.     Die sogenannten erneuerbaren Energien

–        2.1 Alle erneuerbaren Energien haben eine geringe Energiedichte, die nicht ohne spezielle Massnahmen industriell verwertbar sind. Sie basieren alle auf Sonnenenergie (atomare Fusion) mit Ausnahme der Geothermie, die ihren Ursprung im Kernzerfall (hauptsächlich Radioaktivität der Gesteine) hat. Kernenergie müsste deshalb logischerweise zu den erneuerbaren Energien gezählt werden.
–        2.2 Sonnenenergie (inkl. Wasser, Wind, Biomasse) ist lokal nie konstant (Tag / Nacht, Wetter , Klima) und ist somit ohne geeignete Speicher als dominante Quelle a priori nicht direkt vereinbar mit unserm elektrischen System, das gemäss 1.1 Stabilität verlangt.
–        2.3 Sonnenenergie ist leicht ohne spezielle Vorrichtungen in brauchbare Wärme umwandelbar und daher für Heizungen und Warmwasseraufbereitung beinahe ideal. Wegen den thermodynamischen Gesetzen ist diese Form für die Elektrizitätserzeugung in unsern Breitengraden äusserst ineffizient.
–        2.4 Die Sonnenenergie treibt unsere Wetter- und Klimamaschine und ermöglicht uns so, die sekundäre hydraulische und Windenergie zu nützen. a) Die Dichte des Wassers ist beinahe tausend Mal grösser als die der Luft, dadurch lässt sich das Wasser in Form von potentieller Energie leicht speichern und die Bedingung von 1.1 mit Stauwehren erfüllen. b) Die mechanische Windenergie lässt sich nicht speichern und hängt von der dritten Potenz der Windgeschwindigkeit ab.
–        2.5 Die direkte Umwandlung der Sonnenenergie in elektrische Energie ist dank der chemischen Technologie und der Halbleitertechnik, der Photovoltaik, möglich aber mit viel geringeren Umwandlungs-faktoren als die Umsetzung der mechanischen in elektrische Energie. Ueberdies setzt diese Technologie einen Energieaufwand voraus, der nur marginal über die Lebensdauer dieser Geräte zurückgewonnen werden kann. Diese Geräte sind während des Betriebs sehr stabil und umweltfreundlich, was allerdings für deren Herstellung und Entsorgung nicht der Fall ist. Damit wird Nachhaltigkeit gepredigt aber nicht umgesetzt.
–        2.6 Umsetzung der Energie der Biomasse (inklusive Holz) in Elektrizität geschieht im allgemeinen durch Gärung / Verbrennung und thermodynamische Prozesse. Energiegewinnung aus Biomasse ist ein Mehrstufenprozess (Sonne-Bio-Chemie-Thermodynamik), der sehr ineffizient ist. Die Erzeugung von grossen Biomassen braucht sehr viel Land und ist daher in der Schweiz ungeeignet. Da sie überdies noch mit der Nahrungsmittelproduktion direkt in Konkurrenz steht, ist Biomasseverwertung nur für die Verwertung von Abfällen und daher nicht für industrielle Grossproduktion geeignet.
Die Zusammenstellung der erneuerbaren Energien zeigt, dass nur die in der Schweiz mangels vulkanischer Aktivität unterentwickelte Geothermie und die Biomasseverwertung a priori unserer Stabilitätsforderung in Teil 1) entsprechen können. Obwohl Sonne und Wind gratis sind, ist die Umwandlung in elektrische Energie alles andere als gratis wegen der fehlenden Kontinuität der Ausbeutung. Wer diese Tatsache ignoriert handelt fahrlässig und zeichnet ein völlig falsches Bild.

3.     Fossile Energien

–        Darunter gehören Kohle, Erdöl und Erdgas, die alle leicht gespeichert und transportiert werden können im Gegensatz zu den möglichen Mitteln unter 2). Der Energieaufwand und Kosten, diese Materialien zu gewinnen, ist sehr klein im Vergleich zum Gewinn an elektrischer Energie durch thermodynamische Prozesse, die einen kontinuierlichen Betrieb und damit Stabilität, Sicherheit und Wirtschaftlichkeit gewähren. Diese beinahe banale Tatsache ist der Grund, dass sich diese Materialien für die elektrische Energiegewinnung weltweit durchgesetzt haben. Die Endlichkeit dieser Reserven ist schwer abzuschätzen, da erfahrungsgemäss stets neue Quellen durch innovative Gewinnungsmethoden erschlossen werden können. Die Schiefergasgewinnung hat dies sehr deutlich gemacht. Der Ausstoss von umweltschädigenden Abfällen durch natürliche Verunreinigungen ist sehr ernst zu nehmen.

4.     Kernenergie

–        Die Kernenergie ist um Grössenordnungen konzentrierter als diejenige von Kohle. Die gebräuchlichste Form ist Kernspaltung von angereichertem Uran (235U). Spaltbares Material  kann leicht und sicher gelagert werden und erlaubt einen stabilen und zuverlässigen Betrieb. Leider sind die Risiken dieser Energieform wegen der Radioaktivität und der Unfälle von Tchernobyl und Fukushima sehr umstritten wegen vorgefassten Meinungen und Unkenntnis der Materie. Die Risiken sind zusätzlich von den Gegnern der Kernenergie aufgebläht und verfälscht worden. Die Erfahrungen mit den Kernkraftwerken in der Schweiz  (Reaktoren der 2. Generation) zeigen eindeutig, dass die Kernenergie sicher und sauber ist, und es auch in Zukunft so sein wird, denn die neueste 3. Generation ist ca. 100 Mal sicherer als die zweite. Die neuesten Entwicklungen (4. Generation) gehen darauf hinaus, dass diese Unfälle gar nicht mehr auftreten können und keine Abschaltungen zur Neubestückung mit spaltbarem Material mehr nötig sein wird. Ueberdies besteht damit die Möglichkeit abgebrannte Brennelemente statt zu vergraben als Energiequellen zu benützen.
–        China und Indien (mehr als 1/3 der Weltbevölkerung) setzen voll auf Kernenergie. Die Chinesen bauen gegenwärtig 36 Kernreaktoren der 3. Generation und testen bereits Prototypen der 4. Generation.
–        Diese Tatsachen belegen die Dummheit des sogenannten Ausstiegs aus der Kernenergie. Die Schweiz kann und darf sich nicht derartige Fehler leisten.

5.     Ungereimtheiten der Windenergie und der Photovoltaik in der Schweiz

–        Die Lobbiergruppe „SwissEolien“ unter dem Präsidium von Nationalrätin Isabelle Chevalley behauptet, dass die Windräder fast immer drehen und Strom erzeugen. Das ist eine Irreführung wegen der Leistungs-abhängigkeit von der Windgeschwindigkeit. Wenn wir die Leistung bei einer Windgeschwindigkeit von 36 km/h als 1 ansetzen, erhalten wir bei 3.6 km/h nur gerade einen Tausendstel der Leistung, also praktisch nichts. Bei 72 km/h gibt es acht Mal mehr Leistung, die bereits im Bereiche der Ueberlastung liegt. Vize-Minister Yu von China (grösster Windenergieerzeuger der Welt) bezeugt, dass eine installierte Windenergieleistung von 100 bis 110 GW jährlich gemittelt nur etwa soviel Energie erzeugt wie ein Kohlekraftwerk mit einer installierten Leistung von 7.5 -8 GW.
–        Daten aus Deutschland und England geben ein wenig verbessertes Bild für die Windenergie als auch für die Photovoltaik. Letztere scheint etwa um einen Faktor 1.5 besser abzuschneiden als Windenergie.
–        Sowohl Windenergie als auch Photovoltaik werden daher nur mit sehr grossen Schwierigkeiten ein kleines Kernkraftwerk der Grösse Mühleberg (355 MW) ersetzen können.
–        Diese Beispiele zeigen, dass eine stabile und zuverlässige Stromversorgung ein Ding der Unmöglichkeit ist, wenn keine riesigen Energiespeicher zur Verfügung stehen. Speicherverluste erfordern noch zusätzliche installierte Kapazität. Jede installierte, nicht erzeugte kWh kostet Geld, womit auch das Märchen von Sonne und Wind schicken keine Rechnung ein für alle Mal widerlegt ist.

6.     Konsequenz

–        Unstabilen Strom in stabilen umzuwandeln kostet sehr viel Geld und Land und bringt dabei unsern Landschafts- und Artenschutz in Gefahr, das Gegenteil was Umweltschützer verlangen.
–        Unstabilen Strom mit Importen zu stabilisieren, riskiert unsere Versorgungssicherheit, denn gerade zu Zeiten von Verknappung in der Winterzeit, oder eines grossen Vulkanausbruchs in Island oder anderswo, werden unsere Nachbarn, genau dieselben Probleme haben und nicht in der Lage sein den fehlenden „erneuerbaren“ Strom zu liefern.
–        Die grundsätzliche, politisch leider nicht einfache Lösung liegt auf der Hand: i) Den Ausstieg aus der Kernkraft so rasch wie möglich beerdigen. ii) Die Erlasse, die den Ausstieg hätten beschleunigen sollen, sistieren und rückgängig machen. iii) Die Subventionen für „kostendeckende Einspeisevergütung“ sind schleunigst zu unterbinden. iv) Finanzierung für marginale „wissenschaftliche“ Forschung ist zu unterbinden und v) wieder vermehrt in die Kernforschung investieren.
Über den Autor: F. K. Reinhart ist  promovierter Elektroingenieur und emeritierter Professor der Physik  (mit Schwerpunkt in Halbleiterphysik, physikalische Optik (Optoelektronik, integrierte Optik) und Hochtemperatursupraleitung) und forscchte und lehrte an der Ecole Fedrale Polytechnique de Lausanne. Eine Arbeit von ihm über die spektralen Eigenschaften des CO2 (in Englisch) können Sie als pdf. Anhang herunterladen.

Related Files




Klima: Da hat die Rechte recht – Aktualisierung bzgl. globale Erwärmung: Stillstand nunmehr seit 18 Jahren und 1 Monat

Bild rechts: Die New York Times zeigt die Parteigrenze bzgl. Klima.
Man stelle diese interessante Statistik in eine Reihe mit einer anderen interessanten Statistik: die Zunahme der CO2-Emissionen durch die Verbrennung fossiler Treibstoffe. Im Jahre 1988 emittierte die Welt 22 Milliarden Tonnen CO2. 1988 war das Jahr, in dem das IPeCaC ins Leben gerufen worden war und James Hansen sich zum ersten mal über die vermeintliche Bedrohung der „globalen Erwärmung“ vor dem US-Kongress ausgelassen hat, nachdem Tim Wirth die Air Condition im Anhörungsraum ausgeschaltet hatte.
Im Jahre 2013, nur 25 Jahre später, wurden 35 Milliarden Tonnen CO2 emittiert. Trotz all des Geredes um die Notwendigkeit der Kürzung von CO2-Emissionen, trotz all der Steuern und Abgaben und Subventionen und Profiteure, trotz all der pompösen Auftritte bei internationalen Bühnenshows, von Manchem Konferenzen genannt, trotz der ganzen globalen Plauderstunden – ist nichts weiter passiert, als dass die jährlichen CO2-Emissionen um rund 50% zugenommen haben.
Falls die Welt wirklich glauben würde, dass die globale Erwärmung ein ernstes Problem ist, dann ist es unwahrscheinlich, dass man eine so starke Zunahme der Emissionen des vermeintlich gefährlichen (aber in Wirklichkeit harmlosen und nützlichen) Spurengases CO2 zugelassen hätte.
Ist also irgendjemand besorgt? Aus den Daten geht die Antwort Nein hervor. Seit Oktober 1996 hat es keinerlei globale Erwärmung mehr gegeben (Abbildung 2). Der RSS-Temperaturplot dieses Monats kommt mit einem haarfeinen Sprung daher, verlängert sich doch der Zeitraum ohne jede globale Erwärmung von 18 Jahren und 1 Monat auf 18 Jahre und 2 Monate: Allerdings verbleiben bei strikter Interpretation des Zeitraumes ohne Erwärmung 18 Jahre und 1 Monat. Innerhalb eines Monats oder deren zwei könnte der gegenwärtige schwächelnde El Nino anfangen, die globalen Temperaturen zu beeinflussen, was den Großen Stillstand verkürzen würde. Sollte jedoch der El Nino von einer La Nina gefolgt werden, könnte sich der Stillstand Ende nächsten Jahres wieder verlängern – vielleicht sogar pünktlich zum Klimagipfel in Paris im Dezember. Dabei soll der nächste große Versuch unternommen werden, eine globale „Regierung“ einzuführen, und zwar auf der Grundlage der Angst vor der globalen Erwärmung.

Abbildung 2: Die lineare Regression kleinster Quadrate des Trends im globalen RSS-Satelliten-Datensatz der monatlichen mittleren globalen Temperaturanomalien zeigt seit Oktober 1996, also seit 18 Jahren und 1 Monat, keinerlei Erwärmung.
Die Stillstandsperiode von 18 Jahren und 1 Monat, also 217 Monate ist der am weitesten zurück reichende Zeitraum mit Satelliten-Temperaturmessungen und zeigt immer noch keinen von Null unterscheidbaren Trend.

Abbildung 3: Kurzfrist-Projektionen von Erwärmung mit einer Rate äquivalent zu 2,8 (1,9; 4,2) K pro Jahrhundert, erstellt mit „substantiellem Vertrauen“ im IPCC-Bericht 1990 von 1990 bis Oktober 2014 (orangefarbene Zone und rote Trendlinie) im Vergleich zu beobachteten Anomalien (dunkelblau) und Trend (hellblau) äquivalent zu weniger als 1,4 K pro Jahrhundert. Gemittelt aus den monatlichen mittleren Temperaturanomalien der unteren Troposphäre von RSS und UAH.
Ein Vierteljahrhundert nach 1990 beträgt der globale Erwärmungstrend bis jetzt 0,34°C – ausgedrückt als der lineare Regressionstrend kleinster Quadrate der mittleren globalen Temperaturanomalien nach RSS und UAH –, das ist äquivalent zu gerade mal 1,4°C pro Jahrhundert oder etwas unterhalb der Hälfte der zentralen Schätzung in IPCC 1990 und deutlich unterhalb selbst der geringsten Schätzung (Abbildung 3).
Der Große Stillstand stürzt jene immer mehr in Verlegenheit, die uns mit „substantiellem Vertrauen“ weisgemacht hatten, dass die Wissenschaft settled und die Debatte beendet ist. Die Natur war anderer Ansicht. Obwohl nunmehr über 50 mehr oder weniger plausible Entschuldigungen in nervösen begutachteten Journalen erschienen und von missionierenden Wissenschaftlern verkündet worden sind, kann die Möglichkeit, dass der Stillstand einfach den Computermodellen geschuldet sind, weil die Modelle schlicht und ergreifend falsch waren hinsichtlich der Sensitivität der Temperatur bzgl. anthropogener Treibhausgase, nicht länger beiseite geschoben werden.
Bemerkenswerterweise sind selbst die jüngsten und erheblich reduzierten kurzfristigen Projektionen der globalen Erwärmung ebenfalls exzessiv (Abbildung 4).

Abbildung 4: Vorhergesagte Temperaturänderung von Januar 2005 bis Oktober 2014 mit einer Rate äquivalent zu 1,7 (1,0; 2,3)°C (orangefarbener Bereich mit dicker roter Trendlinie des Best Estimate) im Vergleich zu den beobachteten Anomalien (dunkelblau) und der realweltlichen Null-Trendlinie (hellblau), gezeigt als das Mittel der Temperaturanomalien der unteren Troposphäre nach RSS und UAH.
Im Jahre 1990 lag die zentrale Schätzung des IPCC hinsichtlich der Erwärmung im Kurzfristzeitraum um zwei Drittel höher als heute. Damals war es ein Äquivalent zu 2,8°C pro Jahrhundert. Jetzt ist es ein 1,7°C-Äquivalent – und, wie Abbildung 4 zeigt – selbst das erweist sich als eine substantielle Übertreibung.
In den RSS-Satellitendaten findet sich keine von Null unterscheidbare globale Erwärmung mehr seit über 26 Jahren. Keines der Modelle hat vorhergesagt, dass es ein Vierteljahrhundert lang keine globale Erwärmung geben würde.
Der Große Stillstand könnte diesen Winter zu Ende gehen. Ein El Nino-Ereignis kündigt sich an, welches üblicherweise im Nordwinter seinen Höhepunkt erreicht. Es gibt jedoch zu wenig Informationen, um sagen zu können, wie viel vorübergehende Erwärmung dadurch auftreten wird. Die Temperaturspitzen der Jahre 1998, 2007 und 2010 durch jeweils ein El Nino sind in den Abbildungen 1 bis 4 offensichtlich.
Zu einem El Nino kommt es etwa alle drei bis vier Jahre, obwohl niemand so genau weiß, was der Auslöser ist. Sie bringen eine vorübergehende Temperaturspitze, dem oftmals ein scharfer Rückgang in der nachfolgenden La Nina-Phase folgt, wie man in den Jahren 1999, 2008 und 2011-2012 erkennen kann. Dabei gab es zuletzt eine La Nina mit einer „Doppelspitze“, was eine der Entschuldigungen für den Stillstand ist.
Das Verhältnis zwischen El Ninos und La Ninas tendiert dazu, während der 30-jährigen negativen oder Abkühlungs-Phase der Pazifischen Dekadischen Oszillation zu fallen. Die jüngste negative Periode begann Ende 2001. Obwohl also der Stillstand unterbrochen werden könnte, dürfte er spätestens Ende 2015 weitergehen. Wie auch immer, es wird immer klarer, dass die globale Erwärmung nicht einmal ansatzweise in die Nähe der von den Klimamodellen vorhergesagten Erwärmungsraten gekommen ist, und sie wird sich auch nicht der jetzt erheblich reduzierten vorhergesagten Rate nähern. Vielleicht gibt es in diesem Jahrhundert eine Erwärmung um höchstens 1°C, aber bestimmt nicht die vom IPCC vorhergesagten 3 bis 4°C.
Grundlegende Fakten bzgl. der globalen Temperatur:
Ø Der RSS-Satelliten-Datensatz zeigt keinerlei globale Erwärmung während der 217 Monate von Oktober 1996 bis Oktober 2014. Das ist über die Hälfte der 429 Monate langen Satelliten-Aufzeichnung.
Ø Der Trend der globalen Erwärmung seit 1900 ist äquivalent zu 0,8°C pro Jahrhundert. Dies liegt deutlich innerhalb der natürlichen Variabilität und muss mit uns nicht viel zu tun haben.
Ø Zum rasantesten gemessenen Erwärmungstrend über 10 Jahre oder mehr war es während der 40 Jahre von 1694 bis 1733 in Mittelengland gekommen. Die Erwärmung war äquivalent zu einer Rate von 4,3°C pro Jahrhundert.
Ø Seit 1950, als ein potentieller menschlicher Einfluss erstmals theoretisch möglich war, lag der globale Erwärmungstrend bei einer Rate äquivalent zu 1,2°C pro Jahrhundert.
Ø Zur stärksten Erwärmungsrate über zehn Jahre oder mehr seit 1950 war es während der 33 Jahre von 1974 bis 2006 gekommen. Sie war äquivalent zu 2,0°C pro Jahrhundert.
Ø Im Jahre 1990 lag die mittelfristige Vorhersage einer kurzfristigen Erwärmung bei einer Rate äquivalent zu 2,8°C pro Jahrhundert, das ein um zwei Drittel höherer Wert als die jüngste Vorhersage von 1,7°C pro Jahrhundert.
Ø Der Trend der globalen Erwärmung seit 1990, also zum Zeitpunkt des ersten IPCC-Berichtes, liegt bei einer Rate äquivalent zu 1,4°C pro Jahrhundert – also halb so hoch wie vom IPCC damals vorhergesagt.
Ø Obwohl das IPCC mit seiner Vorhersage einer Kurzfrist-Erwärmung zurückgerudert ist, ist es nicht von seiner Erwärmungsvorhersage bei Business as usual abgerückt, d. h. von einer Erwärmung um 4,8°C bis zum Jahr 2100.
Ø Die vom IPCC vorhergesagte Erwärmung um 4,8°C bis zum Jahr 2100 ist mehr als doppelt so hoch wie die größte Erwärmungsrate über mehr als zehn Jahre, die seit 1950 gemessen worden ist.
Ø Diese IPCC-Erwärmung liegt fast viermal so hoch wie der beobachtete Erwärmungstrend in der realen Welt, seit wir theoretisch einen Einfluss auf das Klima hätten ausüben können (seit 1950).
Ø Von September 2001 bis September 2014 liegt der Erwärmungstrend im Mittel der 5 globalen Temperatur-Datensätze bei Null. Keine Erwärmung seit 13 Jahren und 1 Monat.
Ø Jüngste Extremwetterereignisse können nicht der globalen Erwärmung zugeordnet werden, weil es keine globale Erwärmung gegeben hat. So einfach ist das.
[Man erkläre das mal der „Süddeutschen Zeitung“! Anm. d. Übers.]
Technische Bemerkung
Unsere letzte Graphik zu diesem Thema zeigt den linearen Regressionstrend nach der Methode kleinster Quadrate aus dem monatlichen RSS-Datensatz der globalen mittleren Temperatur der unteren Troposphäre, der so weit wie möglich zurückreicht und immer noch einen Null-Trend zeigt. Der Startzeitpunkt ist nicht willkürlich ausgewählt, um nicht zufällig zusammenzufallen mit der Temperaturspitze des El Nino des Jahres 1998. Stattdessen wurde er berechnet, um die längste Periode mit einem Null-Trend zu finden.
Terrestrische Temperaturen werden mit Thermometern gemessen. Thermometer, die korrekt in ländlichen Gebieten abseits anthropogener Heizquellen aufgestellt sind, zeigen Erwärmungsraten, die deutlich unter den veröffentlichten Trendwerten liegen. Die Satellitendatensätze basieren auf Messungen der genauesten, derzeit verfügbaren Thermometer – Platin-Widerstands-Thermometer, die eine unabhängige Verifikation der Temperaturmessungen erlauben, indem mit in den Weltraum gerichteten Spiegeln die bekannte Temperatur der kosmischen Hintergrundstrahlung untersucht wird, welche 1% des Gefrierpunktes von Wasser ausmacht oder nur 2,73 Grad über dem absoluten Nullpunkt liegt. Aus diesen Messungen kleinster Variationen der kosmischen Hintergrundstrahlung hat die NASA das Alter des Universums berechnet: 13,82 Milliarden Jahre.
Die Graphik ist genau. Die Daten wurden monatlich direkt von der RSS-Website abgegriffen. Ein Computer-Algorithmus liest sie aus dem File heraus, bildet deren Mittelwert und plottet sie automatisch mitttels einer ausgereiften Routine, die automatisch das Bildformat des Datenfensters an beide Achsen anpasst, um die Daten mit der maximal möglichen Auflösung zu zeigen.
Der jüngste monatliche Datenpunkt wird visuell untersucht, um sicherzustellen, dass er korrekt positioniert ist. Die hellblaue Trendlinie, geplottet durch die dunkelblaue Zackenkurve [spline-curve] zeigt, dass die tatsächlichen Daten bestimmt werden durch das Verfahren der Regression kleinster Quadrate. Dabei wird der Schnittpunkt mit der Y-Achse und die Neigung der Linie mittels zwei altbekannter und funktional identischen Gleichungen berechnet, die miteinander verglichen werden um sicherzustellen, dass es zwischen beiden keine Diskrepanz gibt. Das IPCC und die meisten anderen Agenturen verwenden lineare Regression, um globale Temperaturtrends zu bestimmen. Prof. Phil Jones von der University of East Anglia fordert dies in einer der Klimagate-E-Mails. Das Verfahren ist angebracht, weil globale Temperaturaufzeichnungen nur geringe Auto-Regression zeigen.
Dr. Stephen Farish, Professor für epidemiologische Statistik [?] an der University of Melbourne, hat freundlicherweise die Zuverlässigkeit des Algorithmus‘ verifiziert, mit dem der Trend der Graphik bestimmt wird sowie den Korrelationskoeffizienten. Der ist sehr klein, weil der Trend trotz der hoch variablen Daten flach verläuft.
RSS selbst hat inzwischen ernsthaft Interesse an der Länge des Großen Stillstands. Dr. Carl Mears, leitender Forschungswissenschaftler bei RSS, behandelt dies hier.
Dessen Ergebnisse werden in Abbildung T1 zusammengefasst:

Abbildung T1: Ergebnisse von 33 IPCC-Modellen (türkis) im Vergleich zur von RSS gemessenen globalen Temperaturänderung (schwarz) 1979 bis 2014. Die vorübergehenden Abkühlungsphasen infolge vulkanischer Eruptionen von El Chichon (1983) und Pinatubo (1991) treten ebenso hervor wie die Temperatur-Wärmespitze durch den gewaltigen El Nino 1998.
Dr. Mears schreibt:
„Die Leugner mögen die Annahme, dass der Grund für die Diskrepanz zwischen Modell und Beobachtung in einem irgendwie gearteten Problem mit der fundamentalen Modellphysik zu finden ist, und sie machen sich über jede andere Erklärung lustig. Dies verleitet sie zu der Schlussfolgerung, sehr wahrscheinlich fälschlich, dass die langfristige Sensitivität des Klimas viel geringer ist als ursprünglich gedacht“.
Dr. Mears räumt die wachsende Diskrepanz zwischen den RSS-Daten und den Modellen ein, nimmt aber „Rosinenpickerei“ hinsichtlich des Startzeitpunktes des globalen Temperaturgraphen an:
„In letzter Zeit wurde in einer Anzahl von Artikeln in den Main Stream Medien darauf hingewiesen, dass es während der letzten beiden Jahrzehnte nur eine sehr geringe oder gar keine Änderung der global gemittelten Temperatur gegeben habe. Aus diesem Grunde stellt man uns viele Fragen des Inhalts ,ich habe diesen Plot auf einer Leugner-Website gesehen. Sind es wirklich Ihre Daten?‘ Während einige dieser Berichte Gegenstand von ,Rosinenpickerei‘ hinsichtlich ihrer Start- und Endpunkte waren, um die Beweisführung dieser Leute noch deutlicher zu machen, gibt es kaum noch Zweifel daran, dass die Erwärmungsrate seit Ende der neunziger Jahre geringer ist als von den meisten IPCC-Simulationen im letzten Zustandsbericht (AR 5) angenommen. … Die Leugner lieben es, Trends mit dem Startzeitpunkt 1997 beginnen zu lassen, so dass der gewaltige El Nino von 1998 am Beginn ihrer Zeitreihe liegt, was zu einer linearen Anpassung mit der geringstmöglichen Neigung führt“.
Tatsächlich ist die Temperaturspitze des großen El Nino von 1998 weitgehend in der Berechnung des linearen Trends kompensiert, und zwar durch zwei Faktoren: der nicht unähnlichen Spitze des El Nino 2010 und der schieren Länge des Stillstands selbst.
Ersetzt man alle monatlichen RSS-Anomalien aus dem Jahr 1998 mit dem mittleren Anomaliewert von 0,55 K….
[Ich bitte um Verständnis, dass ich den folgenden Absatz nicht weiter übersetzt habe. Er beschreibt, warum hier eben keine Rosinenpickerei betrieben wurde. Er lautet: Replacing all the monthly RSS anomalies for 1998 with the mean anomaly value of 0.55 K that obtained during the 2010 el Niño and recalculating the trend from September 1996 [not Dr Mears’ “1997”] to September 2014 showed that the trend values “–0.00 C° (–0.00 C°/century)” in the unaltered data (Fig. 1) became “+0.00 C° (+0.00 C°/century)” in the recalculated graph. No cherry-picking, then.]
Die Länge der Großen Pause bei der globalen Erwärmung, so signifikant diese inzwischen auch ist, ist weniger bedeutsam als die immer größer werdende Diskrepanz zwischen den von den Modellen vorhergesagten Temperaturtrends und der in der realen Welt gemessenen weit geringeren Temperaturänderung.
Im Ersten Zustandsbericht des IPCC wurde vorhergesagt, dass die globale Temperatur bis zum Jahr 2025 um 1,0 (0,7; 1,5)°C steigen würde, das entspricht einem Äquivalent von 2,8 (1,9;4,2)°C pro Jahrhundert. In der Executive Summary wurde gefragt: „wie viel Vertrauen haben wir in unsere Vorhersagen?“ Das IPCC hat auf einige Unsicherheiten hingewiesen (Wolken, Ozeane usw.), kam aber dennoch zu der Schlussfolgerung:
„Nichtsdestotrotz haben wir substantielles Vertrauen, dass die Modelle die Ereignisse der Klimaänderung zumindest in groben Umrissen vorhersagen können … Es gibt Ähnlichkeiten zwischen den Ergebnissen der gekoppelten Modelle, die einfache Repräsentationen des Ozeans verwenden, und solchen, die kompliziertere Beschreibungen enthalten, und unser Verständnis solcher Differenzen, wie sie auftreten, verleiht uns einiges Vertrauen in die Ergebnisse“.
Dieses „substantielle Vertrauen“ war substantiell übermäßiges Vertrauen. Für die Rate der globalen Erwärmung seit 1990 gilt, dass sie nur halb so groß ist wie vom IPCC damals behauptet.
Link: http://wattsupwiththat.com/2014/11/07/on-climate-the-right-is-right-global-temperature-update-the-pause-is-still-18-years-1-month/
Übersetzt von Chris Frey EIKE




Die Energiewende: Ein fast endloser Katalog des Versagens!

 1. Bereits bei der Konzeption der Energiewende geschah die größte Planungskatastrophe: Das „Vergessen“ der unverzichtbaren Stromspeicher für den Ausgleich der wetterabhängigen und daher stark schwankenden Leistung der als künftig wichtigste Stromerzeuger auserkorenen Wind- und Solaranlagen – und das fast zwei Jahre andauernde Ignorieren dieser Tatsache. Damit war die Energiewende von Vornherein zum Scheitern verurteilt und jeder dafür ausgegebene Euro vergeudet.
2. Die in einer Panikaktion und ohne ausreichende Prüfung und Debatten per Gesetz beschlossene Stilllegung der Kernkraftwerke reduzierte die Grundlast-Stromerzeugung. Ein Industriezweig, der laufend modernisiert und mit höchster Zuverlässigkeit die Stromversorgung stützte, wird ohne stichhaltigen Grund verschrottet – die Wertevernichtung beträgt viele Milliarden Euro. Damit wurden aber auch alle großspurigen Ankündigungen, die CO2-Emissionen für das zentrale Ziel der ganzen Energiewende – den sog. Klimaschutz – weiterhin beträchtlich zu senken, zur Makulatur. So wurde bereits im ersten Halbjahr 2011 die Begründung für die Energiewende aufgegeben; benutzt wird jedoch dieses leere Argument weiterhin.
Einen zutreffenden Eindruck von der Qualität des  Regierungshandelns erhält man auch, wenn man sich vor Augen führt, dass der Ausstiegsbeschluss nur wenige Monate nach der gesetzlichen Verlängerung der Kernkraftwerks-Laufzeiten erfolgte – zwei Beschlüsse der gleichen Regierung.
3. Die weitaus größte Energiemenge wird in Mittel- und Nordeuropa für die Heizung benötigt. Ein Programm, das die Aufgabe einer Reduzierung dieses Energieverbrauchs in Verbindung mit einer Kostenentlastung angeht, wie es zum Beispiel Dänemark mit der solarthermischen Fernheizung vorführt, hätte Sinn gemacht. Die Regierung hat jedoch fast alle ihre Förderinstrumente, allen voran das EEG, aus unverständlichen Gründen auf die Umstellung der Stromerzeugung auf die sogenannten erneuerbaren Energien fokussiert – und dabei die am Wenigsten geeigneten Techniken ausgewählt.  Diese Fehlentscheidung wird  bis heute trotz aller damit bereits angerichteten Schäden durchgehalten.
4. Außerhalb der EEG-Subventionierungen hat die Regierung die Beeinflussung des Energieverbrauchs für Hausheizungen mittels Gesetzen und Verordnungen unternommen. Und abermals hat man gezielt mit der Energieeinsparverordnung EnEV die am Wenigsten geeignete und besonders teure Sanierungsmaßnahme bevorzugt: Die Wärmedämmung der Hausfassaden. Für Fachleute der Bauphysik kommt diese Maßnahme in ihrer Wirksamkeit erst an vierter oder fünfter Stelle hinter der Dachisolierung, der Isolierung der Kellerdecke, der Modernisierung der Heizungsanlage und dem Einbau neuer Fenster. Für diese zudem fast unwirksame Sanierungsmaßnahme werden von fehlgeleiteten und falsch beratenen Hauseigentümern Milliarden ausgegeben – es handelt sich dabei in Wahrheit um ein Konjunkturprogramm für Dämmstoffhersteller, das weder der Energieeinsparung noch dem Klimaschutz etwas nutzt. Insofern ist das eine für die Energiewendepolitik sehr typische Maßnahme.
5. Die Regierung plant mit ihrer Energiewende, die Stromversorgung des Landes bis 2025 zu 40 % und bis 2035 zu 60 % mit den sog. Erneuerbaren sicherzustellen. Die dabei „vergessenen“, nicht existierenden Speicherkraftwerke stellen gewiss das größte Versagen der Planer dar. Hinzu kommt aber noch eine weitere gravierende Fehleinschätzung: Nach dem Kernkraft-Ausstieg sollte die notwendig verbleibende „konventionelle“ Kraftwerkskapazität vornehmlich durch emissionsärmere Gaskraftwerke realisiert werden.  Gaskraftwerke sind jedoch teure Stromerzeuger und für die Grundlastversorgung ungeeignet. Sie müssen ihre Leistung in den sog. Spitzenlastzeiten – vor allem in den Mittagsstunden – anbieten, um rentabel zu sein. Dieses Marktmodell wurde durch das EEG zerstört, denn das Preisdumping durch  Überflutung des Netzes mit hochsubventioniertem Solarstrom treibt Gaskraftwerke in die Verlustzone. Zahlreiche Stilllegungen – auch modernster Anlagen – sind bereits erfolgt, weitere sind beantragt. An Neubau-Investitionen ist nicht mehr zu denken. Auch die Wirtschaftlichkeit von Steinkohlekraftwerken und sogar die der wenigen Pumpspeicherkraftwerke ist aus dem gleichen Grund bedroht. Damit haben die Energiewende-Planer mit ihrem wichtigsten Instrument EEG nichts anderes geleistet, als einen bisher funktionierenden Teil der deutschen Stromwirtschaft in den Ruin zu treiben und damit die zur Aufrechterhaltung der Netzstabilität und für ihre Energiewende unverzichtbare konventionelle Kraftwerkskapazität mittelfristig zu zerstören.
6.  Bei den Offshore-Windparks hat die Regierung bereits ihre bisherigen Ausbauziele in einer erstaunlichen Einsicht in deren Unerreichbarkeit drastisch zurückgestutzt. Jetzt drohen jedoch hohe Kosten ohne damit verbundenen Nutzen, weil sich Kabelverbindungen als nicht benötigt erweisen könnten. Weiterhin ist die Leistung der bereits errichteten Offshore-Windparks seit Oktober 2013 dramatisch eingebrochen; man sucht die Fehlerursachen. Im Übrigen zeigten die Windräder auf See auch keine deutlich größeren Volllast-Stunden als ihre Gegenstücke an Land, wie es zur Rechtfertigung dieser kostspieligen Anlagen behauptet worden ist. Anscheinend ist die Tatsache, dass sowohl in Schleswig-Holstein als auch in der Deutschen Bucht das gleiche Wetter herrscht, dafür verantwortlich. Der angeblich entscheidende Stützpfeiler der ganzen Energiewende zeigt somit erhebliche Schwächen. Von einer seriösen Planung kann keine Rede sein.
7. Die Planung für den Ausbau des Höchstspannungsnetzes ist in mehrfacher Hinsicht unbrauchbar: Es ist nicht nur zu teuer, sondern auch sinnlos.
Sinnlos ist es, weil der damit von Nord- nach Süddeutschland zu transportierende Windstrom extrem schwankt und wiederholt für Tage und auch Wochen ausfällt. Dieser Strom ist für die damit „versorgten“ süddeutschen Länder, für deren Industrie und für die Bürger völlig unbrauchbar.
Zu teuer sind die geplanten Leitungen, weil sie für die maximal vorkommende Windstromleistung dimensioniert werden, die wetterbedingt nur sehr selten auftritt. Diese Überdimensionierung erzeugt unnötige Mehrkosten.
Ein Abschneiden dieser ohnehin unbrauchbaren Leistungsspitzen durch Abschalten von Windrädern und die konsequente Auslegung der Leitungen für eine deutlich kleinere Maximalleistung wäre die einzig sinnvolle Maßnahme. Die Rücknahme dieses teuren Planungsfehlers ist bisher nicht erfolgt.
8. Die Energiewende-Planer haben Zielwerte für die jährliche Erhöhung der Energieeffizienz festgelegt, die erheblich über den Zahlen liegen, die jahrelang erreicht wurden. Die für diese angenommene, gravierende Beschleunigung des Verbesserungsprozesses angeführten Begründungen sind sämtlich nicht stichhaltig. Das beweist nur die Unkenntnis über die bisherige Entwicklung des spezifischen Energieverbrauchs in der Wirtschaft – insbesondere auch über die Gründe für den systematischen Rückgang der erzielbaren Verbesserungen. Die Zielvorgaben sind irrelevant und niemand wird sie beachten.
9. Die Eigenstromerzeugung ist seit jeher für viele Unternehmen eine Selbstverständlichkeit, besonders für jene, die brennbare Gase als Abfallprodukte ihrer Produktion erhalten. Ferner verfügen viele Unternehmen über leistungsfähige Notstromversorgungen. Mit der Energiewende stiegen die Strompreise, was viele Betriebe dazu bewog, ihre Eigenstromversorgung zu verstärken oder sie neu einzurichten, um weiteren Preiserhöhungen zu entgehen. Die regelmäßigen politischen Bekenntnisse zum angeblichen Nutzen einer unbedingt erstrebenswerten dezentralisierten Stromversorgung mögen den Unternehmen dabei die Gewissheit vermittelt haben, dass diese Eigeninitiativen positiv gesehen und anerkannt werden. Ein Irrtum: Jetzt ging die Regierung auf Gegenkurs.
Eigenstromerzeugung ist plötzlich unsolidarisch, weil sich die Betreiber damit der EEG-Umlage entziehen – mit dem Resultat, dass die Übrigen umso mehr bezahlen müssen. Für Neuanlagen sollen daher künftig ebenfalls Beiträge für die EEG-Umlage bezahlt werden. Der Wegfall jeglicher Verlässlichkeit in der Energiepolitik wird auch in Ziff.14 beschrieben.
10. Auch die Rücksichtslosigkeit gegenüber den Nachbarländern, mit der die deutsche Regierung ihre Energiepolitik seit 2011 vorantrieb, ist unentschuldbar. Inzwischen hat die Energiewende erhebliche Störungen und  massive wirtschaftliche Schäden in der Schweiz und auch in Östereich, Polen und den Niederlanden angerichtet. So sind in der Schweiz die Wasserkraftwerke durch den subventionierten deutschen EEG-Dumpingstrom in Existenznöte geraten. Die deutsche Energiewende trifft also ausgerechnet die umweltfreundlichsten Stromerzeuger im Nachbarland. Gegenmaßnahmen sind absehbar und unvermeidlich.
11. Erst zu Beginn des Jahres 2014 scheint die Regierung begriffen zu haben, dass ihre Energiepolitik, die inzwischen zu den zweithöchsten Strompreisen in Europa geführt hat,  die energieintensive Industrie systematisch aus dem Lande hinaustreibt. Die bereits seit mehreren Jahren klar dokumentierte Zurückhaltung bei Investitionen, die deutlich von den Abschreibungen übertroffen werden, scheint niemand aufgefallen zu sein. Die Absetzbewegung ist bereits im Gange. Jetzt wird versucht, die Industrie wenigstens zum Teil vor weiteren Strompreissteigerungen durch die EEG-Umlage zu schützen. Damit verschlechtert sich die Situation der Industrie weiter, nur langsamer. Die Deindustrialisierung geht also weiter.
12. Vor allem die durch das EEG extrem geförderten Maßnahmen Biomasseanbau für die Stromerzeugung sowie die Windkraftanlagen, die im Vergleich mit konventionellen Kraftwerken zur Erzeugung einer Kilowattstunde Strom das 370-fache (Windkraft) bis 12.400-fache (Biomasseanbau zur Stromerzeugung) an Fläche benötigen, sind durch ihren ins Riesenhafte getriebenen Ausbau zu ebenso riesigen Umweltproblemen geworden, was ebenfalls von vornherein klar war. Während der hochsubventionierte Biomasseanbau  durch seine Monokulturen die Artenvielfalt beeinträchtigt und das Grundwasser durch Nitrate verunreinigt hat, führen die Windparks neben ihrer Landschaftsverschandelung, dem Töten von Vögeln und Fledermäusen und der Gesundheitsschädigung von Menschen neuerdings auch noch zur Abholzung großer Waldflächen. Letzteres ist die Folge einer Windkraft-Offensive der Regierung, die die Bundesländer zu einer stärkeren Nutzung der Wälder für die Errichtung von Windkraftanlagen aufgerufen hat. Dies ist eine Politik, die im Namen des sogenannten Klimaschutzes die Umwelt unseres Landes in einem noch nie dagewesenen Ausmaß zerstört. Der verzweifelte Kampf von bald 1000 Bürgerinitiativen gegen diese Politik hat bisher bei den Verursachern in Berlin keine Wirkung gezeigt.  Es handelt sich nicht mehr um Versagen, sondern um die gezielte Zerstörung der Umwelt aus politischen Gründen.
12. Die Energiewende-Politik hat zu einer Umverteilung von unten nach oben in einem bisher nicht gekannten Ausmaß geführt. Auch diese Auswirkung war von Anfang an bekannt – und daher auch bewusst in Kauf genommen oder sogar gewollt. Die stärkste dieser Umverteilungen wird durch die Subventionierung der Photovoltaik bewirkt, deren Anlagen zum größten Teil auf den Dächern von Einfamilienhäusern und landwirtschaftlichen Gebäuden installiert sind. Bezahlt werden die Profite der Hausbesitzer durch die EEG-Umlagen in den Stromrechnungen der Mietshausbewohner.
Aber auch mit Windparks wird viel Geld verdient, das in die Taschen der Planer, der Errichter, der Dienstleistungsfirmen und – wenn sie nicht getäuscht und hereingelegt worden sind – auch der Betreiber der Windräder fließt. Auch dieses Geld wird von den Stromkunden einkassiert. Bei Photovoltaik-Freiflächenanlagen das Gleiche.
Bemerkenswert bei dieser Umverteilung ist das Schweigen der Sozialpolitiker aller Parteien, die sich ansonsten bei jeder Ungerechtigkeit und sozialen Benachteiligung sehr engagiert zu Wort melden.
14. Die Regierung wählte niemals den einzig akzeptablen Weg, neue, als falsch erkannte Regeln wieder durch bewährte alte Regeln zu ersetzen. Sie wählte stets den Weg des Erlasses neuer Reparatur-Regeln, die ebenso regelmäßig „nicht vorhersehbare“ Nebenwirkungen und Kollateralschäden verursachten.
Die Gesetzes- und Verordnungsflut im Bereich der Energiewirtschaft hatte jedoch noch eine weitere, grundsätzliche Nebenwirkung: Sie zerstörte die Verlässlichkeit für jede Investition in Energieanlagen, insbesondere für Kraftwerksneubauten. Langfristige Investitionen, die sich innerhalb von  20 – 30 Jahren rentieren müssen, benötigen ebenso langfristige Geschäftsgrundlagen. Wenn aber tatsächlich die Bedingungen fast im Jahresrhythmus geändert werden, erstirbt jede Investitionsbereitschaft. Genau das ist jetzt die Situation.
Gemäß dem bisherigen Weg der Regierung in die Planwirtschaft ist die folgende Lösung zu erwarten: Ersatz der nicht erfolgten, aber notwendigen Investitionen durch den Bau von Staatskraftwerken – und damit ein weiterer Schritt in die Verstaatlichung des Energiesektors.