Schildbürger nicht ärgern: Für Licht und Strom gibt es keine Eimer!

Bild 1 unten: Hübsch, aber vergänglich: Die Akkus in Solarleuchten fallen oft schon nach 1-2 Jahren komplett aus

Zunächst einmal: Ja, rein vom Prinzip her kann man Licht und Strom durchaus speichern. Jeder kennt beispielsweise diese matt leuchtenden Kunststoffe, die Tageslicht aufnehmen und bei Stromausfall als Notmarkierung für Fluchtwege dienen. Auch so manches Kinderherz haben sie schon erfreut, wenn sie in Form von Spielzeug die Dunkelheit in Kinderzimmern mildern. Doch kein vernünftiger Mensch käme auch nur im Entferntesten auf die Idee, so etwas als Beleuchtung für unsere Wohnzimmer und Fabriken oder als Ersatz für Straβenlaternen einsetzen zu wollen.Ähnlich verhält es sich beim Strom. Wollte man für den Stromverbrauch eines durchschnittlichen deutschen Haushalts beispielsweise handelsübliche Mignonzellen verwenden, so würde man bei Kosten von mehr als 1 Mio. € landen – eine völlig indiskutable Idee also. Auch Akkumulatoren sind bei weitem nicht leistungsstark oder langlebig genug, um auch nur näherungsweise einen solchen Job zu erledigen. Jeder, der beispielsweise die heute so beliebten Solar-Gartenleuchten verwendet, stellt schnell fest, dass die Akkus schon nach 1-2 Jahren den Geist aufgeben. Selbst mit professionellen heute angebotenen Batteriesystemen [RWE] liegen die Speicherkosten – man muss nur selbst ein wenig nachrechnen – deutlich über 50 ct pro kWh, bei Investitionskosten oberhalb von 3000,- €/ kW.  Der Versuch, gröβere Mengen Strom beispielsweise mit Batterien speichern zu wollen ist, macht sowohl wirtschaftlich als auch technisch keinen Sinn. Ebensowenig mit irgendeiner der anderen verfügbaren Speichertechnologien. Und genau darin liegt das Grundproblem der gesamten Energiewende.

Worauf es beim Strom ankommt


Bild 2. Schema des Tagesgangs der Strom-Tageslast im deutschen Netz an einem Herbst-Werktag (ohne „erneuerbare Energien“). (Grafik: Wikimedia Creative Commons)
Unser technisch hoch komplexes Stromnetz bleibt nur stabil, wenn Produktion und Verbrauch ständig exakt im Gleichgewicht sind. Das deutsche Stromnetz gehört vor allem deshalb zu den Besten der Welt, weil wir nicht nur hervorragende Ingenieure haben, sondern diesen auch ausgefeilte Technik zur Verfügung steht, um für eine ständige Anpassung beider Faktoren zu sorgen. Das entscheidende ist dabei, dass der Verbrauch stets Vorrang hat, d.h. dass die Produktion sich dem Verbrauch anpassen muss. Ein anderes System, bei dem die Dusche abgeschaltet, die Produktion mal kurz unterbrochen oder der Herd der Hausfrau für eine Stunde vom Netz genommen wird, weil die Stromerzeugung gerade nicht nachkommt, würde uns auf den Status einer Bananenrepublik zurückwerfen. Um die Produktion dem Verbrauch anzupassen, arbeiten die Elektrizitätsgesellschaften zunächst mit ausgetüftelten Prognosen, mit deren Hilfe der Tagesgang der Netzlast vorausgeplant wird. Dieser schwankt in Deutschland zwischen etwa 40.000 MW in den Nachtstunden und 75.000-85.000 MW an kalten Wochentagen, wenn Fabriken und Heizungen auf Hochtouren laufen [WIKI1]. Für die ständige Feinanpassung sorgt ein komplexes Netzwerk aus unterschiedlichsten Kraftwerken, die je nach Typ für Grundlast, Mittellast und Spitzenlast zum Einsatz kommen.

Bild 3. Ausschnitt der Anzeigen in der Leitwarte eines Kraftwerks. Hier sorgt ausgeklügelte Technik für die ständige Anpassung der Produktion an den Bedarf

Kraftwerke kann man nicht einfach ein- und ausschalten

Grundlastkraftwerke sind die Arbeitspferde des Elektrizitätsnetzes. Es sind die gröβten, zuverlässigsten und von ihren Produktionskosten her günstigsten Kraftwerke, dafür gebaut, 24 Stunden am Tag und wenn möglich 365 Tage im Jahr für den erwähnten Sockel von 40.000 MW zu sorgen, ohne den in Deutschland die Zivilisation – und das ist wörtlich zu nehmen – zusammenbrechen würde. Diese Kraftwerke werden auf den sogenannten optimalen Betriebspunkt gebracht und bleiben dann dort, weil jede Abweichung einen schlechteren Wirkungsgrad – und damit auch mehr CO2-Ausstoss – verursachen würde. Ihre riesigen, oft über 100 m hohen Kesselanlagen, die viele Tausend Tonnen Stahl in Form komplexer Rohrbündel enthalten, erleiden schon bei kleineren Temperaturänderungen Schäden durch Wärmeausdehnung. Solche Kraftwerke kann man nicht wie ein Auto einfach per Zündschlüssel und Gaspedal bedienen. Dafür erzeugen sie Strom – zumeist aus Braunkohle oder Kernkraft – zu sehr günstigen Preisen von etwa 2,5-3,5 ct/ kWh [WIKI2].
Für die Mittellast kommen in der Regel Steinkohlekraftwerke zum Einsatz, die sich zumindest innerhalb eines gewissen Bereichs herauf- und herunterregeln lassen. Dennoch gilt auch für sie, dass sie aufgrund ihrer groβen Massen und der mit Laständerungen verknüpften Schädigungen geänderten Anforderungen nur träge folgen. Um sie nachts nicht zu weit herunterregeln zu müssen, wird der von ihnen erzeugte Strom in den Stunden geringster Netzlast genutzt, um sogenannte Pumpspeicherkraftwerke zu füllen. Diese pumpen mit dem überschüssigen Nachtstrom Wasser in hochgelegene Staubecken. Am Tag kann man es dann auf Turbinen leiten und so Strom erzeugen.
 
Bild 4. Pumpen-Turbinenblöcke in einem Pumpspeicherkraftwerk. Solche Anlagen bieten die beste zurzeit groβtechnisch verfügbare Möglichkeit zur Speicherung von Strom
Die Spitzenlast übernehmen vor allem Gaskraftwerke. Das sind groβe Gasturbinen, die innerhalb weniger Minuten von Stillstand auf hohe Leistung gebracht werde können. Sie gehören zu den teuersten, zugleich aber auch flexibelsten Einheiten im deutschen Kraftwerkspark und sorgen zusammen mit den direkt regelbaren Pumpspeicherkraftwerken für die Feinabstimmung der Stromerzeugung auf den tatsächlichen Verbrauch. Ständige Regelimpulse von den Netzleitstellen sorgen dafür, dass dieses Orchester verschiedenster Kraftwerke ständig im Einklang spielt. Anderenfalls würde das Netz sehr schnell instabil und könnte zusammenbrechen.

Die Rolle der erneuerbaren Energien

 

Bild 5. Die nominelle Stromerzeugungs-Kapazität der in Deutschland installierten Kraftwerke, die mit „erneuerbaren Energien“ arbeiten, reicht theoretisch schon fast aus, um das Maximum des Tagesbedarfs zu decken
Mit der massiven Förderung der sogenannten „Erneuerbaren Energien“ sowie der Abschaltung der Kernkraftwerke wird dieses über Jahrzehnte aufgebaute und durchoptimierte Stromversorgungssystem jetzt mit Situationen konfrontiert, für die es niemals ausgelegt war. Wie man an Bild 5 sieht, entspricht die installierte Erzeugungskapazität aller erneuerbaren Energien nach den inzwischen erfolgten Investitionen von mehreren 100 Mrd. € inzwischen fast dem Maximalwert dessen, was für die Stromversorgung Deutschlands erforderlich ist [EMAP]. Kann man also in Bälde das vom US-Präsidenten Bush her bekannte Banner „Mission accomplished“ aufhängen und darangehen, zusammen mit den restlichen Kernkraftwerken auch die als „Dreckschleudern“ in Verruf gekommenen Kohlekraftwerke abzuschalten?

Hohe Kapazitäten von Wind und Sonne

Sieht man sich die Darstellung der installierten Kapazitäten „erneuerbarer“ Energien in Bild 5 genauer an, so stellt man fest, dass Wind und Fotovoltaik mit zusammen rund 61.500 MW daran den mit Abstand gröβten Anteil haben. Allein die Kapazitäten dieser beiden Energiequellen reichen zusammen bereits aus, um theoretisch fast 80 % des benötigten Stroms zu erzeugen. Verdeutlicht wird dies im Bild 6, wo die entsprechenden Kapazitäten in Form von Balken eingetragen wurden. Allerdings stehen diese Kapazitäten weder ständig noch zuverlässig zur Verfügung. Wind und Sonne folgen nur ihren eigenen Regeln, so dass die tatsächlich zur Verfügung stehende Energie innerhalb sehr weiter Grenzen schwankt. Strom aus Sonne steht sogar stets nur tagsüber zur Verfügung. Genau dies ist das Problem.

EE-Strom als Störenfried


Bild 6. Die theoretische Kapazität der deutschen Wind- und Solarkraftwerke erreichte 2012 schon mehr als 61.000 MW (Grafik: Wikimedia Creative Commons)
Die Auswirkungen dieser Schwankungen verdeutlicht Bild 7. Der linke Balken zeigt die typische Höchstlast eines Tagesgangs mit ihren Anteilen aus Grund-, Mittel- und Spitzenlast. Der Balken rechts daneben zeigt die theoretisch verfügbaren Erzeugungskapazitäten von Wind- und Solarstrom, den beiden Hauptakteuren der „erneuerbaren“ Stromproduktion. Das tatsächliche kumulierte Aufkommen dieser beiden Erzeugungsarten für den Tag maximaler gemeinsamer Produktion zeigt der dritte Balken: Am 31.3.2012 standen um 07:30 Uhr kurzzeitig 12567 MW Solarleistung und 20843 MW Windleistung gleichzeitig zur Verfügung [EEX]. Für diesen Zeitpunkt hätte man demnach theoretisch nicht nur alle Spitzenlastkraftwerke, sondern darüber hinaus auch nahezu die gesamte Mittellast vom Netz nehmen können. Praktisch ist das jedoch nicht möglich, denn die Stromerzeugung dieser Einheiten muss im Voraus geplant und verkauft werden, weil sowohl Produzenten als auch Abnehmer des Stroms Planungssicherheit brauchen. Die übrigen, zum Spot(t)preis extrem kurzfristig an den Börsen gehandelten Strommengen sind vergleichbar mit den „last-minute“-Angeboten im Reisesektor. Sie ersetzen nicht das reguläre Reisegeschäft, sondern sind ein Entlastungsventil, wo Notverkäufer und Schnäppchenjäger miteinander handelseinig werden können. Selbst theoretisch hätte man am 31.3. nicht alle Kraftwerke der Mittel- und Spitzenlast abschalten können, denn solche EE-Leistungen stehen nur kurzzeitig zur Verfügung, und Mittellastkraftwerke sind nur in gewissen Grenzen regelbar.

Bild 7. Wenn die Stromproduktion aus Sonne und Wind – wie am 24.10.2012 mit lediglich 258 MW – bei weniger als 1 % des Bedarfs liegt, sind konventionelle Kraftwerke unverzichtbar. Es kann also keine Rede davon sein, dass diese „ersetzt“ würden
Viel bedeutsamer ist jedoch die Situation am 24.10.2012 um 6:00 Uhr morgens [EEX]. Den entsprechenden Balken kann man in der Grafik nicht sehen, weil der betreffende Strich zu dünn ist: Zu diesem Zeitpunkt gab es gar keinen Solarstrom, und der Wind steuerte nur 258 MW zur deutschen Stromversorgung bei. Anders ausgedrückt: Nur mit Wind und Sonne hätte Deutschland restlos stillgestanden. Trotz gigantischer Investitionen in Wind- und Solaranlagen muss für solche Fälle der gesamte Bestand konventioneller Kraftwerke weiter vorgehalten werden. Das heiβt auch, dass der damit verbunden Kostenapparat – wie Personal, Instandhaltung, Verwaltung und Kapitaldienst – ständig weiterlaufen muss, damit die Kraftwerke im Notfall zur Verfügung stehen können. Eingespart werden lediglich die Brennstoffkosten, diese Einsparung wird jedoch durch erhöhte Reparaturaufwendungen wegen der schadenträchtigen Anfahr- und Abschaltvorgänge in der Regel mehr als nur kompensiert. Im Prinzip läuft demnach die Stromerzeugung aus Wind und Sonne im Wesentlichen darauf hinaus, dass ein bestens eingespieltes und durchoptimiertes Stromversorgungssystem nicht im geringsten ersetzt werden kann. Stattdessen wird es vor allem gestört und durcheinandergebracht. Mit jedem Wind- und Solarkraftwerk, das zusätzlich ans Netz gebracht wird, nehmen diese Probleme sogar noch weiter zu. Bis jetzt wurden „nur“ die Spitzen- und die Mittellast beeinträchtigt. Wenn es erst soweit kommt, dass auch der Betrieb von Grundlastkraftwerken nicht mehr störungsfrei möglich ist, dann gute Nacht Deutschland.

Stromspeicherung wäre einziger Ausweg

Die einzige Möglichkeit, solche katastrophalen Auswirkungen zu verhindern, wäre eine Zwischenspeicherung des am Bedarf vorbei erzeugten EE-Stroms, um diesen dann bei schlechter Wetterlage wieder ins Netz zurückzuspeisen, so wie es ja auch bereits mit dem Strom aus vorübergehend nicht ausgelasteten Mittellastkraftwerken geschieht. Als einzige groβtechnisch bewährte Methode stünden hierfür die bereits erwähnten Pumpspeicherkraftwerke zur Verfügung [WIKI3]. Sie haben einen Wirkungsgrad von rund 70-80 %, deutlich besser als der aller anderen Technologien wie Druckluft, Wasserstoff oder Power-to-Gas, die von interessierten Kreisen hierfür gerne und häufig in die Diskussion gebracht werden.
Das Problem: Es gibt nicht die geringste Aussicht, auch nur annähernd die benötigten Speicherkapazitäten aufzubauen, da es in Deutschland aufgrund der geographischen Gegebenheiten kaum noch geeignete Standorte für Pumpspeicherkraftwerke gibt. Die derzeit vorhandenen Anlagen haben eine Leistung von insgesamt rund 7000 MW, etwa ein Zehntel dessen, was bereits jetzt an kombinierter Erzeugungskapazität im Bereich Wind- und Solarkraftwerke installiert ist. Neben der zu geringen Leistung ist auβerdem auch ihre Speicherkapazität völlig unzureichend. Sie wurden für einen regelmäβigen Tag-Nacht-Zyklus ausgelegt und können selbst bei voller Aufladung meist nur wenige Stunden Strom liefern. Da Schlechtwetterperioden mit wenig Wind und kaum Sonne jedoch gerade im Winter über Wochen andauern können, braucht man über diese Option gar nicht erst nachzudenken. Und auch unsere Nachbarländer Norwegen, Schweiz und Österreich haben nicht im Entferntesten die Möglichkeit, mit ausreichenden Kapazitäten in die Bresche zu springen.

Wünsche und Wirklichkeiten

 
Bild 8. Beim Transport und der Speicherung elektrischer Energie liegen die Leitungs- und Umspannverluste schnell im zweistelligen Prozentbereich
Wie sehr Politik und interessierte Ideologen dennoch gerade auf diesem Gebiet dem Bürger Halbwahrheiten und Unsinn präsentieren, zeigt sich besonders krass in diesem Bereich. Herausragendes Beispiel ist in diesem Zusammenhang ein Gutachten des von der Bundesregierung eingesetzten Sachverständigenrats für Umweltfragen, der laut einem Wikipedia-Artikel im Mai 2010 in einem Sondergutachten „100 % erneuerbare Stromversorgung bis 2050: klimaverträglich, sicher, bezahlbar“ davon ausging, dass „die Kapazitäten der Speicherkraftwerke insbesondere in Norwegen (allein nahezu 85 TWh Wasserbeckenkapazität der dortigen zu Pumpspeichern ausbaufähigen Speicherwasserkraftwerke) und Schweden bei weitem ausreichen, um Schwankungen der zukünftig eingespeisten erneuerbaren Energien auszugleichen [WIKI4].“ Macht man sich jedoch die Mühe, die Tatsachen z.B. in Norwegen zu überprüfen, so stellt man fest, dass es dort zurzeit so gut wie gar keine installierten Pumpspeicherkapazitäten gibt. Als einziges tatsächlich vorhandenes norwegisches Pumpspeicherkraftwerk findet sich das Kraftwerk Saurdal mit einer installierten Pumpleistung von gerade einmal 320 MW, daneben werden zwei weitere Projekte aufgeführt – ohne Angaben zu einem Inbetriebnahmedatum. Es ist schon erschreckend zu sehen, in welcher Weise hier theoretische Möglichkeiten als Fakten dargestellt werden. Über die Kosten scheint man sich dabei gar keine Gedanken gemacht zu haben. 

Der Wirkungsgrad ist entscheidend

Zu allen anderen Speichertechnologien, die zurzeit als Alternativen zur Pumpspeicherung angeboten werden, kann kurz und bündig ausgesagt werden, dass ihr Wirkungsgrad viel zu schlecht und ihre Kosten viel zu hoch sind, um sie als Alternativen auch nur in Betracht zu ziehen. Daran wird auch noch so viel Forschung nicht viel ändern. Selbst unter optimalen Bedingungen erreichen viele dieser Technologien nur 30 bis 54 %, lediglich in Ausnahmefällen werden 62 % erreicht. Dazu muss man noch Leitungs- und Umspannverluste von 15 % und mehr rechnen, da der Strom von weit her zu den Speichern und von dort wieder zu den Verbrauchern transportiert werden müsste. Addiert man beide Verluste, so bedeutet dies, dass mehr als 50 % des teuren EE-Stroms verloren gingen, was volkswirtschaftlich völlig untragbar wäre. Zudem läge die zeitliche Reichweite dieser Speichersysteme meist im Bereich weniger Stunden statt der Wochen bis Monate, die zur effektiven Vorratshaltung benötigt würden.
Fred F. Mueller
Der Beitrag erschien zuerst bei Science Sceptical
Quellen
[EEX] http://www.transparency.eex.com/en/
[EMAP] www.EnergyMap.info (16.2.2013)
[RWE] http://www.rwe.com/web/cms/de/37110/rwe/presse-news/pressemitteilungen/pressemitteilungen/?pmid=4008636 (am 18.3.2013)
[WIKI1] http://de.wikipedia.org/wiki/Mittellast (am 18.3.2013)
[WIKI2] http://de.wikipedia.org/wiki/Stromerzeugung (am 18.3.2013)
[WIKI3] http://de.wikipedia.org/wiki/Liste_von_Pumpspeicherkraftwerken (am 18.3.2013)
[WIKI4] http://de.wikipedia.org/wiki/Pumpspeicherkraftwerk (am 18.3.2013)




Meinung: Leben als Zielscheibe

Bild rechts: Monckton in Washington, D.C. (Photo credit: Wikipedia)
Ich war Gegen­stand von Untersuchungen des Kongresses durch ein Kongressmitglied auf der Gehaltsliste der Umweltlobby, und ich war Ziel einer wissenschaftlich ungebildeten achtmonatigen „Hexenjagd“ durch einen Trotzkisten in Minnesota. Ich habe sogar eine Reihe anonymer Todesdrohungen erhalten. Meine Zwangslage ist dramatisch, aber unglücklicherweise nicht einmalig: Klimaskeptiker sind regelmäßig Gegen­stand solcher Angriffe.
Der Zynismus meiner Angreifer ist Teil einer destruktiven PR-Kampagne, ausgeführt von Banken, Energieunternehmen „erneuerbarer“ Energie, Versicherungsriesen und Kampfgruppen nebst mit diesen verbundenen Individuen, die alle danach trachten, erheblich zu profitieren durch erhebliche Übertreibung der Wissenschaft, indem sie Hinweise lancieren, denen zufolge das verbrennen fossiler Treibstoffe eine potentiell gefährliche Klimaänderung verursachen kann.
Meine erste Arbeit auf der Weltbühne war Mitte des ersten Jahrzehnts dieses Jahrhunderts erschienen, und zwar in Gestalt der Veröffentlichung einer Reihe von Artikeln im Sunday Telegraph, London, aus denen zwischen den Zeilen hervorging, dass Schätzungen der Temperaturtrends der Vergangenheit aufgrund von Informationen aus Baumringen, mit deren Hilfe die Temperaturvariationen der letzten 1000 Jahre rekonstruiert werden sollten, sich als unzuverlässig erwiesen haben. Was ich fand, war die kürzliche geringe Erwärmung, die mit der am schnellsten zunehmenden Sonnenaktivität seit 11400 Jahren zusammenfiel, ein Ereignis, dass den Temperaturrekonstruktionen über diesen Zeitraum zufolge immer wieder vorgekommen ist.
Obwohl jüngere, im Journal Science veröffentlichte Arbeiten zeigen, dass der gegenwärtige Erwärmungstrend zumindest während der letzten 11000 Jahre und vielleicht länger nicht seinesgleichen findet, zeigt die Temperaturaufzeichnung aus Mittelengland historische Beweise dafür, dass die Temperatur zum Ende des Maunder-Minimums 40 Jahre lang mit einer Rate von 4°C pro Jahrhundert gestiegen war. Diese Temperaturaufzeichnung hat sich in Vor-Thermometer-Zeiten als weniger ungenau erwiesen als zweifelhafte Baumringe, deren zweifelhafte Auswertung auf zweifelhaften Computern durch zweifelhafte Zitty-Teenager [?] ausgeführt worden sind, die von zweifelhaften Möchtegern-Bestimmern [rent-seeker] wie Michael E. Mann bezahlt werden. Seitdem hat es solche Temperaturanstiege nie mehr gegeben: im 20. Jahrhundert betrug die Erwärmung gerade mal 0,7°C, im 21. Jahrhundert gab es bislang überhaupt keine Erwärmung. In einer den linearen Trend der letzten 23 Jahre spiegelnden Graphik sieht der Trend aus wie ein Billard-Queue.
Seit der Doha-Klimakonferenz 2012, auf der ich unbeabsichtigterweise Burma repräsentiert habe, wurde die Graphik – inzwischen als Billard-Queue-Graphik bekannt – zu einem Symbol in der Debatte um die Klimaänderung, das einen patenten, graphischen Beweis der gegenwärtig vollständig fehlenden, vom Menschen verursachten Klimaänderung zur Verfügung stellt. Als Folge sahen Regierungen, Banken, Krämer der erneuerbaren Energie, Akademiker, Journalisten und alle, die sonstwie involviert waren, die Notwendigkeit, diese Graphik in jeder nur möglichen Art und Weise zu diskreditieren, und ich fand mich selbst diesen Angriffen und Drohungen mit Untersuchungen ausgesetzt, wie ich in meinem demnächst erscheinenden Buch Climate of Freedom beschreibe. In den Jahren 2009, 2010, 2011, 2012 hat Senator James Inhofe (Republikaner, Oklahoma) meine Arbeit öffentlich gewürdigt, und zusammen mit dem Kongressmann John Linder wurde mir der Meese-Noble-Preis für Frieden verliehen für meine Arbeiten zur Klimaänderung.
Bei drei Gelegenheiten hat mich das Mitglied des Repräsentantenhauses Joe Barton (Republikaner, Texas) eingeladen, vor dem Energy & Commerce Committee des US-Repräsentantenhauses zu sprechen. Bei der dritten dieser Gelegenheiten – und zum ersten Mal in der Geschichte des Kongresses – haben die Demokraten den Republikanern ihr freies Recht zur Berufung von Zeugen abgesprochen, weil sie ihren eigenen Zeugen, Al Gore, vor der öffentlichen Bloßstellung schützen wollten, die meine Aussage unvermeidlich und verdientermaßen für ihn bedeutet hätte. Ich habe auch vor dem House Ways and Means Committee und dem House Climate Change Committee ausgesagt. Inhofe und Barton sind lediglich zwei Personen aus der wachsenden Zahl der Kongressmitglieder, die den Klimaschwindel durchschaut haben.
Noch später hat mich Vaclav Klaus als Präsident der tschechischen Republik zweimal in einer Rede zur Klimaänderung in Washington DC erwähnt und danach meine Einladung angenommen, die jährliche Magistral Lecture auf dem jährlichen Seminar zu planetarischen Notfällen der World Federation of Scientists abzuhalten.
Der chinesische Botschafter in Italien übermittelte meine grundlegende, veröffentlichte Studie Clouds and Climate Sensitivity nach Peking, nachdem dessen wissenschaftlicher Berater, der bei meiner Präsentation dieser Studie zugegen war, gesagt hat: „Dies ändert alles. Es ist klar, dass es keinen signifikanten menschlichen Einfluss auf das Klima gibt“.
Ich kann auch scheinheilig tun, genau wie Michael E. Mann.
Inzwischen war ich auch Gegen­stand eines konstanten Bombardements von Angriffen auf meinen Charakter und Schmierenkampagnen gegen mich auf Websites, in Editorials, durch einen politisierten, aber jetzt diskreditierten Bediensteten im House of Lords, der ohne Genehmigung des Hauses agitiert hatte, in den Klimagate-E-Mails von Michael E. Mann und auf linksgerichteten Nachrichten-Portalen, normalerweise durch Kampfgruppen oder Individuen, die mit den Profiteuren der globalen Erwärmung der Verkehrsampel-Gesellschaft verbunden sind (die Grünen, zu gelb um zu erkennen, dass sie in Wirklichkeit Rote sind): Gruppen wie Greenpeace, Deutsche Bank, der Environmental Defense Fund, Münchener Rück und dem WWF.
Wie auf der Website WUWT oftmals erwähnt, befinden sich die Klimaforscher im Straßenkampf mit denen, die danach trachten, die Daten zu diskreditieren, die derzeit umfassend den einst akzeptierten wissenschaftlichen „Beweis“ widerlegen; vor allem, weil sie unbequem sind für jene, die von den Angriffen auf den Verbrauch fossiler Treibstoffe profitieren.
Im Zentrum solcher Attacken zu stehen hat einen zentralen Grund: Ich wurde zu einer zufälligen Figur in der Debatte um die vom Menschen verursachte Klimaänderung. Von Anfang an widerwillig habe ich diese Rolle ausgefüllt, aber nichtsdestotrotz habe ich meine Position genutzt, um die Öffentlichkeit über die Abwege um das Thema Klimaänderung zu informieren.
Trotz fortgesetzten, wenngleich geringer werdenden Skeptizismus’ in offiziellen Kreisen sind in Wirklichkeit die Beweise gegen eine gefährliche, vom Menschen verursachte Klimaänderung inzwischen sehr stark. Durch das Fördern und nachfolgende Verbrennen fossiler Treibstoffe reichern die Menschen die Atmosphäre mit Kohlenstoff an, der bislang unter der Erde geschlummert hat. Dies hilft, das Massenaussterben abzufedern, das unweigerlich durch die nächste – und seit Langem überfällige – Eiszeit stattfinden würde. Und Stürme wie der außertropische Sturm Sandy und Hurrikan Irene sowie die oftmals auch schon früher aufgetretene Hitze, Dürre und Buschbrände des vergangenen Sommers können weder logisch noch wissenschaftlich der „globalen Erwärmung“ zugerechnet werden, die inzwischen durch ihr fast völliges Fehlen während der letzten 20 Jahre und vielleicht länger augenfällig geworden ist. In einem deterministischen  Klimaprojekt in einer rationalen Welt kann etwas nicht die Ursache von etwas sein, wenn es gar nicht vorhanden ist.
Wenn wir auf diesem Weg großzügig subventionierten Unsinns weitergehen, werden wir unseren Kindern und Enkeln einen anderen Planeten hinterlassen – einen mit mehr extremem Sozialismus, noch ausgeprägterem und weiter verbreitetem wissenschaftlichen Analphabetentum, schlimmeren Episoden der Heuchelei als selbst von Michael E. Mann (wenn das überhaupt möglich ist) und größerem Wettbewerb, die Subventionen der Steuerzahler zu verprassen. Es wird schlimmer als wir je gedacht haben.
Größerer Wettbewerb, die Subventionen der Steuerzahler zu verprassen, selbst in einer Zeit mit abnehmendem globalem Bevölkerungswachstum ist wiederum ein Rezept für einen Alptraum hinsichtlich der nationalen Sicherheit. Das Schlimmste, was wir tun können ist, unsere Köpfe in den zypriotischen Sand zu stecken und uns vorzustellen, dass der nationale Bankrott nicht existiert.
Es ist unabdingbar, dass wir jetzt keine Maßnahmen ergreifen, die Scharlatane wie Michael E. Mann um Trillionen bereichern. Es wäre zwei oder drei Größenordnungen weniger kosteneffektiv, dafür einen einzigen roten Heller heute auszugeben als die globale Erwärmung geschehen zu lassen, den Sonnenschein zu genießen, zum Surfen zu gehen und die minimalen Kosten der Anpassung an die übermorgen auftretenden Konsequenzen zu übernehmen.
Globale Erwärmung? Wie wir frierende Schotten sagen und dabei unseren älteren Nachbarn gut gefüllte Gläser mit Malzwhiskey bringen, wenn sie tapfer viele Zentimeter des für diese Jahreszeit ungewöhnlichen Schnees beiseite schippen: „Nur her damit!“
Christopher W. Monckton of Brenchley is a Distinguished Expert Reviewer for the IPCC’s forthcoming Undistinguished Fifth Assessment Report. Last year he was the Distinguished Nerenberg Lecturer in Mathematics at the Distinguished University of Western Ontario, where he discussed the mathematics of Doric architercture, probabilistic combinatorics, logic, climate sensitivity, feedback amplification, and climate economics in a Distinguished fashion. He directs Distinguished Monckton Enterprises Limited. He is the Distinguished author of numerous Distinguished reviewed papers in the Distinguished learned literature, and of the Distinguished forthcoming book “Climate of Freedom”. He is Distinguished for his notorious self-effacement, modesty, and humility – which is more than can be said for the Undistinguished Michael E. Mann.
[A. d. Übers.: Bei der Übersetzung dieser Biographie würde deren Poesie vollständig verloren gehen. Daher habe ich hier darauf verzichtet.]
Link: http://wattsupwiththat.com/2013/03/27/opinion-life-as-a-target/
Übersetzt von Chris Frey EIKE




Aufkleber verfügbar: Energiewende teuer, uneffektiv, asozial




Grüne sind gegen Wachstum – außer ihrem eigenen

Den Öko-Zeloten zufolge ist Wachstum etwas Schlechtes, weil es unseren Umwelt- Fußabdruck vergrößert. Auf Seite 2 seines letzten Buches beklagt sich David Suzuki, dass unser Wirtschaftssystem
auf konstantem Wachstum und ewig weiter ausufernder Ausbeutung begrenzter Ressourcen auf einem begrenzten Planeten basiert (Hervorhebung hinzugefügt;  screencap hier)
Zu Beginn eines Kapitels mit der Überschrift Ist die Ökonomie … dumm? spricht er von unserem „gegenwärtigen ökonomischen Paradigma“ und davon, was „eine Ökonomie tun sollte“. Er erklärt, dass unser „ökonomisches System eine menschliche Erfindung ist, die modifiziert, verbessert oder verändert  werden kann, um unseren Bedürfnissen gerecht zu werden“. Ständig wiederholt er:
Es ist absurd, dass wir immer noch abhängig sind von einem kürzlich erfundenen System, das auf endlosem Wachstum basiert, während wir auf einem begrenzten Planeten leben (Hervorhebung hinzugefügt; screencap here)
Moment, es ist Zeit, die Realität zu checken. Suzuki ist ausgebildeter Genetiker. Ich weiß von keinem einzigen Nachweis, dass er auch nur einen einzigen Lehrgang in Ökonomie absolviert hat. Viele Menschen in dieser Welt haben in diesem Bereich einen PhD. Sie haben Jahrzehnte damit verbracht, die Nuancen der Wirtschaftstheorie zu erkunden. Suzuki ist keiner von ihnen. Er ist hinsichtlich Ökonomie genauso ein Amateur wie ich hinsichtlich Genetik.
Wenn er über Absurditäten reden möchte, wollen wir bei der Tatsache anfangen, dass jemand, der so wenig von diesem Fachgebiet weiß, so viel Zeit aufgewendet hat, uns mit seiner naiven ökonomischen Perspektive zu beglücken.
Dieser Perspektive fehlt jedwede Originalität. Sie hängt zusammen mit einer ganz speziellen Sicht der Welt, die in wenigen Worten zusammengefasst werden kann: Kapitalismus saugt uns aus.
Unter ihrer grünen Fassade entpuppen sich sehr viele Umweltaktivisten als Altlinke, die es immer noch nicht verstehen. Sie kleben an der kindischen Phantasie, dass die Weltwirtschaft „festgeschrieben“ [fixed] werden kann – dass sie manipuliert werden kann wie ein Hampelmann. In dieser Phantasiewelt gibt es niemals unbeabsichtigte Folgen, und die Menschen können nicht selbst denken. Stattdessen verhalten sie sich genauso, wie es die grünen Kreuzzügler erwarten und wollen.
Während der letzten Jahre haben die Öko-Aktivisten Konferenzen mit einem „Negativ-Wachstum“ organisiert. Wie es in einem FAQ-Abschnitt heißt, der für ein 2012 de-growth gathering [etwa: ein Treffen über Negativ-Wachstum im Jahr 2012] vorbereitet worden ist: Das Problem der heutigen Gesellschaft besteht darin, dass wir uns der „Religion des Wachstums“ verschrieben haben und vom „Lügendogma unbegrenzten Wachstums in einer begrenzten Welt“ in die Irre geführt worden sind (backup link).
Meine Frage an diese Kreuzzügler lautet also: Wenn wir alle es wirklich mit weniger machen, wenn wir alle uns zurücknehmen sollen – anstatt zu expandieren – unseren Verbrauch von Ressourcen, wenn Wachstum ein verderbliches Konzept ist, warum sind dann grüne Organisationen selbst gewachsen wie schlimme Unkräuter?
Die David Suzuki Foundation wurde im Jahre 1990 gegründet. In seiner Autobiographie schreibt Suzuki, dass sein erstes Büro
sich über einer Auto-Reparaturwerkstatt befunden habe und billig war … Das Dach leckte, die Papierkörbe waren mit Mäusen bevölkert, und alles, was wir in dem Büro hatten – eine schäbige Sammlung von Möbeln und Regalen – war geborgt oder gespendet (screencap here).
Während der ersten beiden Jahre war seine einzige Mitarbeiterin eine Freiwillige – seine Frau Tara Cullis.
Heute residiert die Suzuki-Foundation im zweiten Stock eines Gebäudes im trendigen Stadtteil Kitsilano – einem in Strandnähe gelegenen Stadtteil von Vanvouver, vollgestopft mit vegetarischen Restaurants, Yoga-Studios und Surf-Shops.
Ein Foto aller Mitarbeiter, bis vor Kurzem 47 Personen, aus dem Jahr 2012 (siehe Bild oben rechts) wurde auf der Website der Foundation gepostet. Das neue Bild mit allen Mitarbeitern aus dem Jahr 2013 steht hier. Wenn ich mich nicht verzählt habe, arbeiten dort derzeit fast 60 Individuen.
Aber das Suzuki-Empire ist hier noch nicht zu Ende. Diese Foundation besitzt noch Büros in drei anderen Städten – Toronto, Ottawa und Montreal.

Büros der David Suzuki Foundation
Wenn „konstantes Wachstum” falsch ist; wenn der „immer weiter zunehmende“ Verbrauch von Ressourcen etwas Schlimmes ist, warum wächst die Suzuki-Foundation weiter und immer weiter?
Es ist auch nicht die einzige Organisation [mit einem solchen Wachstum]. Greenpeace war ein „Emporkömmling von Friedensgruppe aus Vancouver“, die in einer unitarischen [?] Kirche Versammlungen abhielt. Nachdem sie ein 30 Jahre altes „knarrendes Fischerboot“ gechartert hatten, um gegen einen Nukleartest der USA zu protestieren, konnte sie es sich kaum leisten, auch nur den Treibstoff zu bezahlen (siehe dieses Buch aus dem Jahr 1996).
Vier Jahrzehnte später, im Jahr 2010 hat der Guardian über die nach speziellen Greenpeace-Wünschen gebaute 14 Millionen Pfund-Mega-Yacht berichtet.
Warum ist diese Art Wachstum in Ordnung?
Gerade in diesem Moment hält der Environmental Defense Fund (EDF) ein Treffen für Praktikanten in Texas ab. Das Online-Jobangebot enthält im ersten Absatz Folgendes:
Diese führende grüne Gruppe mit Programmen von Boston bis nach Peking hat sich während des vergangenen Jahrzehnts verdreifacht … (Fettdruck hinzugefügt; Backup hier)
Das vergangene Jahrzehnt hielt für viele von uns Herausforderungen bereit. Menschen wurden arbeitslos, haben ihre Häuser und viele ihrer Ersparnisse verloren. Einige Individuen werden sich nie mehr von der Orientierungslosigkeit erholen, die mit diesem Erfahrungen im Zusammenhang steht.
Vor diesem schlimmen Hintergrund hat der EDF diesen Sturm nicht nur abgewettert, sondern ist auch noch um 300 Prozent gewachsen!
Er prahlt mit seinem Wachstum. Das fängt schon bei der Online- Biographie von Peter Robinson an, dem Leitenden Direktor der Suzuki-Foundation, prahlt er doch damit, dass er während der acht Jahre seiner früheren Beschäftigung als Beschaffer von Ausrüstung
die Organisation durch eine Zeit anhaltender Verkäufe und wachsender Mitgliederzahlen in ganz Kanada geführt hat.
Betrachten Sie mich als total durcheinander. Wachstum ist schlecht. Außer wenn grüne Gruppen ihre Büros von einem auf vier aufstocken – oder ihre Gesamtgröße verdreifachen.
Verbrauch ist schlecht. Außer wenn Greenpeace Yachten kauft und die Suzuki-Foundation Verkaufszahlen präsentiert.
Wieder einmal wird offensichtlich, dass die Grünen Wasser verkünden und Wein trinken. Sie brennen darauf, die Übrigen von uns zu verdammen, aber sie selbst sind nicht in der Lage, nach den von ihnen propagierten Regeln zu leben.
Im besten Fall sind diese Leute philosophisch und moralisch inkohärent – altmodische Scheinheilige.
Im schlimmsten Fall arbeiten sie auf eine Gesellschaft hin, in der es zwei Klassen von Bürgern gibt: die grünen Eliten, deren Einfluss und Verbrauch immer weiter steigt – und normales Volk, die ungewaschenen Massen.
Es sind unsere Leben, unsere Wahl und unsere Gelegenheiten, die begrenzt werden müssen. Schließlich muss der Planet gerettet werden.
Donna Laframboise
Link: http://nofrakkingconsensus.com/2013/04/04/greens-against-growth-except-their-own/
Übersetzt von Chris Frey EIKE




Zukünftige Temperaturenentwicklung in Deutschland – Wärmer oder Kälter? (Teil 1)

Angesichts des nicht enden wollenden Winters scheinen die Nerven blank zu liegen. Da der Aufruf sicherlich nicht ernst gemeint und erst recht kein Argument gegen die Warmistenfraktion ist, sollen diese Argumente in unserem Zweiteiler, der darlegt, warum wir derzeit in Deutschland so frieren und wohin die grundlegende Entwicklung beim Wetter/Klima geht, vorgestellt werden.
In Deutschland ist keine Erwärmung, sondern eine bereits lang ansetzende Abkühlung zu verzeichnen, was folgende Abbildungen belegen.

Abbildung 1: Datensatz, Quelle DWD. Klimaerwärmung, das war einmal. Aber immer noch sind die Warmisten u.a. vom PIK Potsdam, mit den Posaunenträgern von ZDF, Zeit und Co. unterwegs und warnen vor einer sich fortsetzenden beschleunigten Erwärmung. Womöglich haben die kalten Temperaturen und der viele Schnee dort zu Sinnestäuschungen geführt.

Abbildung 2: Seit über 26 Jahren besteht bei den Wintertemperaturen ein abnehmender, linarer Trend zu kälteren Wintern, der sich in den letzten Jahren beschleunigte (Abb 1). Das mag bislang nicht aufgefallen sein, da alle Betrachtungen die Jahresmittel heranziehen.
Dass es sich hierbei nicht um ein auf Deutschland beschränktes Ereignis handelt, zeigt ein Blick auf die Wintertemperaturentwicklung in Großbritannien. Aufgrund seiner geographischen Lage, im Wärmespeicher Atlantik gelegen, wäre davon auszugehen, dass sich die Temperaturentwicklung dort anders verhält. Doch weit gefehlt. Unsere Charts belegen eindeutig, dass die Temperaturentwicklung Großbritanniens im Gleichklang mit Deutschland ist.

Abbildung 3 zeigt die Wintertemperaturen Großbritanniens für die letzten 16 Jahre.

Abbildung 4: Ebenso sinken bereits seit 25 Jahren in Großbritannien die Wintertemperaturen. Dort hat sich der Temperaturrückgang zu kälteren Wintern in den letzten Jahren beschleunigt. Die Grafik zeigt auch, dass für den Temperaturrückgang nicht ein nachlassender Golfstrom verantwortlich sein kann, denn sonst hätten die Wintertemperaturen in GB stärker sinken müssen als bei uns. Das ist jedoch nicht der Fall.
Nun gibt es in unseren Breiten nicht nur eine Jahreszeit, den Winter, sondern noch drei andere, die sich alle in den Jahrestemperaturen niederschlagen und die mittleren Jahrestemperaturen sollen bekanntlich nach dem Willen von PIK und Co. steigen. Inwieweit die Wintertemperaturen und speziell deren Trendverhalten, sich auf die mittleren Jahrestemperaturen auswirken, soll daher näher untersucht werden.

Abbildung 5 und 6 zeigen die Winter- und Jahrestemperaturen seit 1980 und jeweils der polynomische Trend. Dieser dreht im Jahr 2000 bei den Winter- und im Jahr 2005 bei den Jahrestemperaturen. Demnach laufen die Winter- den Jahrestemperaturen voraus.
Wie unschwer zu erkennen, laufen die Wintertemperaturen und deren Trend, den Jahrestemperaturen um Jahre voraus. Beide Abbildungen erwecken den Eindruck, dass der Verlauf der Wintertemperaturen, den Verlauf der Jahrestemperaturen vorweg nimmt. Da anhand einer Betrachtung, nicht auf ein grundsätzliches Verhalten geschlossen werden kann, sollen weitere Abkühlungsphasen betrachtet werden.
Da wir uns gegenwärtig im unmittelbaren Zeitraum nach dem Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries-Suess-Zyklus, befinden (zu seinen Auswirkungen auf das Wetter/Klima in Europa später mehr), soll zuerst die Abkühlungsphase nach dem letztmaligen Rückgang betrachtet werden. Dies ist die Zeit um 1800.
 
Abbildung 7: Da kein „DWD- Rastermittel“ für diesen weit zurückliegenden Zeitraum verfügbar war, wurden die Werte der Deutschland-Reihe von wikipedia verwendet, die hinsichtlich ihrer Datenqualität freilich geringer einzuschätzen sind. Zum Maximum des Hauptsonnenzyklus um 1790 bis 1799 traten gehäuft relativ hohe Wintermittel auf; dann fielen diese und erreichten um 1810 ihr Minimum. Den Jahresmitteln ist im Gesamtzeitraum ein deutlicherer Negativtrend überlagert; trotzdem zeigen auch diese in den 1790er Jahren ein undeutliches und nur sekundäres Maximum; darauf folgt das absolute Minimum etwa 1814. Zu beachten ist, dass nur die Polynome höheren Grades (hier ist das Polynom 4 dargestellt) diesen Sachverhalt zeigen; außerdem fällt der kühlend wirkende Tambora- Ausbruch 1815 (größter Vulkanausbruch der letzten 2.000 Jahre) und der ihm folgende Schneesommer 1816 in diese Zeitreihe. Zur besseren Darstellung in einer Abbildung wurden zu allen Wintermitteln 5°C addiert; in der unteren, 60- jährigen Gleitmittelreihe 6°C.
Folgend sind die Werte ab 1761 und bis 1830 in das 11- jährige Gleitmittel eingeflossen:

Abbildung 8: Auch hier sieht man, dass die Wintertemperaturen den Verlauf des Jahresmittels um einige Jahre vorwegnehmen. Man erkennt sehr schön das Maximum der Winterwerte etwa zum Maximum des Hauptsonnenzyklus in den 1790er Jahren; deutlich zeichnet sich auch der danach einsetzende Temperaturrückgang ab, der bei den Wintertemperaturen schon deutlich vor 1810 (Jahr 45), bei den Jahresmitteln aber erst kurz nach 1810, endet. Die kurze Erwärmungsphase um 1820 ist vermutlich auch eine Folge der nachlassenden Tambora- Wirkung; danach dauerte diese letzte Phase der „Kleinen Eiszeit“ noch bis mindestens zur Mitte des 19. Jahrhunderts fort und war eine der Ursachen für die 1848er Revolution und die Massenauswanderung nach Nordamerika.
Auch bei der Abkühlungsphase ab 1800: Wintermittel „laufen“ den Jahresmitteln um einige Jahre voraus; jedoch undeutlicher als bei der aktuellen Abkühlungsphase!
Wie wir erwartet haben, laufen also auch nach dem vorherigen Hauptsonnenzyklus, die Wintertemperaturen, den Jahrestemperaturen um Jahre voraus, mehr noch, die Zeitspanne, in der die Wintertemperaturen, den Trend der Jahrestemperaturen vorweg nehmen, ist nahezu identisch.
Wir wollen nun anhand des DWD-Datenmaterials, diese Untersuchung für den gesamten Zeitraum der aufgenommenen und vom DWD autorisierten Temperaturmessungen durchführen.

In Abbildung 9 ist oben der Jahresgang der Wintertemperaturen in Deutschland ab 1882 (Winter 1881/1882) bis heute dargestellt und dazu, der polynomische Trend. Darunter, der Temperaturjahresgang von Deutschland von 1881 bis heute und ebenfalls derselbe polynomische Trend, Datenquelle: DWD. Blaue, dünne Linien: Ausrichtung der Jahreszahlen beider Verläufe.
Auch bei flüchtiger Betrachtung erkennt man, dass beide polynomischen Trends ähnlich verlaufen und der Wintertrend dem Jahrestrend vorläuft. Dies gilt für beide Abkühlungsphasen, die im Datenmaterial ab 1881 vorhanden sind. Die Zeitspanne, in der der Wintertrend den Jahrestrend vorweg nimmt, beträgt zwischen 11 und 14 Jahren.
Zwischenbetrachtung: Aus der Abb9 oben ist bei den Wintertemperaturen in Deutschland ein leichter Anstieg der gestrichelten Trendlinie in den letzten 130 Jahren zu verzeichnen, bei der unteren Jahresgrafik etwas stärker als bei der Wintergrafik. Wir haben die Originalwerte vom DWD übernommen. Die sind nicht wärmeinselbereinigt. In diesen letzten 130 Jahren hat sich Deutschland vielerorts (EIKE berichtete darüber) zu einer Wärmeinsel entwickelt und die Thermometer der Messstationen messen die vom Menschen erzeugte Zusatzwärme mit, so dass der WI-bereinigte Verlauf eine flachere Trendlinie erwarten lässt. Bei den Jahrestemperaturen verläuft die tatsächliche Trendlinie fast parallel zur x-Achse. Siehe Literatur zum Wärmeinseleffekt. Auch ohne Berücksichtigung des Wärmeinseleffektes kommen wir zum vorläufigen Ergebnis:
1. Ergebnis
Anhand unserer Untersuchung laufen die Wintertemperaturen, den Jahrestemperaturen um ca. 10 Jahre voraus. Da der Trend (die Trendlinie) der Jahrestemperaturen erst seit 2005 kältere Temperaturen zeigt, ist für die nächsten Jahre von weiter zurückgehenden Temperaturen auszugehen. Von einer Erwärmung, also keine Spur.
Uns interessiert natürlich, wie lange dieser Abkühlungstrend in Deutschland anhalten wird. Anhand der zurückgehenden Sonnenaktivität, geht z.B. die NASA für die nächsten Jahrzehnte von zurückgehenden Temperaturen aus (“Die NASA warnt: Die Erde könnte in eine Periode „globaler Abkühlung“ eintreten“, EIKE vom 22.01.2013). Um sich der Antwort zu nähern, werten wir die Datenreihe in Abbildung 9 weiter aus, insbesondere den Gang der letzten Erwärmungs- und Abkühlungsphase der 1920/1930er Jahre, bzw. der 1950/1960er Jahre. Wir erinnern uns noch, zumindest die Älteren, dass bis in die Mitte der 1970er Jahre Politik, Medien und Mainstream-„Wissenschaftler“ vor einer bevorstehenden Eiszeit warnten (Abb. 10):

Abbildung 10: Die Medien und der „böse Klimawandel“ im „Zeitenwandel“ (Ansicht der Titelseite des Magazins „TIME“): 1977, noch warnten sie vor der großen Kälte, 2001 warnten sie vor der „Globalen Erwärmung“, 2010 behaupteten sie gar, die verheerenden Blizzards (Schneestürme) seien „weitere Anzeichen der globalen Erwärmung“.

Abbildung 11 zeigt anhand des polynomischen Trends (wie er übrigens auch vom DWD in seinen Trendanalysen/-darstellungen verwendet wird) das Ein-und Ausschwingverhalten der Warm-und Kaltphase im 20. Jahrhundert. Sie hat eine Länge von etwa 64 Jahren, wobei ihre Einschwingzeit (Erwärmung) mit 27 Jahren deutlich kürzer, als ihr Ausschwingverhalten (Abkühlung) ist. Das Verhältnis beträgt 40% zu 60% oder 4:6 und liegt damit sehr nahe am Verhalten von solaren Zyklen. Auch dort ist die Anstiegszeit kürzer, als die Zeit, in der die Sonnenaktivität abfällt und liegt bei etwa denselben Verhältniswerten (1/3 zu 2/3). Gleich wird sie nicht sein können, wegen der Puffer-und Wärmekapazität des Wassers. Bei generell zurückgehender solarer Aktivität verschiebt sich übrigens das Verhältnis zugunsten der Abstiegszeit, also der Abkühlungsphase.
Da die derzeitige Erwärmungs-und Abkühlungsphase dasselbe Verhalten (Form) wie die vorherige hat und diese den solaren Aktivitätsmustern entspricht, übertragen wir deren statistischen Werte auf die heutige Erwärmungs-und Abkühlungsphase. Wie in Abbildung 11 zu sehen, ist diese länger ausgeprägt. Deren Erwärmungsphase beträgt 42 Jahre, so dass sich für die Ausschwingzeit (Abkühlungsphase) eine Länge von ca. 68 Jahren ergibt (Abbildung 12).

Abbildung 12 zeigt die projizierte Abkühlungsphase der jetzigen Erwärmungs- und Abkühlungsphase. Diese hatte für die Wintertemperaturen 1998 ihr Maximum (Erwärmung). Seither fällt der polynomische Trend. Anhand der Projizierung dauert die Abkühlungsphase bis zum Jahr 2060, wobei das ermittelte Verhältnis Abkühlzeit zu Erwärmungszeit der 1. Erwärmungs-/Abkühlungsphase übernommen wurde.
Bei dem ermittelten Vorlauf der Wintertemperaturen zu den Jahrestemperaturen von ca. 10 Jahren, muss davon ausgegangen werden, dass die seit einem Jahrzehnt zu verzeichnende Abkühlungsphase in den Jahrestemperaturen, noch bis mindestens 2070 anhalten wird. Wird weiter berücksichtigt, dass bei geringer werdender solarer Aktivität, sich das Verhältnis Abstiegszeit zu Anstiegszeit, zugunsten der Abstiegszeit verschiebt, kann davon ausgegangen werden, dass das von uns ermittelte Jahr 2070, die Untergrenze darstellt und die Abkühlphase tendenziell länger ist. Von einer nur kurzzeitigen Abkühlung, wie sie von PIK und Co. anhand des kalten Winters bemüht wird oder gar von einer galoppierenden Erwärmung für die nächsten Jahre/Jahrzehnte (bis zum Jahr 2100), wie sie der DWD hinausposaunt, kann demnach keine Rede sein. Das Gegenteil ist anhand unserer Untersuchung zu erwarten. In einer Privatmail teilte der DWD übrigens einem der Autoren mit, dass die gegenwärtige „Stagnation“ – was immer der DWD unter Stagnation versteht – noch etwa fünf bis sieben Jahre andauern wird, dann aber werde sich die Erwärmung mit aller Deutlichkeit durchsetzen. Wäre für uns natürlich interessant, wie der DWD zu seiner Aussage gelangt. Wohl etwa aus Computerspielen oder im Fachchargon, Klimamodelle genannt?
Spiegeln wir nun unsere Daten an denen von NASA et al. Die NASA geht, wie bereits erwähnt, von einer zurückgehenden solaren Aktivität und damit Abkühlug für die nächsten Jahrzehnte aus. Der Ausnahmephysiker Landscheidt ging bereits in den 1990er Jahren von zurückgehenden Temperaturen bis in die 2040er Jahre aus. Vor annährend 5 Jahren veröffentlichte Prof. David C. Archibald in ”The past and future of climate” die folgende Abbildung:

Abbildung 13
Wir „gehen“ demnach keiner Warmzeit, sondern einer Kaltzeit entgegen. Zu einem noch weitreichenderen Ergebnis kommen russische Forscher (http://german.ruvr.ru/2013_03_03/Die-Welt-vor-einer-Eiszeit/). Sie gehen von einer Abkühlungsphase bis zur Mitte des 21. Jahrhunderts aus, was unserem Ergebnis recht nahe kommt. Doch wir wollen unser Ergebnis weiterer Prüfungen unterziehen.
Der russische Wissenschaftler Dr. Abdussamatov (Chef der Weltraumforschung der Abteilung für Sonne am Pulkovo Observatorium der Russischen Akademie der Wissenschaften) hat für die nächsten 100 Jahre eine Abkühlung ermittelt (Abbildung 13). EIKE berichtete darüber: “100 Jahre Kälte – Russische Wissenschaftler haben das zyklische Verhalten der Sonne analysiert und sie sagen nun 100 Jahre Abkühlung voraus. Die Wissenschaftler sind nicht irgendwer“ vom 21.11.2011.

Abbildung 14: TSI-Variationen und Sonnenflecken-Aktivität seit 1611 und die Vorhersage (gestrichelte Linien) (Abdussamatov H. I.: The Sun Dictates the Climate of the Earth. 2009, St. Petersburg, “Logos”, – 197 p.; The Sun Dictates the Climate. 4th International Conference on Climate Change in Chicago, May 2010.)
Unsere Aussage soll an den solaren Zyklen, die für unser Wetter/Klima bedeutsam sind, weiter geprüft werden:
– Hauptsonnenzyklus (im Mittel 208-jährige de Vries/Suess-Zyklus: Maximum in 2003)
– Brückner/Landscheidt-Zyklus (im Mittel 36 Jahre: Maximum in 2005)
– Gleissberg-Zyklus (Oberschwingung des Schwabe-Zyklus, 90 Jahre, Maximum 1968)
Der Hauptsonnenzyklus wird sein Minimum um 2090 erreichen.
Der Brückner/Landscheidt um 2025
Der Gleisberg-Zyklus um 2020 (also im 25. Sonnenzyklus)
Alles deutet also darauf hin, dass die Temperaturen noch weiter fallen werden. Die Frage ist “nur“, für wie lange? Da die Sonnenforschung noch weit davon entfernt ist, alle Geheimnisse unseres Zentralgestirns zu kennen, hilft eine Betrachtung vergangener, gemessener Temperaturen weiter. Insbesondere, wie sich die Temperaturen in Deutschland und seiner Umgebung nach dem letzten Rückgang im Hauptsonnenzyklus entwickelten. Leistenschneider ist bereits im Teil 8 seiner EIKE-Reihe “Dynamsches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ darauf eingegangen.

Abbildung 15, Quelle: Prof. Ewert, EIKE, zeigt den Temperaturgang von Kopenhagen im Zeitraum von 1768 – 2009. Die rote Linie gibt den Zeitpunkt des Maximums im Hauptsonnenzyklus an. Bis zu einem Zeitraum von 20 – 30 Jahren nach dem Maximum des Hauptsonnenzyklus schwanken die Temperaturen am stärksten zwischen warm und kalt (rote Fläche). Bis zum Minimum des Hauptsonnenzyklus sind immer noch relativ hohe Temperaturausschläge zu verzeichnen, jedoch auf insgesamt niedrigerem Niveau (grüne Fläche). Unmittelbar vor und nach dessen Minimum ist das Klimasystem sozusagen in seinem eingeschwungenen, kalten Zustand und die Ausschläge sind am geringsten. Vor einem Temperaturanstieg fallen die Temperaturen auf ein relatives Minimum und steigen dann kontinuierlich an (schwarze Linien).

Abbildung 16, Quelle: (http://www.lanuv.nrw.de/luft/wirkungen/klima_grundlagen.htm) zeigt den Temperaturgang am Hohenpeißenberg von 1781-1995 nach Fricke 1997. Die rote Linie kennzeichnet wieder das Maximum des Hauptsonnenzyklus. Auch hier sind bis ca. 30 Jahre nach dem Hauptsonnenzyklus die stärksten Jahresschwankungen der Temperatur zu sehen (rote Fläche), die dann geringer werden (grüne Fläche) und nach dem Minimum im Hauptsonnenzyklus die geringsten Werte einnehmen.

Abbildung 17: Zu sehen ist der Temperaturverlauf von Wien im Zeitraum von 1775 – 2008, Quelle: Prof. Ewert, EIKE. Der Temperaturverlauf verhält sich wie bei den vorherigen Datenreihen.
 
Abbildung 18: Ebenfalls das gleiche Bild bei der Temperaturgangreihe München im Zeitraum von 1781 – 1991.

Abbildung 19: Die Temperaturgangreihe von Berlin-Dahlem von 1701 – 2008, mit den gleichen Merkmalen.
2. Ergebnis
Anhand der solaren Aktivitätsschwankungen und der Vergleiche der Temperaturentwicklung nach dem vorherigen Hauptsonnenzyklus, ist für die nächsten 40-50 Jahre mit einem deutlichen Rückgang der Temperaturen zu rechnen. Nach dem Hauptsonnenzyklus fallen die Temperaturen, dabei unterliegen sie hohen Schwankungen zwischen warm und kalt, wie dies die letzten Jahre wieder zu beobachten ist, so dass der Temperaturgang für die nächsten 10 bis 20 Jahre weiter diesen Extrema zwischen warm und kalt unterliegen sollte. Das Klimasystem verhält sich dabei wie ein physikalisch, elektrisches System, welches in seiner Übergangsphase (Hysterese, beim Klima zwischen Warmzeit und Kaltzeit) empfindlich auf Veränderungen in seinen Eingangsgrößen reagiert, wobei die Eingangsgröße die solare Aktivität ist. Im eingeschwungenen Zustand (z.B. kalt) ist es weitgehend stabil und nur geringen Schwankungen unterworfen. Ca. 40 – 50 Jahre nach einem Maximum im Hauptsonnenzyklus sind die Schwankungen zwischen warm und kalt weiterhin relativ hoch, allerdings auf insgesamt niedrigerem Niveau. Im „eingeschwungenen“ Zustand ist das System stabil auf niedrigem Niveau. Das Minimum wird etwa 70 Jahre nach dem Maximum im Hauptsonnenzyklus erreicht. Demnach in den 2070er Jahren.
Im Teil 2 werden wir unsere Ergebnisse einer weiteren Prüfung unterziehen, sowie die Aussage vom PIK und AWI unter die Lupe nehmen, die da heißt: Es ist deswegen so kalt, weil es wärmer wird…
Stefan Kämpfe, Weimar
Josef Kowatsch, Hüttlingen
Raimund Leistenschneider – EIKE